JP6515344B2 - Defect detection apparatus and defect detection method - Google Patents

Defect detection apparatus and defect detection method Download PDF

Info

Publication number
JP6515344B2
JP6515344B2 JP2015179308A JP2015179308A JP6515344B2 JP 6515344 B2 JP6515344 B2 JP 6515344B2 JP 2015179308 A JP2015179308 A JP 2015179308A JP 2015179308 A JP2015179308 A JP 2015179308A JP 6515344 B2 JP6515344 B2 JP 6515344B2
Authority
JP
Japan
Prior art keywords
image
light
tubular body
illumination light
annular laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015179308A
Other languages
Japanese (ja)
Other versions
JP2017053790A (en
Inventor
山地 宏尚
宏尚 山地
今野 雄介
雄介 今野
武男 中田
武男 中田
正樹 山野
正樹 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2015179308A priority Critical patent/JP6515344B2/en
Publication of JP2017053790A publication Critical patent/JP2017053790A/en
Application granted granted Critical
Publication of JP6515344B2 publication Critical patent/JP6515344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、欠陥検出装置及び欠陥検出方法に関する。   The present invention relates to a defect detection apparatus and a defect detection method.

例えば鋼管などの管状体の検査は、検査員による目視検査により行われているが、かかる目視検査は検査員の技量に負う部分が大きい。特に、管状体の内面検査は目視検査が不十分であるため、破廉恥な疵流出や、重大クレームとなることがある。   For example, inspection of a tubular body such as a steel pipe is performed by visual inspection by an inspector, but such visual inspection largely depends on the skill of the inspector. In particular, the inspection of the inner surface of the tubular body may result in a shameful hemorrhage or serious claims due to insufficient visual inspection.

これらの管状体内表面における疵などの欠陥検査方法としては、管状体の内面を全周に亘って撮影する撮像装置や照明装置等の光学的手段からなる検出プローブを、管状体内で軸方向に移動させる光学的検査が実施されている。   As a defect inspection method for defects such as wrinkles on the inner surface of the tubular body, a detection probe consisting of an optical device such as an imaging device or an illumination device for imaging the inner surface of the tubular body all around is moved in the axial direction in the tubular body. Optical inspection is conducted.

例えば以下の特許文献1には、全方位方向の光を受光するミラーをカメラの先端に配置した撮像装置と、拡散リング照明と、を備えることで、管内の内表面を観察する装置が提案されている。   For example, Patent Document 1 below proposes an apparatus for observing the inner surface of a tube by including an imaging device in which a mirror for receiving light in all directions is disposed at the tip of the camera and diffusion ring illumination. ing.

また、以下の特許文献2及び特許文献3には、管の一方の開口端部側に配設された撮像装置で管内面を撮像した画像から、管内面の疵を検出する方法が提案されている。   Further, Patent Document 2 and Patent Document 3 below propose a method for detecting a defect in the inner surface of a pipe from an image obtained by imaging the inner surface with an imaging device disposed on one open end side of the pipe. There is.

更に、以下の特許文献4には、管状体の軸方向に沿って移動しながら、管状体の内表面に対して環状のレーザ光を照射して得られる環状ビーム画像から光切断画像を得ることで、結果的に内表面の凹凸疵と模様系の疵とを同時に検出する装置が提案されている。   Furthermore, in Patent Document 4 below, a light-cut image is obtained from an annular beam image obtained by irradiating an inner surface of a tubular body with an annular laser beam while moving along the axial direction of the tubular body. As a result, an apparatus has been proposed that simultaneously detects the uneven wrinkles on the inner surface and the wrinkles in the pattern system.

特開2004−354525号公報JP 2004-354525 A 特開2011− 69616号公報JP, 2011-69616, A 特開2012−242233号公報JP 2012-242233 A 特開2012−159491号公報JP, 2012-159491, A

上記特許文献1に開示されている技術では、管内面の表面の全方位方向の撮像画像を得ることは可能である。しかしながら、撮像画像から、凹凸疵であるか模様状の疵であるか、あるいは地肌模様であるかの選別は、画像輝度情報に依存するのみであるため、選別が困難であるという問題があった。   According to the technique disclosed in Patent Document 1 described above, it is possible to obtain a captured image of the omnidirectional direction of the surface of the inner surface of the tube. However, there is a problem that it is difficult to select from the captured image whether it is a rough or patterned wrinkle or a background pattern, because it depends only on the image brightness information. .

また、上記特許文献2及び特許文献3に開示されている技術では、管状体の内部の深い部分は、撮像画素が荒くなる低分解能画像となるため、微小疵の検出が困難となる。また、管開口部から管の奥に亘って撮像視野が変化し、かつ、検査表面からの反射光の角度や照明光の角度が変化していくことから、撮像分解能が変化したり、同じ疵であっても輝度が異なる結果見え方が変化したりしてしまう。すなわち、管状体の内表面全体が汚れている場合や、管内表面に粗度がある場合には、凹凸疵の陰影か、表面正常部の汚れや粗度による濃淡変化か、を判別することが困難になるといった問題があった。   Further, in the techniques disclosed in Patent Document 2 and Patent Document 3, the deep portion inside the tubular body is a low resolution image in which imaging pixels become rough, so detection of micro wrinkles becomes difficult. In addition, the imaging field of view changes from the tube opening to the back of the tube, and the angle of the reflected light from the inspection surface and the angle of the illumination light change, so the imaging resolution changes. However, the appearance may change as a result of different luminance. That is, when the entire inner surface of the tubular body is dirty, or when there is roughness on the inner surface of the tube, it may be determined whether the shading of the uneven surface or the density change due to the contamination or roughness of the surface normal portion. There was a problem that it became difficult.

また、上記特許文献4に開示されている技術を用いることで、管体内表面の凹凸状態を表す深さ画像と、輝度分布を表す輝度画像と、が得られる。そのため、上記特許文献4に開示されている技術は、管状体の内表面の検査を精度良く実行することができ、凹凸のある疵と模様状の疵とを個別に検出することに優れている。しかしながら、上記特許文献4に開示されている技術は、凹凸のない疵については有害/無害を判定するのが困難であるという問題があった。   Further, by using the technology disclosed in Patent Document 4 described above, a depth image representing the uneven state of the inner surface of the tube and a luminance image representing a luminance distribution can be obtained. Therefore, the technique disclosed in Patent Document 4 can perform the inspection of the inner surface of the tubular body with high accuracy, and is excellent in separately detecting the wrinkles having the unevenness and the wrinkles in the pattern shape. . However, the technique disclosed in Patent Document 4 has a problem that it is difficult to determine harm / no harm for wrinkles having no unevenness.

凹凸のない疵であっても、有害度が高いきずとして、例えば、鋼管内表面の踏み付け疵が挙げられる。この踏み付け疵は、鋼板を管状に成形して鋼管を製造する際の溶接工程で生じるスパッタ等の異物が原因で発生することが多い。特に、電縫管製造工程の溶接時に発生するスパッタを、内削マンドレルを支持するコロが踏みつけ、踏みつけられたスパッタが母材である鋼管内表面に咬み込むことで生じる疵が、踏み付け疵の代表的な例である。この場合、スパッタがコロで踏み潰されて母材に咬み込んだ状態で、表面が均される。そのため、咬み込んだスパッタ表面は平らになって、蓋をした状態になっている。スパッタ表面は、コロに圧着されて摩耗するため、凹凸変化は微小になり、従来の凹凸形状を検出する手段では、検出が困難となる。このような疵を、以下では、「蓋付咬み込み疵」と称することとする。   Even if there is no unevenness, as a highly harmful flaw, for example, a tread on an inner surface of a steel pipe can be mentioned. This treadle often occurs due to foreign substances such as spatter generated in a welding process in manufacturing a steel pipe by forming a steel plate into a tubular shape. In particular, a roller supporting the internal cutting mandrel steps on the spatter generated during welding in the electric resistance welded tube manufacturing process, and the wrinkle generated by the pressed spatter biting into the inner surface of the steel pipe as a base material Example. In this case, the surface is leveled in a state where the spatter is crushed by a roller and bites into the base material. Therefore, the spattered surface which has bitten is flat and in a state of being covered. Since the sputtered surface is worn by being crimped to the roller, the change in unevenness becomes minute, and detection is difficult with the conventional means for detecting the uneven shape. Such a cocoon is hereinafter referred to as "a covered bite".

図24に、以上のようなメカニズムで発生した、電縫鋼管内表面の蓋付咬み込み疵の断面プロファイルの一例を示した。かかる断面プロファイルは、蓋付咬み込み疵が発生していることが既知の部分を、公知の表面粗度計で測定することで得たものである。図24に示した断面プロファイルにおいて、破線で囲った領域が、蓋付咬み込み疵の発生している箇所である。この部分では、周囲と比べて表面の凹凸が平坦となっており、かつ、この平坦部分の両端に断面が急峻に変化している切り込みが存在している。その結果、かかる蓋付咬み込み疵の高さは、20μm程度であり、大きさは直径1mm以下となっている。   FIG. 24 shows an example of the cross-sectional profile of the lidded bite weir generated on the inner surface of the ERW pipe by the above mechanism. Such a cross-sectional profile is obtained by measuring a portion where it is known that a covered bite has occurred with a known surface roughness meter. In the cross-sectional profile shown in FIG. 24, the region surrounded by the broken line is a portion where a covered and bite-in is generated. In this portion, the unevenness of the surface is flat as compared with the surroundings, and there is a cut whose cross section changes sharply at both ends of the flat portion. As a result, the height of such a covered bite and eyebrow is about 20 μm, and the size is 1 mm or less in diameter.

上記のような蓋付咬み込み疵は、スパッタが咬み込んだ分だけ鋼管肉厚が薄くなり、鋼管肉厚保証を外れるため有害度が高く、検出しなければならない疵である。ところが、従来技術の輝度画像から検出する方法では、かかる蓋付咬み込み疵が微小であることもあり、内表面の地合や汚れと区別して検出することが困難である。また、上記のような蓋付咬み込み疵は、咬み込んだ蓋が外れた状態になる場合もある。蓋が外れた場合、蓋が外れた後の疵は、通常の凹み疵として検出する必要がある。   The above-mentioned cap-and-tack bite with a lid has a high degree of harmfulness because the thickness of the steel pipe is reduced by the amount of spatter biting and the thickness of the steel pipe is not guaranteed, and it should be detected. However, in the method of detecting from a luminance image according to the prior art, such a covered bite may be minute, and it is difficult to distinguish and detect formation and dirt on the inner surface. Moreover, the above-mentioned lidded bite-in-the-basket may be in a state where the bite-in lid is removed. If the lid is removed, the wrinkle after the lid is removed needs to be detected as a normal dent.

すなわち、有害度が高い蓋付咬み込み疵のような踏み付け疵は、蓋付の状態での平坦な形状や、蓋が外れた状態での凹み形状の両方を、精度良く検出することが必要である。   That is, it is necessary to detect with high accuracy both the flat shape in the state with the lid and the shape of the recess in the state with the lid removed with high accuracy. is there.

従って、鋼管内面を全長に亘って品質保証し管理することを目的として、定量的に疵を検査するといった要求のために、凹凸疵の検出は無論のこと、凹凸無い有害疵を無害の汚れ等と選別して検出することが必要となる。   Therefore, for the purpose of quality inspection and control of the inner surface of the steel pipe over the entire length, for the purpose of quantitatively inspecting flaws, it is needless to say that the detection of irregularities is no harm, no harmful flaws without irregularities, etc. It is necessary to sort out and detect.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、管状体の内表面に発生しうる凹凸変化を伴う凹凸疵のみならず、凹凸変化を伴わない有害疵を、無害の汚れ等と選別して精度良く検出することが可能な、欠陥検出装置及び欠陥検出方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and the object of the present invention is not only the unevenness wrinkle accompanied by the unevenness change which may occur on the inner surface of the tubular body but also the unevenness change. An object of the present invention is to provide a defect detection apparatus and a defect detection method capable of accurately detecting harmful flaws by sorting them with harmless dirt and the like.

上記課題を解決するために、本発明のある観点によれば、管状体の軸方向に沿って移動しながら、当該管状体の内表面の全周方向に対して、環状のレーザ光及び円錐状の照明光をそれぞれ照射し、当該環状のレーザ光及び円錐状の照明光が照射された前記内表面を撮像することで、前記内表面における前記環状のレーザ光及び円錐状の照明光の撮像画像である管内表面画像を、管状体の軸方向に沿って複数生成する管状体撮像装置と、前記管状体撮像装置により生成された前記管内表面画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、を備え、前記管状体撮像装置は、前記管状体の内表面の全周方向に対して前記環状のレーザ光を照射する環状レーザ光源と、前記管状体の内表面の全周方向に対して前記円錐状の照明光を照射する円錐状照明光源と、前記環状のレーザ光及び円錐状の照明光が照射された前記内表面を、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域とが同一視野内に収まるように撮像するエリアカメラと、を有し、前記エリアカメラは、前記円錐状の照明光の照射領域からの前記円錐状の照明光の正反射光が結像し、かつ、前記環状のレーザ光の照射部分からの前記環状のレーザ光の乱反射光が結像するように、前記環状レーザ光源及び前記円錐状照明光源と対向して配設されており、前記演算処理装置は、それぞれの前記管内表面画像における前記環状のレーザ光の照射部分の重心位置及び半径をそれぞれ算出する環状ビームセンター算出部と、算出された前記重心位置と、前記重心位置と前記環状のレーザ光の照射部分との離隔量と、前記重心位置と前記円錐状の照明光の照射領域との離隔量と、に基づいて前記管内表面画像の座標系を変換し、それぞれの前記環状のレーザ光の照射部分を前記管状体の周方向に展開した線分である光切断線を含む帯状の領域である光切断線画像と、それぞれの前記円錐状の照明光の照射領域を前記管状体の周方向に展開した帯状の領域である正反射展開画像と、を複数生成する座標変換部と、前記光切断線画像それぞれを前記軸方向に沿って順に配列させた光切断線画像フレームに基づいて、前記管状体の内表面の凹凸状体を表す深さ画像を算出する深さ画像算出部と、前記光切断線画像フレームに基づいて、前記管状体の内表面における前記環状のレーザ光の輝度の分布を表わす乱反射画像を算出する乱反射画像算出部と、前記正反射展開画像それぞれを前記軸方向に沿って順に配列させて、前記管状体の内表面における前記円錐状の照明光の輝度の分布を表わす正反射画像を生成する正反射画像生成部と、算出された前記深さ画像、前記乱反射画像及び前記正反射画像に基づいて、前記管状体に存在する欠陥を検出する欠陥検出部と、を有する、欠陥検出装置が提供される。   In order to solve the above problems, according to one aspect of the present invention, while moving along the axial direction of the tubular body, annular laser light and conical shape with respect to the entire circumferential direction of the inner surface of the tubular body. The illumination light of each is illuminated, and the imaged image of the annular laser light and the conical illumination light on the inner surface by imaging the inner surface irradiated with the annular laser light and the conical illumination light A tubular body imaging device that generates a plurality of in-pipe surface images along the axial direction of the tubular body, and performing image processing on the in-pipe surface image generated by the tubular body imaging device; An arithmetic processing unit that determines whether there is a defect on the surface, and the tubular body imaging device includes an annular laser light source that emits the annular laser beam to the entire circumferential direction of the inner surface of the tubular body; , Circumferential direction of the inner surface of the tubular body A conical illumination light source for illuminating the conical illumination light, the inner surface irradiated with the annular laser beam and the conical illumination light, an irradiated portion of the annular laser beam, and the conical shape And an area camera for imaging so that the illumination area of the illumination light falls within the same field of view, the area camera being a specular reflection of the conical illumination light from the illumination area of the conical illumination light It is disposed opposite to the annular laser light source and the conical illumination light source so that light is imaged and irregularly reflected light of the annular laser light from the annular laser light irradiation portion is imaged. The arithmetic processing unit calculates an annular beam center calculating unit that calculates a barycentric position and a radius of the irradiation portion of the annular laser light in each of the in-pipe surface images, the calculated barycentric position, and the barycenter location and The coordinate system of the in-pipe surface image is converted based on the distance between the annular laser light irradiation portion and the distance between the center of gravity position and the conical illumination light irradiation area, and A light cutting line image which is a band-like area including a light cutting line which is a line segment in which an irradiation part of an annular laser light is expanded in a circumferential direction of the tubular body, and an irradiation area of each conical illumination light A coordinate transformation unit that generates a plurality of specular reflection developed images, which are band-like regions developed in the circumferential direction of the tubular body, and a light cutting line image frame in which the light cutting line images are arranged in order along the axial direction Based on the depth image calculating unit for calculating a depth image representing the uneven body on the inner surface of the tubular body, and the annular laser on the inner surface of the tubular body based on the light cutting line image frame A diffuse reflection image representing the distribution of light intensity The irregular reflection image calculation unit to be calculated and the regular reflection developed image are arranged in order along the axial direction to generate a regular reflection image representing the distribution of the brightness of the conical illumination light on the inner surface of the tubular body A defect detection apparatus comprising: a regular reflection image generation unit; and a defect detection unit for detecting a defect present in the tubular body based on the calculated depth image, the irregular reflection image, and the regular reflection image. Provided.

前記深さ画像算出部は、前記周方向に沿った前記光切断線の線幅方向の重心位置を算出し、前記半径を、前記光切断線画像に対して予め指定した軸方向の位置である基準位置として、当該基準位置と前記重心位置との変位量に基づいて前記深さ画像を算出することが好ましい。   The depth image calculation unit calculates a barycentric position of the light cutting line in the line width direction along the circumferential direction, and the radius is a position in an axial direction previously designated with respect to the light cutting line image. It is preferable to calculate the depth image as a reference position based on a displacement between the reference position and the barycentric position.

前記乱反射画像算出部は、前記光切断線のそれぞれに対して、前記周方向の位置毎に、光切断線に対応する画素を特定するための第1の閾値以上の輝度値を有する画素を線幅方向に加算した個数と、当該第1の閾値以上の輝度値を有する画素の総和輝度とを算出し、前記総和輝度の前記線幅方向の平均値に基づいて前記乱反射画像を算出することが好ましい。   The irregular reflection image calculation unit may set, for each of the light cutting lines, a pixel having a luminance value equal to or greater than a first threshold for specifying a pixel corresponding to the light cutting line at each position in the circumferential direction. Calculating the number of pixels added in the width direction and the total luminance of pixels having luminance values equal to or greater than the first threshold, and calculating the irregular reflection image based on an average value of the total luminance in the line width direction preferable.

前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域と、が互いに重畳しないように配設されていてもよい。   The annular laser light source and the conical illumination light source may be disposed such that the irradiation portion of the annular laser light and the illumination area of the conical illumination light do not overlap with each other.

前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域と、が互いに重畳するように配設されており、前記環状のレーザ光と、前記円錐状の照明光とは、波長、照射タイミング、又は、偏光が互いに異なっており、前記エリアカメラは、前記環状のレーザ光の照射部分からの反射光と、前記円錐状の照明光の照射領域からの反射光と、を互いに区別して撮像してもよい。   The annular laser light source and the conical illumination light source are disposed such that the irradiation portion of the annular laser light and the irradiation region of the conical illumination light overlap each other, and the annular laser light And the conical illumination light are different from each other in wavelength, irradiation timing, or polarization, and the area camera is configured to reflect the reflected light from the portion irradiated with the annular laser beam and the conical illumination light. The reflected light from the irradiation area of may be distinguished from each other and imaged.

前記エリアカメラは、カラー撮像が可能なカラーカメラであり、前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光及び前記円錐状の照明光の色の組み合わせが、(赤・青)、(青・緑)、又は、(赤・緑)の何れかとなるように波長が互いに異なる光源であってもよい。   The area camera is a color camera capable of color imaging, and the annular laser light source and the conical illumination light source are combinations of colors of the annular laser light and the conical illumination light (red / blue) The light sources may have different wavelengths so as to be either (blue / green) or (red / green).

前記円錐状の照明光の照射領域は、前記管状体の内表面において前記軸方向に長さdを有しており、前記円錐状の照明光の照射領域は、前記環状のレーザ光が前記軸方向にdだけ進む間に1度だけ撮像されてもよい。   The illumination area of the conical illumination light has a length d in the axial direction on the inner surface of the tubular body, and the illumination area of the conical illumination light has the annular laser beam along the axis It may be imaged only once while advancing in the direction by d.

前記座標変換部は、前記座標系の変換に際して、前記光切断線画像の各画素の輝度値、及び、前記正反射展開画像の各画素の輝度値を、対応する前記管内表面画像の各位置における近傍画素の輝度値から、画像補間処理により算出してもよい。   The coordinate conversion unit is configured to convert the luminance value of each pixel of the light section image and the luminance value of each pixel of the specular reflection developed image at each position of the corresponding in-pipe surface image when converting the coordinate system. You may calculate by the image interpolation process from the luminance value of a neighboring pixel.

前記欠陥検出部は、前記深さ画像、前記乱反射画像及び前記正反射画像の画素値が、それぞれの前記画像に対して設定された欠陥部位特定のための第2の閾値以上であるか否かに基づいて欠陥部位を特定し、特定した前記欠陥部位について、当該欠陥部位の形態及び画素値に関する特徴量情報を抽出し、抽出した前記特徴量情報に基づいて、前記管状体の内表面に存在する欠陥を判別することが好ましい。   The defect detection unit determines whether the pixel values of the depth image, the irregular reflection image, and the regular reflection image are equal to or more than a second threshold value for identifying a defect site set for each of the images. The defect site is identified based on the above, the feature quantity information on the form and pixel value of the defect site is extracted for the identified defect site, and the defect site is present on the inner surface of the tubular body based on the extracted feature quantity information It is preferable to identify the defects that occur.

前記管状体撮像装置は、前記環状レーザ光源及び前記円錐状照明光源と、前記エリアカメラと、を連結して固定する1又は複数の連結部材を更に有し、前記管状体撮像装置が前記管状体の内部に送入される際、及び、前記管状体撮像装置が前記管状体の内部から送出される際のそれぞれで、前記連結部材により前記環状のレーザ光及び前記円錐状の照明光が遮蔽されることで生じた遮蔽領域を含む前記管内表面画像を生成するとともに、前記管状体撮像装置の送入と送出との間に、送入時の前記管内表面画像の遮蔽領域と送出時の前記管内表面画像の遮蔽領域とが重ならないように前記管状体撮像装置を回転し、前記演算処理装置は、送入時の前記光切断線画像又は送出時の前記光切断線画像を利用して、前記光切断線画像及び前記正反射展開画像における前記遮蔽領域の位置を特定する遮蔽領域特定部と、送入時又は送出時の前記管内表面画像に基づいて生成された前記深さ画像、乱反射画像及び正反射画像における前記遮蔽領域を、送出時又は送入時の前記管内表面画像に基づいて生成された前記深さ画像、乱反射画像及び正反射画像を利用して補間する画像補間部と、を更に有し、前記座標変換部は、前記管状体の内表面の所定の位置を基準点として送入時及び送出時の前記管内表面画像の座標系をそれぞれ変換し、送入時における複数の前記光切断線画像及び前記正反射展開画像、並びに、送出時における複数の前記光切断線画像及び前記正反射展開画像を生成してもよい。   The tubular body imaging device further includes one or more connecting members that couple and fix the annular laser light source, the conical illumination light source, and the area camera, and the tubular body imaging device is the tubular body The annular laser light and the conical illumination light are blocked by the connecting member when being fed into the interior of the tube and when the tubular body imaging device is delivered from the inside of the tubular body, respectively. And generating an inner surface image of the inner surface of the inner tube at the time of delivery, between the infeed and The tubular body imaging device is rotated so that it does not overlap with the shielded area of the surface image, and the arithmetic processing unit utilizes the light cutting line image at the time of delivery or the light cutting line image at the time of delivery. Light cutting line image and the regular reflection exhibition A shielding area specifying unit for specifying the position of the shielding area in the image; and the shielding area in the depth image, the diffuse reflection image and the specular reflection image generated based on the in-pipe surface image at the time of delivery or delivery; The coordinate conversion unit further includes an image interpolation unit that interpolates using the depth image, the diffuse reflection image, and the regular reflection image generated based on the in-pipe surface image at the time of delivery or at the time of delivery. The coordinate system of the tube surface image at the time of delivery and at the time of delivery is respectively converted using a predetermined position on the inner surface of the tubular body as a reference point, and a plurality of the light cut line images and the specular reflection developed image at the time of delivery And a plurality of the light section line images and the specular reflection developed image at the time of delivery.

前記遮蔽領域特定部は、前記光切断線のそれぞれに対して、前記周方向の位置毎に、前記第1の閾値以上の輝度値を有する画素を線幅方向に加算した個数である輝線画素数を特定しており、前記輝線画素数によって、前記遮蔽領域の周方向位置を特定してもよい。   The number of bright line pixels, which is the number obtained by adding, in the line width direction, pixels having a luminance value equal to or more than the first threshold for each position of the circumferential direction with respect to each of the light cutting lines. And the circumferential direction position of the shielding area may be specified by the number of bright line pixels.

前記遮蔽領域特定部は、前記輝線画素数がゼロとなった前記周方向の位置を記憶するとともに、以降の周方向の位置について前記輝線画素数がゼロとなる状態の連続数をカウントし、当該輝線画素数がゼロとなる状態の連続数が連続数判定用の第3の閾値以上となった場合に、記憶した前記周方向の位置を前記遮蔽領域の開始位置とし、前記遮蔽領域の開始位置が特定されており、かつ、着目した前記周方向の位置における前記輝線画素数がゼロではなかった場合において、以降の周方向の位置について前記輝線画素数がゼロではなくなった前記周方向の位置を記憶するとともに、前記輝線画素数がゼロではない状態の連続数をカウントし、前記輝線画素数がゼロではない状態の連続数が連続数判定用の第4の閾値以上となった場合に、記憶した前記周方向の位置を、前記遮蔽領域が終了して新たに非遮蔽領域が開始した位置としてもよい。   The shielding area specifying unit stores the circumferential position at which the number of bright line pixels has become zero, and counts the number of consecutive states in which the number of bright line pixels becomes zero at a position in the circumferential direction thereafter, When the number of consecutive lines in which the number of bright line pixels becomes zero is equal to or more than the third threshold for determination of the number of consecutive lines, the stored circumferential position is regarded as the start position of the shield area, and the start position of the shield area Is specified and the number of bright line pixels at the circumferential position of interest is not zero, the circumferential position at which the number of bright line pixels is not zero for the subsequent circumferential position is The number of consecutive lines in a state where the number of bright line pixels is not zero is counted, and the number of consecutive lines in a state where the number of bright line pixels is not zero is equal to or greater than a fourth threshold for determining the number of consecutive lines. And the circumferential position may be a position where the new unshielded region has started the shielded region ends.

前記遮蔽領域特定部は、前記光切断線のそれぞれに対して、前記周方向の位置毎に、前記輝線画素数の移動平均を算出し、前記移動平均が、移動平均判定用の第5の閾値未満となる前記周方向の位置を、前記遮蔽領域の開始位置とし、前記遮蔽領域の開始位置が特定されており、かつ、前記移動平均が前記第5の閾値以上となる前記周方向の位置を、前記遮蔽領域の終了位置としてもよい。   The shielding area specifying unit calculates a moving average of the number of bright line pixels for each position of the circumferential direction with respect to each of the light cutting lines, and the moving average is a fifth threshold for moving average determination. The position in the circumferential direction, which is less than, is defined as the start position of the shielding area, the start position of the shielding area is specified, and the position in the circumferential direction in which the moving average is equal to or more than the fifth threshold The end position of the shielding area may be used.

また、上記課題を解決するために、本発明の別の観点によれば、管状体の軸方向に沿って移動しながら、当該管状体の内表面の全周方向に対して、環状のレーザ光及び円錐状の照明光をそれぞれ照射し、当該環状のレーザ光及び円錐状の照明光が照射された前記内表面を撮像することで、前記内表面における前記環状のレーザ光及び円錐状の照明光の撮像画像である管内表面画像を、管状体の軸方向に沿って複数生成するものであり、前記管状体の内表面の全周方向に対して前記環状のレーザ光を照射する環状レーザ光源と、前記管状体の内表面の全周方向に対して前記円錐状の照明光を照射する円錐状照明光源と、前記環状のレーザ光及び円錐状の照明光が照射された前記内表面を、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域とが同一視野内に収まるように撮像するエリアカメラと、を有し、前記エリアカメラは、前記円錐状の照明光の照射領域からの前記円錐状の照明光の正反射光が結像し、かつ、前記環状のレーザ光の照射部分からの前記環状のレーザ光の乱反射光が結像するように、前記環状レーザ光源及び前記円錐状照明光源と対向して配設されている管状体撮像装置により、前記管内表面画像を管状体の軸方向に沿って複数生成するステップと、それぞれの前記管内表面画像における前記環状のレーザ光の照射部分の重心位置及び半径をそれぞれ算出する環状ビームセンター算出ステップと、算出された前記重心位置と、前記重心位置と前記環状のレーザ光の照射部分との離隔量と、前記重心位置と前記円錐状の照明光の照射領域との離隔量と、に基づいて前記管内表面画像の座標系を変換し、それぞれの前記環状のレーザ光の照射部分を前記管状体の周方向に展開した線分である光切断線を含む帯状の領域である光切断線画像と、それぞれの前記円錐状の照明光の照射領域を前記管状体の周方向に展開した帯状の領域である正反射展開画像と、を複数生成する座標変換ステップと、前記光切断線画像それぞれを前記軸方向に沿って順に配列させた光切断線画像フレームに基づいて、前記管状体の内表面の凹凸状体を表す深さ画像を算出する深さ画像算出ステップと、前記光切断線画像フレームに基づいて、前記管状体の内表面における前記環状のレーザ光の輝度の分布を表わす乱反射画像を算出する乱反射画像算出ステップと、前記正反射展開画像それぞれを前記軸方向に沿って順に配列させて、前記管状体の内表面における前記円錐状の照明光の輝度の分布を表わす正反射画像を生成する正反射画像生成ステップと、算出された前記深さ画像、前記乱反射画像及び前記正反射画像に基づいて、前記管状体に存在する欠陥を検出する欠陥検出ステップと、
を含む、欠陥検出方法が提供される。
In order to solve the above problems, according to another aspect of the present invention, while moving along the axial direction of the tubular body, an annular laser beam is generated with respect to the entire circumferential direction of the inner surface of the tubular body. And the conical illumination light are respectively irradiated, and the annular laser light and the conical illumination light on the inner surface are imaged by imaging the inner surface irradiated with the annular laser light and the conical illumination light. And an annular laser light source for emitting the annular laser beam to the entire circumferential direction of the inner surface of the tubular body. A conical illumination light source for illuminating the conical illumination light in the entire circumferential direction of the inner surface of the tubular body, and the inner surface illuminated with the annular laser beam and the conical illumination light; An annular laser beam irradiation portion and the conical illumination light And an area camera for imaging so that the irradiation area falls within the same field of view, and the area camera forms an image of specularly reflected light of the conical illumination light from the illumination area of the conical illumination light. And a tubular body disposed opposite to the annular laser light source and the conical illumination light source so that diffuse reflection light of the annular laser light from the annular laser light irradiation portion forms an image An annular beam center for generating a plurality of the tube surface images along the axial direction of the tubular body by an imaging device, and calculating a barycentric position and a radius of the annular laser light irradiated portion in each tube surface image; Calculating step, the calculated position of the center of gravity, the distance between the position of the center of gravity and the portion irradiated with the annular laser light, and the distance between the position of the center of gravity and the irradiation region of the conical illumination light The light cutting which is a band-like region including a light cutting line which is a line segment in which the coordinate system of the tube surface image is converted based on the above and the irradiation part of each annular laser light is expanded in the circumferential direction of the tubular body A coordinate conversion step of generating a plurality of line images and specular reflection developed images which are band-like regions obtained by expanding the irradiation regions of the respective conical illumination light in the circumferential direction of the tubular body; A depth image calculating step of calculating a depth image representing a concavo-convex body on the inner surface of the tubular body based on the light sectioning line image frame in which each is arranged in order along the axial direction; A diffuse reflection image calculating step of calculating a diffuse reflection image representing a distribution of the luminance of the annular laser light on the inner surface of the tubular body based on an image frame; and each of the specular reflection expanded images along the axial direction A specular reflection image generating step of arranging to generate a specular reflection image representing the distribution of the brightness of the conical illumination light on the inner surface of the tubular body, the calculated depth image, the diffuse reflection image and the positive reflection image A defect detection step of detecting a defect present in the tubular body based on a reflection image;
And a defect detection method is provided.

以上説明したように本発明によれば、管状体の内表面に発生しうる凹凸変化を伴う凹凸疵のみならず、凹凸変化を伴わない有害疵を、無害の汚れ等と選別して精度良く検出することが可能となる。   As described above, according to the present invention, not only uneven wrinkles accompanied by uneven changes that may occur on the inner surface of the tubular body, but harmful wrinkles not accompanied by uneven changes are separated from harmless dirt etc. and accurately detected It is possible to

本発明の実施形態に係る欠陥検出装置の構成の一例を示した説明図である。It is an explanatory view showing an example of composition of a defect detection apparatus concerning an embodiment of the present invention. 同実施形態にかかる管状体撮像装置の構成の一例を模式的に示した説明図である。It is an explanatory view showing typically an example of composition of a tubular body imaging device concerning the embodiment. 同実施形態にかかる管状体撮像装置の構成の一例を模式的に示した説明図である。It is an explanatory view showing typically an example of composition of a tubular body imaging device concerning the embodiment. 同実施形態にかかる管状体撮像装置について説明するための説明図である。It is an explanatory view for explaining a tubular body imaging device concerning the embodiment. 同実施形態に係る管内表面画像について説明するための説明図である。It is explanatory drawing for demonstrating the in-pipe surface image which concerns on the embodiment. 同実施形態に係る演算処理装置が有する画像処理部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the image processing part which the arithmetic processing unit concerning the embodiment has. 同実施形態に係る演算処理装置における座標変換処理について説明するための説明図である。It is an explanatory view for explaining coordinate conversion processing in an arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における座標変換処理について説明するための説明図である。It is an explanatory view for explaining coordinate conversion processing in an arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における座標変換処理について説明するための説明図である。It is an explanatory view for explaining coordinate conversion processing in an arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における座標変換処理について説明するための説明図である。It is an explanatory view for explaining coordinate conversion processing in an arithmetic processing unit concerning the embodiment. 同実施形態に係る光切断線画像フレームについて説明するための説明図である。It is an explanatory view for explaining a light sectioning line image frame concerning the embodiment. 同実施形態に係る光切断線画像フレームについて説明するための説明図である。It is an explanatory view for explaining a light sectioning line image frame concerning the embodiment. 同実施形態に係る正反射画像について説明するための説明図である。It is an explanatory view for explaining a specular reflection image concerning the embodiment. 同実施形態に係る光切断線変位の二次元配列を示した説明図である。It is an explanatory view showing a two-dimensional arrangement of light sectioning line displacement concerning the embodiment. 同実施形態に係る輝度の総和の二次元配列を示した説明図である。It is explanatory drawing which showed the two-dimensional arrangement | sequence of the sum total of the brightness | luminance which concerns on the embodiment. 同実施形態に係る輝線の画素数の二次元配列を示した説明図である。It is explanatory drawing which showed the two-dimensional arrangement | sequence of the pixel number of the luminescent line which concerns on the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。It is an explanatory view for explaining shielding field identification processing in the arithmetic processing unit concerning the embodiment. 光切断線の変位と欠陥の高さとの関係を示した説明図である。It is explanatory drawing which showed the relationship between the displacement of a light sectioning line, and the height of a defect. 同実施形態に係る光切断線の近似補正処理について説明するための説明図である。It is an explanatory view for explaining approximation correction processing of a light section line concerning the embodiment. 同実施形態に係る演算処理装置における遮蔽領域補間処理について説明するための説明図である。It is an explanatory view for explaining occlusion field interpolation processing in the arithmetic processing unit concerning the embodiment. 同実施形態に係る画像処理部が備える欠陥検出部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the defect detection part with which the image processing part concerning the embodiment is equipped. 同実施形態に係る欠陥検出処理で用いられるロジックテーブルの一例を示した説明図である。It is an explanatory view showing an example of a logic table used by defect detection processing concerning the embodiment. 同実施形態に係る欠陥検出方法の流れの一例を示した流れ図である。It is the flowchart which showed an example of the flow of the defect detection method concerning the embodiment. 同実施形態に係る演算処理装置のハードウェア構成の一例を示したブロック図である。It is the block diagram which showed an example of the hardware constitutions of the arithmetic processing unit concerning the embodiment. 蓋付咬み込み疵の断面プロファイルの一例を示したグラフ図である。It is the graph which showed an example of the cross-sectional profile of a lidded bite-in type | mold.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   The present invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.

(欠陥検出装置の全体構成について)
まず、図1を参照しながら、本発明の第1の実施形態に係る欠陥検出装置10の全体構成について説明する。図1は、本実施形態に係る欠陥検出装置10の構成を示した説明図である。
(About the entire configuration of the defect detection device)
First, the entire configuration of a defect detection apparatus 10 according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory view showing the configuration of a defect detection apparatus 10 according to the present embodiment.

本実施形態に係る欠陥検出装置10は、管状体1の内表面を、管状体撮像装置が管状体の内部に送入される際、又は、管状体の内部から送出される際の少なくとも何れか一方で撮像して、撮像の結果得られる画像を画像処理することにより、管状体1の内表面に各種の表面欠陥が存在するか否かを検査する装置である。   The defect detection device 10 according to the present embodiment is at least one of the inner surface of the tubular body 1 when the tubular body imaging device is fed into the inside of the tubular body, or when it is delivered from the inside of the tubular body. On the other hand, it is an apparatus for imaging whether or not various surface defects exist on the inner surface of the tubular body 1 by imaging and processing an image obtained as a result of imaging.

なお、本実施形態に係る管状体1は、中空部を有する管状のものであれば特に限定されるわけではないが、かかる管状体1の例として、スパイラル鋼管、電縫鋼管、UO鋼管、継目無鋼管(シームレス鋼管)、鍛接鋼管、TIG溶接鋼管等の各種鋼管やパイプのみならず、熱間押出法で使用されるコンテナと称するシリンダー等の管状物を挙げることができる。   The tubular body 1 according to the present embodiment is not particularly limited as long as it is a tubular body having a hollow portion, but as an example of the tubular body 1, a spiral steel pipe, a seam welded steel pipe, a UO steel pipe, a seam Not only various steel pipes and pipes such as steel pipe (seamless steel pipe), forged welded steel pipe and TIG welded steel pipe but also tubular materials such as a cylinder called a container used in the hot extrusion method can be mentioned.

本実施形態に係る欠陥検出装置10は、図1に示したように、管状体1の内表面を撮像する管状体撮像装置100と、管状体撮像装置100の管軸方向に沿った移動を制御する駆動制御装置150と、撮像の結果得られる管状体の内表面画像に対して画像処理を行う演算処理装置200と、を備える。   As shown in FIG. 1, the defect detection apparatus 10 according to the present embodiment controls the movement of the tubular body imaging device 100 for imaging the inner surface of the tubular body 1 and the tubular body imaging device 100 along the tube axis direction. And an arithmetic processing unit 200 that performs image processing on the inner surface image of the tubular body obtained as a result of imaging.

管状体撮像装置100は、管状体1の中空部に設置される。この管状体撮像装置100は、2種類の照明光源を有しており、管状体1の軸方向に沿って位置を随時変更しながら、当該管状体1の内表面を軸方向に沿って順次撮像し、撮像の結果得られる撮像画像を、演算処理装置200に出力する装置である。管状体撮像装置100は、駆動制御装置150により軸方向に沿った位置が制御されており、管状体撮像装置100の移動に伴いPLG(Pulse Logic Generator:パルス型速度検出器)等からPLG信号が演算処理装置200に出力される。また、管状体撮像装置100は、演算処理装置200によって、管状体1の撮像タイミング等が制御されている。   The tubular body imaging device 100 is installed in the hollow portion of the tubular body 1. The tubular body imaging device 100 has two types of illumination light sources, and while sequentially changing the position along the axial direction of the tubular body 1, sequentially imaging the inner surface of the tubular body 1 along the axial direction It is an apparatus which outputs the captured image obtained as a result of imaging to the arithmetic processing unit 200. The position in the axial direction of the tubular body imaging device 100 is controlled by the drive control device 150, and as the tubular body imaging device 100 moves, the PLG signal from a PLG (Pulse Logic Generator: pulse type speed detector) or the like It is output to the arithmetic processing unit 200. Further, in the tubular body imaging device 100, the imaging timing and the like of the tubular body 1 are controlled by the arithmetic processing unit 200.

なお、この管状体撮像装置100の具体的な構成については、以下で改めて詳述する。   The specific configuration of the tubular body imaging device 100 will be described in detail later.

駆動制御装置150は、管状体撮像装置100の管軸方向の移動、及び、管中心軸方向を回転軸とする管状体周方向の回転を制御するアクチュエータ等の装置である。駆動制御装置150は、演算処理装置200による制御のもとで、管状体撮像装置100の管軸方向の移動や管状体周方向の回転といった動作の制御を行う。   The drive control device 150 is a device such as an actuator that controls movement of the tubular body imaging device 100 in the tube axis direction and rotation of the tubular body circumferential direction with the tube central axis direction as the rotation axis. The drive control device 150 controls operations such as movement of the tubular body imaging device 100 in the axial direction of the tube and rotation of the tubular body in the circumferential direction under the control of the arithmetic processing unit 200.

また、駆動制御装置150は、必要に応じて以下のような処理を行うことも可能である。すなわち、駆動制御装置150は、管状体撮像装置100を管状体内部に送入させるとともに、管状体撮像装置100が検査対象となる内表面の撮像を終了すると、管状体撮像装置100の送入動作を停止する。その後、駆動制御装置150は、管状体撮像装置100の中心軸を回転軸として管状体の周方向に管状体撮像装置100を回転させる。その後、駆動制御装置150は、管状体撮像装置100を管状体内部から送出させる。   Further, the drive control device 150 can also perform the following processing as necessary. That is, when the drive control device 150 sends the tubular body imaging device 100 into the tubular body and the imaging of the inner surface to be inspected by the tubular body imaging device 100 ends, the feeding operation of the tubular body imaging device 100 Stop. Thereafter, the drive control device 150 rotates the tubular body imaging device 100 in the circumferential direction of the tubular body with the central axis of the tubular body imaging device 100 as a rotation axis. Thereafter, the drive control device 150 causes the tubular body imaging device 100 to be delivered from inside the tubular body.

演算処理装置200は、管状体撮像装置100によって生成された複数の撮像画像(管内表面画像)を利用して、後述するような各種の画像フレームを生成し、この画像フレームに対して以下で説明するような画像処理を行うことで、管状体1の内表面に存在している可能性のある各種の欠陥を検出する装置である。   The arithmetic processing unit 200 generates various image frames as will be described later using a plurality of captured images (in-pipe surface images) generated by the tubular body imaging device 100, and this image frame will be described below. It is an apparatus which detects the various defects which may exist in the inner surface of the tubular body 1 by performing such image processing.

この際、本実施形態に係る演算処理装置200は、管状体撮像装置100を構成している部材に起因する不感帯が後述する管内表面画像に存在する場合であっても、送入時又は送出時に撮像した撮像画像から生成された画像を利用して、送出時又は送入時に撮像した撮像画像から生成された画像を補間することができる。これにより、送入時又は送出時に撮像した撮像画像に不感帯が存在する場合であっても、管状体の内表面を、全周囲にわたって検査することが可能となる。   Under the present circumstances, even if the dead zone resulting from the member which comprises the tubular-body imaging device 100 exists in the pipe | tube surface image mentioned later at the time of sending in or sending out, the arithmetic processing unit 200 which concerns on this embodiment The image generated from the captured image captured at the time of delivery or at the time of delivery can be interpolated using the image generated from the captured image captured. As a result, even if a dead zone is present in the captured image captured at the time of delivery or delivery, the inner surface of the tubular body can be inspected over the entire circumference.

この演算処理装置200の詳細な構成についても、以下で改めて説明する。   The detailed configuration of the arithmetic processing unit 200 will be described again below.

管状体撮像装置100による管状体内表面の撮像処理や、演算処理装置200による表面欠陥の検出処理は、管状体撮像装置100の管状体軸方向に沿った移動にあわせてリアルタイムに実施することが可能である。欠陥検出装置10の使用者は、欠陥検出装置10(より詳細には、演算処理装置200)から出力される検査結果に着目することで、管状体1の内表面に存在する表面欠陥をリアルタイムに把握することが可能となる。   The imaging process of the tubular body surface by the tubular body imaging apparatus 100 and the detection process of the surface defect by the arithmetic processing unit 200 can be performed in real time in accordance with the movement of the tubular body imaging apparatus 100 along the axial direction of the tubular body. It is. The user of the defect detection apparatus 10 pays attention to the inspection result output from the defect detection apparatus 10 (more specifically, the arithmetic processing apparatus 200) to make surface defects present on the inner surface of the tubular body 1 in real time. It becomes possible to grasp.

(管状体撮像装置100の構成について)
まず、図2A〜図4を参照しながら、本実施形態に係る管状体撮像装置100の構成について、詳細に説明する。
図2A及び図2Bは、本実施形態にかかる管状体撮像装置の構成の一例を模式的に示した説明図である。図3は、本実施形態にかかる管状体撮像装置について説明するための説明図である。図4は、本実施形態に係る管内表面画像について説明するための説明図である。
(About the structure of the tubular body imaging device 100)
First, the configuration of a tubular body imaging device 100 according to the present embodiment will be described in detail with reference to FIGS. 2A to 4.
FIG. 2A and FIG. 2B are explanatory views schematically showing an example of the configuration of the tubular body imaging device according to the present embodiment. FIG. 3 is an explanatory view for explaining a tubular body imaging device according to the present embodiment. FIG. 4 is an explanatory view for explaining an in-pipe surface image according to the present embodiment.

なお、以下の説明では、便宜的に図2A及び図2Bに示したような座標系を利用して、説明を行うものとする。より詳細には、図2A及び図2Bに示したように、管状体1の軸方向にz軸をとり、管状体の軸方向に直交する面をxy平面とする。   In the following description, for convenience, the description will be made using a coordinate system as shown in FIG. 2A and FIG. 2B. More specifically, as shown in FIGS. 2A and 2B, the z-axis is taken in the axial direction of the tubular body 1, and the plane orthogonal to the axial direction of the tubular body is an xy plane.

図2A及び図2Bに示したように、本実施形態に係る管状体撮像装置100は、管状体の内表面に対して環状のレーザ光(環状レーザ光)を照射する環状レーザ光源101と、管状体の内表面に対して円錐状の照明光(以下、「円錐状照明光」ともいう。)を照射する円錐状照明光源107と、公知の各種レンズを有するエリアカメラ113と、環状レーザ光源101及び円錐状照明光源107や、エリアカメラ113を保持する一対の保持部材115と、かかる一対の保持部材115を連結する連結部材117と、を備える。また、連結部材117により連結された環状レーザ光源110及び円錐状照明光源107と、エリアカメラ113とは、これらの設定位置が撮像中に変化しないように、公知の手段により固定されている。これらの部材が互いに一体となって、管状体1の内表面を撮像する撮像プローブとして機能する。   As shown in FIG. 2A and FIG. 2B, the tubular body imaging device 100 according to the present embodiment includes an annular laser light source 101 for irradiating an annular laser beam (annular laser beam) to the inner surface of the tubular body; A conical illumination light source 107 for illuminating conical illumination light (hereinafter also referred to as "conical illumination light") on the inner surface of the body, an area camera 113 having various known lenses, and an annular laser light source 101 A conical illumination light source 107, a pair of holding members 115 for holding the area camera 113, and a connecting member 117 for connecting the pair of holding members 115 are provided. Further, the annular laser light source 110 and the conical illumination light source 107 connected by the connecting member 117 and the area camera 113 are fixed by known means so that their setting positions do not change during imaging. These members are integrated with each other to function as an imaging probe for imaging the inner surface of the tubular body 1.

環状レーザ光源101は、管状体1の内表面の周方向に沿って環状のレーザ光(以下、「環状ビーム」とも称する。)を照射する装置であり、図2A及び図2Bに示したように、レーザ光源103と、円錐状の光学素子105と、を有する。   The annular laser light source 101 is an apparatus for irradiating an annular laser beam (hereinafter, also referred to as an “annular beam”) along the circumferential direction of the inner surface of the tubular body 1, as shown in FIGS. 2A and 2B. , A laser light source 103, and a conical optical element 105.

レーザ光源103は、所定の波長を有するレーザ光を発振する光源である。このようなレーザ光源103として、例えば、連続的にレーザ発振を行うCWレーザ光源を用いることが可能である。レーザ光源103が発振する光の波長は、例えば、400nm〜800nm程度の可視光帯域に属する波長であることが好ましい。レーザ光源103は、後述する演算処理装置200から送出される照射タイミング制御信号に基づいて、レーザ光の発振を行う。   The laser light source 103 is a light source that oscillates laser light having a predetermined wavelength. As such a laser light source 103, for example, it is possible to use a CW laser light source which continuously performs laser oscillation. The wavelength of light oscillated by the laser light source 103 is preferably a wavelength belonging to a visible light band of about 400 nm to 800 nm, for example. The laser light source 103 oscillates laser light based on an irradiation timing control signal sent from the arithmetic processing unit 200 described later.

円錐状の光学素子105は、円錐形状のミラー又はプリズムを備える光学素子であり、円錐部の頂点がレーザ光源103と対向するように設置されている。レーザ光源103から射出されたスポット状のレーザ光は、光学素子105の円錐部の頂点によって反射され、リング状にラインビームが発生することとなる。ここで、円錐部の円錐角が90°である場合には、図2A及び図2Bに示したように、レーザ光源103からのレーザ入射方向に対して直角方向に、環状レーザ光が照射されることとなる。   The conical optical element 105 is an optical element provided with a conical mirror or prism, and is disposed such that the apex of the conical portion faces the laser light source 103. The spot-like laser light emitted from the laser light source 103 is reflected by the apex of the conical portion of the optical element 105, and a line beam is generated in a ring shape. Here, when the conical angle of the conical portion is 90 °, as shown in FIGS. 2A and 2B, the annular laser beam is irradiated in the direction perpendicular to the laser incident direction from the laser light source 103. It will be.

円錐状照明光源107は、例えば400nm〜800nm程度の可視光帯域に属する波長を有する円錐状照明光を、管状体内表面の全周にわたって広がり(内表面での広がり幅:d)を持ちながら照射する光源である。円錐状照明光源107は、例えば図3に示したように、円環状の基台109の円周に沿って、照明光の照射方向を制御するためのレンズが設けられた発光素子111が、等間隔に複数配設されている。円錐状照明光は、それぞれの発光素子111から、円環状の基台109の中心に対して放射状に(すなわち、円環の径方向に外側に向かって)射出される。   The conical illumination light source 107 radiates conical illumination light having a wavelength belonging to a visible light band of, for example, about 400 nm to 800 nm, while spreading it all around the surface of the tubular body (spread width at the inner surface: d) It is a light source. For example, as shown in FIG. 3, the conical illumination light source 107 includes a light emitting element 111 provided with a lens for controlling the irradiation direction of the illumination light along the circumference of the annular base 109, etc. A plurality of intervals are provided. Conical illumination light is emitted radially from the respective light emitting elements 111 with respect to the center of the annular base 109 (that is, outward in the radial direction of the annular ring).

円環状の基台109に設けられる発光素子111の個数や設置間隔は特に限定されるものではなく、着目する内表面の視野が所望の均一な明るさを有するように決定すればよい。また、図3に示したような複数の発光素子111の代わりに、照明光の照射方向を制御するためのレンズが設けられた1つのリング状の発光素子を用いても良い。   The number of light emitting elements 111 provided on the annular base 109 and the installation interval are not particularly limited, and may be determined so that the visual field of the inner surface to be focused has a desired uniform brightness. Further, instead of the plurality of light emitting elements 111 as shown in FIG. 3, a single ring-shaped light emitting element provided with a lens for controlling the irradiation direction of the illumination light may be used.

以上のような環状レーザ光源101及び円錐状照明光源107は、互いに同心となるように、保持部材115に固定されている。   The annular laser light source 101 and the conical illumination light source 107 as described above are fixed to the holding member 115 so as to be concentric with each other.

公知の各種レンズが装着されたエリアカメラ113には、もう一方の保持部材115の中心部に固定されており、環状レーザ光源101及び円錐状照明光源107が固定されている保持部材115と対向するように設けられている。かかるエリアカメラ113は、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の二次元撮像素子が搭載されたものである。このようなエリアカメラ113としては、公知のものを使用することが可能である。   The area camera 113 mounted with various known lenses is fixed at the center of the other holding member 115 and faces the holding member 115 to which the annular laser light source 101 and the conical illumination light source 107 are fixed. It is provided as. The area camera 113 is mounted with a two-dimensional imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). As such an area camera 113, a known one can be used.

なお、エリアカメラ113に装着されるレンズの焦点距離や画角等は特に限定するものではないが、管状体1の内表面に照射された環状レーザ光の内表面での反射光、及び、円錐状照明光の内表面での反射光のそれぞれが同一の視野内に位置するように選択される。また、エリアカメラ113に搭載される撮像素子の大きさや画素サイズも特に限定するものではないが、生成される画像の画質や画像分解能等を考慮すると、サイズの大きな撮像素子を利用することが好ましい。また、以下で説明する画像処理の観点から、環状レーザ光のライン幅(線幅)が撮像素子上で1〜3画素程度となるように、エリアカメラ113を調整することが好ましい。   Although the focal length and angle of view, etc. of the lens mounted on the area camera 113 are not particularly limited, the reflected light on the inner surface of the annular laser beam irradiated to the inner surface of the tubular body 1, and the cone Each of the reflected light at the inner surface of the illumination light is selected to be within the same field of view. Also, the size and pixel size of the imaging device mounted on the area camera 113 are not particularly limited, but it is preferable to use a large-sized imaging device in consideration of the image quality, image resolution and the like of the generated image. . Further, from the viewpoint of image processing described below, it is preferable to adjust the area camera 113 so that the line width (line width) of the annular laser light is about 1 to 3 pixels on the imaging device.

エリアカメラ113は、同一視野内に結像している環状レーザ光の内表面での反射光、及び、円錐状照明光の内表面での反射光を、それぞれ撮像する。これにより、エリアカメラ113は、環状レーザ光や円錐状照明光の内表面での反射光の強度を示すデータを特定することができる。管状体撮像装置100が管状体1の内部を一定距離進む毎にエリアカメラ113で撮像を行う結果、エリアカメラ113は、環状レーザ光の内表面での反射光の周方向の分布や、円錐状照明光の内表面での反射光の周方向の分布を特定することができる。   The area camera 113 images the reflected light on the inner surface of the annular laser light imaged in the same field of view and the reflected light on the inner surface of the conical illumination light. Thereby, the area camera 113 can specify data indicating the intensity of the reflected light on the inner surface of the annular laser light or the conical illumination light. As a result of performing imaging with the area camera 113 every time the tubular body imaging device 100 travels a fixed distance inside the tubular body 1, the area camera 113 has a circumferential distribution of reflected light on the inner surface of the annular laser light, and a conical shape. The circumferential distribution of the reflected light on the inner surface of the illumination light can be specified.

ここで、図2A及び図2Bに示したように、円錐状照明光の照射領域は、広がりdを有している。そのため、あるタイミングで、環状レーザ光及び円錐状照明光の反射光を同時に撮像したとすると、その後、環状レーザ光が距離dだけ進む間は、円錐状照明光の反射光を撮像しても撮像しなくてもよい。なぜなら、環状レーザ光が距離dだけ進む間の円錐状照明光の反射光は、環状レーザ光と同時に撮像した円錐状照明光の反射光を利用可能だからである。そこで、本実施形態に係る管状体撮像装置100では、環状レーザ光の反射光を撮像する毎に、円錐状照明光の反射光を毎回撮像するようにしてもよいし、環状レーザ光の反射光をdライン分撮像する間(環状レーザ光の照射部分がdだけ進む間)に、円錐状照明光の反射光を1回撮像するようにしてもよい。後者のような構成とすることによって、リソースをより効果的に使用することが可能となるため、処理のより一層の高速化を図ることが可能となる。   Here, as shown in FIGS. 2A and 2B, the irradiation area of the conical illumination light has a spread d. Therefore, if it is assumed that the annular laser light and the reflected light of the conical illumination light are simultaneously imaged at a certain timing, then the imaging of the reflected light of the conical illumination light may be performed while the annular laser light travels by the distance d. You do not have to. This is because the reflected light of the conical illumination light while the annular laser light travels by the distance d can use the reflected light of the conical illumination light imaged simultaneously with the annular laser light. Therefore, in the tubular body imaging device 100 according to the present embodiment, the reflected light of the conical illumination light may be imaged every time the reflected light of the annular laser light is imaged, or the reflected light of the annular laser light may be The reflected light of the conical illumination light may be imaged once during imaging of d lines (while the irradiation portion of the annular laser light advances by d). With the latter configuration, resources can be used more effectively, and processing can be further speeded up.

続いて、環状レーザ光源101、円錐状照明光源107及びエリアカメラ113の位置関係について、説明する。本実施形態に係る管状体撮像装置100では、図2Aに模式的に示したように、管状体1の内表面での環状レーザ光の照射位置と、管状体1の内表面での円錐状照明光の照射位置と、が管状体の管軸方向の互いに異なる位置となるように、環状レーザ光源101及び円錐状照明光源107が配設されていてもよい。また、図2Bに模式的に示したように、管状体1の内表面での円錐状照明光の照射領域の内部に環状レーザ光の照射位置が含まれるように、環状レーザ光源101及び円錐状照明光源107が配設されていてもよい。   Subsequently, the positional relationship between the annular laser light source 101, the conical illumination light source 107, and the area camera 113 will be described. In the tubular body imaging device 100 according to the present embodiment, as schematically shown in FIG. 2A, the irradiation position of the annular laser light on the inner surface of the tubular body 1 and the conical illumination on the inner surface of the tubular body 1 The annular laser light source 101 and the conical illumination light source 107 may be disposed such that the irradiation positions of the light are different from each other in the tube axis direction of the tubular body. Further, as schematically shown in FIG. 2B, the annular laser light source 101 and the conical shape are arranged so that the irradiation position of the annular laser light is included inside the irradiation region of the conical illumination light on the inner surface of the tubular body 1 The illumination light source 107 may be disposed.

図2A及び図2Bに示した場合のいずれにおいても、円錐状照明光源107は、円錐状照明光が内表面に対して入射角θ(θ<90°)で入射するように配設されており、エリアカメラ113は、円錐状照明光の正反射光が結像するように配設されている。すなわち、エリアカメラ113は、内表面の法線方向とエリアカメラ113の光軸とのなす角がθと略等しくなるように配設されている。この際、円錐状照明光が照射されている内表面の管軸方向の長さをdと表わすこととする。 In any of the cases shown in FIGS. 2A and 2B, the conical illumination light source 107 is disposed such that the conical illumination light is incident on the inner surface at an incident angle θ 11 <90 °). The area camera 113 is disposed so that specular reflection light of conical illumination light forms an image. That is, the area camera 113, the angle between the optical axis in the normal direction and the area camera 113 of the inner surface are disposed so as to be substantially equal to theta 1. At this time, the length in the tube axis direction of the inner surface irradiated with the conical illumination light is represented by d.

ここで、管状体撮像装置100は、図2Aに示したような構成を採る場合、円錐状照明光源107は、上記の条件に加えて、入射角θが環状レーザ光の反射角θよりも大きくなる(すなわち、θ>θが成立する)ように配設される。また、環状レーザ光の照射部分と、円錐状照明光の照射領域とは、これらの照射領域がエリアカメラ113の同一視野内に位置する範囲で、なるべく離隔していることが好ましい。環状レーザ光の照射部分を、円錐状照明光の照射領域から離隔させることで、円錐状照明光が背景光になり生じる環状レーザ光のS/Nの低下を抑制することが可能となる。 Here, the tubular body imaging apparatus 100, when a configuration as shown in FIG. 2A, the conical illumination light source 107, in addition to the above conditions, the incident angle theta 1 is than the reflection angle theta 2 of the annular laser beam Are also increased (ie, θ 1 > θ 2 is satisfied). Further, it is preferable that the irradiation portion of the annular laser light and the irradiation region of the conical illumination light be separated as much as possible in a range in which these irradiation regions are located within the same field of view of the area camera 113. By separating the irradiation portion of the annular laser light from the irradiation region of the conical illumination light, it is possible to suppress the decrease in S / N of the annular laser light that is caused by the conical illumination light becoming background light.

また、管状体撮像装置100は、図2Bに示したような構成を採る場合、上記の条件に加えて、θ≒θが成立するように、円錐状照明光源107及びエリアカメラ113は配設される。 Further, when the tubular body imaging device 100 adopts the configuration as shown in FIG. 2B, in addition to the above conditions, the conical illumination light source 107 and the area camera 113 are arranged such that θ 1 θθ 2 holds. It will be set up.

また、環状レーザ光源101及び円錐状照明光源107から照射される各照明光の波長であるが、管状体撮像装置100が図2Aに示したような構成を採る場合には、環状レーザ光の波長、及び、円錐状照明光の波長は特に限定されるものではなく、環状レーザ光の波長と円錐状照明光の波長とが等しくても良い。なぜなら、環状レーザ光の照射位置と、円錐状照明光の照射位置と、がエリアカメラ113の視野内で異なるように設定されているために、両者の反射光の撮像結果を容易に区別することが可能だからである。この場合、エリアカメラ113としては、カラー撮像が可能なカラーカメラを使用しても良いが、モノクロカメラを使用する方が簡便である。   The wavelength of each illumination light emitted from the annular laser light source 101 and the conical illumination light source 107 is the wavelength of the annular laser light when the tubular imaging device 100 has the configuration as shown in FIG. 2A. The wavelength of the conical illumination light is not particularly limited, and the wavelength of the annular laser light may be equal to the wavelength of the conical illumination light. Because the irradiation position of the annular laser light and the irradiation position of the conical illumination light are set to be different in the field of view of the area camera 113, the imaging results of the reflected light of the two are easily distinguished. Is possible. In this case, although a color camera capable of color imaging may be used as the area camera 113, it is easier to use a monochrome camera.

一方、管状体撮像装置100が図2Bに示したような構成を採る場合、環状レーザ光と、円錐状照明光と、は、エリアカメラ113によって互いに区別されながら撮像され、それぞれの反射光強度を別々に特定可能なように、例えば、波長、照射タイミング、又は、偏光が互いに異なるものとすることが必要である。   On the other hand, when the tubular body imaging device 100 adopts the configuration as shown in FIG. 2B, the annular laser light and the conical illumination light are imaged while being distinguished from each other by the area camera 113, and the respective reflected light intensities are In order to be separately identifiable, for example, the wavelength, the irradiation timing, or the polarization needs to be different from one another.

環状レーザ光と円錐状照明光との波長が異なる場合には、透過帯域の異なるカラーフィルタにより、環状レーザ光の強度と円錐状照明光の強度とを、別々に測定可能である。また、環状レーザ光と円錐状照明光との照射タイミングが異なる場合には、それぞれの照明光が管状体内表面を照射するタイミングが時分割されることとなり、一方の照明光が内表面に照射されている際には、もう一方の照明光は内表面に照射されないこととなる。そこで、環状レーザ光の照射されるタイミングに撮影した画像と円錐状照明光の照射されるタイミングに撮影した画像とを別々に扱うことで、環状レーザ光の強度と円錐状照明光の強度とを別々に測定できる。また、環状レーザ光及び円錐状照明光の偏光が互いに異なるようにするためには、各光源の光軸上に、偏光方向の互いに直交する偏光子を配設すればよい。エリアカメラ113にも互いに直交する検光子を配置することで、環状レーザ光の強度と円錐状照明光の強度とを別々に測定できる。   When the wavelengths of the annular laser light and the conical illumination light are different, it is possible to separately measure the intensity of the annular laser light and the intensity of the conical illumination light by color filters having different transmission bands. Further, when the irradiation timings of the annular laser light and the conical illumination light are different, the timing when the respective illumination light irradiates the surface of the tubular body is divided in time, and one illumination light is irradiated on the inner surface. In this case, the other illumination light is not irradiated to the inner surface. Therefore, the intensity of the annular laser beam and the intensity of the conical illumination light can be calculated by separately treating the image captured at the timing of the annular laser beam irradiation and the image captured at the timing of the conical illumination light irradiation. It can be measured separately. Further, in order to make the polarizations of the annular laser light and the conical illumination light different from each other, polarizers orthogonal to each other in the polarization direction may be disposed on the optical axis of each light source. By arranging the analyzers orthogonal to each other also in the area camera 113, it is possible to separately measure the intensity of the annular laser light and the intensity of the conical illumination light.

また、環状レーザ光及び円錐状照明光として、互いに波長の異なる可視光線を利用する場合には、環状レーザ光及び円錐状照明光の色相の組み合わせが、(赤・青)、(青・緑)、(赤・緑)のいずれかとなるように可視光光源を組み合わせることが好ましい。なお、可視光光源として連続スペクトルを有する光源を用いる場合には、発光波長の重なりが少なくなるような光源を選択することが好ましい。この場合、エリアカメラ113として、公知のカラーカメラを利用することが簡便であり、好ましい。これにより、環状レーザ光の反射光及び円錐状照明光の反射光に含まれる赤成分、緑成分、青成分の大きさを、互いに独立して同時に測定することが可能となる。   Moreover, when using visible light from which a wavelength mutually differs as annular laser beam and conical illumination light, the combination of the hue of annular laser beam and conical illumination light is (red, blue), (blue, green) It is preferable to combine a visible light source so as to be either (red or green). In addition, when using the light source which has a continuous spectrum as a visible light source, it is preferable to select the light source which the overlap of the light emission wavelength decreases. In this case, it is convenient and preferable to use a known color camera as the area camera 113. This makes it possible to simultaneously and independently measure the magnitudes of the red component, the green component, and the blue component contained in the reflected light of the annular laser light and the reflected light of the conical illumination light.

なお、赤は波長600〜700nmの光を指し、緑は波長500〜560nmの光を指し、青は波長430nm〜500nmの光を指す。   In addition, red refers to the light of wavelength 600-700 nm, green refers to the light of wavelength 500-560 nm, and blue refers to the light of wavelength 430 nm-500 nm.

図4に、撮像される管内表面画像の一例を模式的に示した。本実施形態に係る管状体撮像装置100で生成される管内表面画像は、図4に模式的に示したように、円形状の撮像画像となる。このうち、画像の中心部分には、撮像装置の一部などが写り込む領域が存在しており、この領域の更に外側に、環状レーザ光の照射部分と、円錐状照明光の照射領域(z軸方向の大きさd)と、を含む管状体1の内表面が撮像された領域が存在する。この管状体の内表面に対応する領域のデータが、後述する画像処理装置200において利用されることとなる。   FIG. 4 schematically shows an example of an inner surface image of a tube taken. The tube inner surface image generated by the tubular body imaging device 100 according to the present embodiment is a circular captured image as schematically shown in FIG. 4. Among these, in the central part of the image, there is a region where a part of the imaging device or the like is captured, and in the further outside of this region, the irradiation portion of the annular laser light and the irradiation region of the conical illumination light (z There is a region where the inner surface of the tubular body 1 is imaged, including an axial size d). Data of a region corresponding to the inner surface of the tubular body is used in the image processing apparatus 200 described later.

なお、連結部材117の素材については、管状体撮像装置100に求められる強度等に応じて適宜選択すればよい。また、連結部材117の本数は、管状体撮像装置100に求められる強度に応じて適宜設定すればよく、1本であってもよいし、複数本であってもよい。   The material of the connecting member 117 may be appropriately selected according to the strength required for the tubular imaging device 100 and the like. The number of connecting members 117 may be appropriately set according to the strength required for the tubular imaging device 100, and may be one or more.

連結部材117の太さ(例えば、円柱状の連結部材117である場合には管径)によっては、連結部材117によって、2種類の照明光や撮像視野が遮蔽されてしまう場合も生じうる。そのため、連結部材117の太さは、照明光の円周方向における照射領域が、照明光や撮像視野が連結部材117によって遮蔽される円周方向における領域(以下、遮蔽領域とも称する。)よりも広くなるように設定する。   Depending on the thickness of the connecting member 117 (for example, the diameter of the tube in the case of a cylindrical connecting member 117), two types of illumination light and imaging field of view may be blocked by the connecting member 117. Therefore, the thickness of the connecting member 117 is such that the irradiation area in the circumferential direction of the illumination light is smaller than the area in the circumferential direction in which the illumination light and the imaging field of view are blocked by the connecting member 117 (hereinafter also referred to as a shielding area). Set to be wider.

ここで、複数本の連結部材117を設ける場合には、例えば図3に示したように、円環状の基台109の内縁部に対し、基台109の周方向に沿って等間隔に配置することが好ましい。また、連結部材117を複数本設置する場合には、遮蔽領域がなるべく狭くなるように本数を決定することが好ましい。   Here, in the case of providing a plurality of connecting members 117, for example, as shown in FIG. 3, they are arranged at equal intervals along the circumferential direction of the base 109 with respect to the inner edge portion of the annular base 109. Is preferred. Further, in the case where a plurality of connecting members 117 are installed, it is preferable to determine the number so that the shielding area is as narrow as possible.

また、連結部材117の本数を1本とする場合には、例えば図3に示した4本の連結部材のうちいずれか1つの位置に対して、連結部材117を設置すればよい。   In addition, when the number of connection members 117 is one, for example, the connection members 117 may be installed at any one position among four connection members illustrated in FIG. 3.

このような構成を有する管状体撮像装置100は、駆動制御装置150によって管状体1の中心軸に略一致するように軸方向に移動しながら、管状体1の内表面を、好ましくは送入時と送出時の双方で走査する。ここで、後述する演算処理装置200は、管状体撮像装置100が軸方向に所定距離移動する毎に、エリアカメラ113に対して撮像のためのトリガ信号を出力する。環状レーザ光源101、円錐状照明光源107及びエリアカメラ113の軸方向の移動間隔は、適宜設定することが可能であるが、例えば、エリアカメラ113の撮影画素サイズと同一にすることが好ましい。軸方向の移動間隔と撮影画素サイズとを一致させることで、撮像された画像の縦方向の分解能と横方向の分解能とを一致させることができる。   The tubular body imaging device 100 having such a configuration is preferably moved along the inner surface of the tubular body 1 while being axially moved by the drive control device 150 so as to substantially coincide with the central axis of the tubular body 1. And scan both at the time of delivery. Here, the arithmetic processing unit 200 described later outputs a trigger signal for imaging to the area camera 113 each time the tubular body imaging device 100 moves a predetermined distance in the axial direction. The movement distance in the axial direction of the annular laser light source 101, the conical illumination light source 107, and the area camera 113 can be set as appropriate, but for example, the imaging pixel size of the area camera 113 is preferably the same. By matching the movement interval in the axial direction with the imaging pixel size, it is possible to match the vertical resolution of the captured image with the horizontal resolution.

なお、管状体撮像装置100により送入時と送出時の双方で撮像処理を行う場合、駆動制御装置150は、管状体撮像装置100による送入時の管状体内表面の撮像が終了すると、連結部材117の本数に応じて管状体撮像装置100を周方向に回転させる。この回転角の大きさは、管状体内表面に仮想的に設定した基準線を基準として考えた場合に、連結部材117の配置により生じる遮蔽領域が送入時と送出時とで異なる位置となるように(換言すれば、送入時における遮蔽領域と、送出時における遮蔽領域とが重ならないように)設定される。具体的には、連結部材117の本数が1本である場合には、駆動制御装置150は、管状体撮像装置100を周方向に沿って例えば180度回転させる。また、駆動制御装置150は、連結部材117が等間隔に2本設置されている場合には、管状体撮像装置100を周方向に例えば90度回転させ、等間隔に3本設置されている場合には、周方向に例えば60度回転させる。また、図3に示したように、連結部材117が等間隔に4本設置されている場合には、駆動制御装置150は、管状体撮像装置100を周方向に例えば45度回転させる。   In the case where the imaging processing is performed by the tubular body imaging device 100 both at the time of delivery and at the time of delivery, the drive control device 150 is configured to connect the connecting members when imaging of the tubular body surface at the time of delivery is completed by the tubular body imaging device 100 The tubular body imaging device 100 is rotated in the circumferential direction according to the number 117. The size of this rotation angle is such that, when considered on the basis of a reference line virtually set on the inner surface of the tubular body, the shielded area generated by the arrangement of the connecting member 117 is at different positions at the time of delivery and delivery. (In other words, the shielding area at the time of delivery and the shielding area at the time of delivery do not overlap). Specifically, when the number of connection members 117 is one, the drive control device 150 rotates the tubular body imaging device 100 by, for example, 180 degrees in the circumferential direction. Further, in the case where two connection members 117 are installed at equal intervals, the drive control device 150 rotates the tubular body imaging device 100 by, for example, 90 degrees in the circumferential direction, and three are installed at equal intervals. For example, it is rotated by 60 degrees in the circumferential direction. Further, as shown in FIG. 3, in the case where four connection members 117 are installed at equal intervals, the drive control device 150 rotates the tubular body imaging device 100 by, for example, 45 degrees in the circumferential direction.

以下に、本実施形態に係る管状体撮像装置100の有する各装置について、その具体的な構成や設定値等を列挙する。かかる構成や設定値等はあくまでも一例であって、本発明に係る管状体撮像装置100が、以下の具体例に限定されるわけではない。   The specific configuration, setting values, and the like of the respective devices included in the tubular body imaging device 100 according to the present embodiment will be listed below. The configuration, setting values, and the like are merely examples, and the tubular imaging device 100 according to the present invention is not limited to the following specific examples.

◎着目する管状体を内径100mm〜500mm、長さ10m〜20mの鋼管とした場合
○環状レーザ光源
赤色レーザダイオード(LD)光源と、円錐角90°のミラーとを使用したもの。100mWの赤色LD光源モジュールを使用した場合、環状レーザ光として機能するラインビームの強度は、内表面の位置で50mW程度となる。
○円錐状照明光源
赤色又は青色のレンズ付きLEDを円周状に配置したものであり、外径60mm、内径40mmとした。また、LEDは、18度間隔で20個設置した。
○レンズ:焦点距離1.81mm、水平方向画角180°
○エリアカメラ:1024bit×1024bitsのCCDを撮像素子として搭載。フレームレートは90fpsである。
○管状体撮像装置100が長さ0.5mmだけ軸方向に進む毎に、管状体の内表面を1回撮像する。
場合 When the tubular body of interest is a steel pipe with an inner diameter of 100 mm to 500 mm and a length of 10 m to 20 m. ○ An annular laser light source A red laser diode (LD) light source and a mirror with a conical angle of 90 °. When a 100 mW red LD light source module is used, the intensity of the line beam functioning as the annular laser light is about 50 mW at the position of the inner surface.
○ Conical illumination light source An LED with a red or blue lens is circumferentially disposed, and has an outer diameter of 60 mm and an inner diameter of 40 mm. In addition, 20 LEDs were installed at an interval of 18 degrees.
○ Lens: focal length 1.81mm, horizontal angle of view 180 °
○ Area camera: Equipped with a CCD of 1024 bits × 1024 bits as an imaging device. The frame rate is 90 fps.
The inner surface of the tubular body is imaged once each time the tubular body imaging device 100 axially travels by 0.5 mm in length.

以上、図2A〜図4を参照しながら、本実施形態に係る管状体撮像装置100について、詳細に説明した。   In the above, the tubular body imaging device 100 according to the present embodiment has been described in detail with reference to FIGS. 2A to 4.

(演算処理装置200の全体構成について)
続いて、再び図1に戻って、本実施形態に係る演算処理装置200の全体構成について説明する。
(About the whole configuration of the arithmetic processing unit 200)
Subsequently, referring back to FIG. 1 again, the overall configuration of the arithmetic processing unit 200 according to the present embodiment will be described.

本実施形態に係る演算処理装置200は、例えば図1に示したように、撮像制御部201と、画像処理部203と、表示制御部205と、記憶部207と、を主に備える。   The arithmetic processing apparatus 200 according to the present embodiment mainly includes an imaging control unit 201, an image processing unit 203, a display control unit 205, and a storage unit 207, as shown in FIG. 1, for example.

撮像制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等により実現される。撮像制御部201は、本実施形態に係る管状体撮像装置100による検査対象物の撮像制御を実施する。より詳細には、撮像制御部201は、管状体1の撮像を開始する場合に、管状体撮像装置100の環状レーザ光源101及び円錐状照明光源107が照明光を照射するための制御信号を送出するとともに、画像処理部203へ撮像開始位置を送出する。   The imaging control unit 201 is realized by a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a communication device, and the like. The imaging control unit 201 performs imaging control of the inspection object by the tubular body imaging device 100 according to the present embodiment. More specifically, when imaging of the tubular body 1 is started, the imaging control unit 201 transmits a control signal for the annular laser light source 101 and the conical illumination light source 107 of the tubular body imaging device 100 to emit illumination light. At the same time, the imaging start position is sent to the image processing unit 203.

また、管状体撮像装置100が管状体1の撮像を開始すると、管状体撮像装置100からPLG信号が定期的に(例えば、管状体撮像装置100が0.5mm移動する毎に1パルスのPLG信号が)送出されるが、撮像制御部201は、PLG信号を取得する毎にエリアカメラ113に対して撮像を開始するためのトリガ信号を送出する。   In addition, when the tubular body imaging device 100 starts imaging the tubular body 1, the PLG signal from the tubular body imaging device 100 is periodically (for example, one pulse of PLG signal every 0.5 mm of movement of the tubular body imaging device 100). However, the imaging control unit 201 transmits a trigger signal for starting imaging to the area camera 113 each time the PLG signal is acquired.

更に、撮像制御部201は、駆動制御装置150に対して、管状体撮像装置100の移動や回転を実施させるための制御信号を更に送出する   Furthermore, the imaging control unit 201 further transmits a control signal for causing the drive control device 150 to move or rotate the tubular imaging device 100.

画像処理部203は、例えば、CPU、ROM、RAM、通信装置等により実現される。画像処理部203は、管状体撮像装置100(より詳細には、管状体撮像装置100のエリアカメラ113)から取得した撮像データを利用して、後述する2種類の画像フレームを生成する。その後、生成した2種類の画像フレームに対して、以下で説明するような画像処理を行い、測定対象物である管状体の内表面に存在する可能性のある欠陥を検出する。画像処理部203は、管状体1の内表面の欠陥検出処理を終了すると、得られた検出結果に関する情報を、表示制御部205に伝送する。   The image processing unit 203 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like. The image processing unit 203 generates two types of image frames to be described later, using imaging data acquired from the tubular body imaging device 100 (more specifically, the area camera 113 of the tubular body imaging device 100). Thereafter, image processing as described below is performed on the generated two types of image frames to detect defects that may exist on the inner surface of the tubular body that is the measurement object. When the defect detection process for the inner surface of the tubular body 1 is completed, the image processing unit 203 transmits information on the obtained detection result to the display control unit 205.

また、本実施形態に係る管状体撮像装置100が撮像した画像には、上述のように連結部材117に起因する遮蔽領域が存在している場合がある。そこで、本実施形態に係る画像処理部203は、送入時に撮像した内表面画像から生成した画像を、送出時に撮像した内表面画像から生成した画像を利用して補間し、遮蔽領域の存在しない画像を生成した上で、内表面に存在する欠陥を検出する。   Moreover, the shielding area | region resulting from the connection member 117 may exist as mentioned above in the image which the tubular body imaging device 100 which concerns on this embodiment imaged. Therefore, the image processing unit 203 according to the present embodiment interpolates the image generated from the inner surface image taken at the time of delivery using the image generated from the inner surface image taken at the time of delivery, and there is no shielded area. After generating the image, the defects present on the inner surface are detected.

なお、画像処理部203の詳細な構成と、画像処理部203で実施される画像処理については、以下で改めて詳細に説明する。   The detailed configuration of the image processing unit 203 and the image processing performed by the image processing unit 203 will be described again in detail below.

表示制御部205は、例えば、CPU、ROM、RAM、出力装置等により実現される。表示制御部205は、画像処理部203から伝送された、検査対象物である管状体1の欠陥検出結果を、演算処理装置200が備えるディスプレイ等の出力装置や演算処理装置200の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、欠陥検出装置10の利用者は、検査対象物(管状体1)の内表面に存在する各種の欠陥に関する検出結果を、その場で把握することが可能となる。   The display control unit 205 is realized by, for example, a CPU, a ROM, a RAM, an output device, and the like. The display control unit 205 is provided outside the arithmetic processing unit 200 or an output device such as a display provided in the arithmetic processing unit 200 and the defect detection result of the tubular body 1 which is an inspection object transmitted from the image processing unit 203. Control the display when displaying on the output device etc. Thereby, the user of the defect detection apparatus 10 can grasp the detection results regarding various defects present on the inner surface of the inspection object (tubular body 1) on the spot.

記憶部207は、例えば本実施形態に係る演算処理装置200が備えるRAMやストレージ装置等により実現される。記憶部207には、本実施形態に係る演算処理装置200が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベースやプログラム等が、適宜記録される。この記憶部207は、撮像制御部201、画像処理部203、表示制御部205等が、自由に読み書きを行うことが可能である。   The storage unit 207 is realized by, for example, a RAM, a storage device, or the like included in the arithmetic processing unit 200 according to the present embodiment. In the storage unit 207, various parameters that need to be stored when the arithmetic processing unit 200 according to the present embodiment performs some processing, progress of processing, etc., various databases, programs, etc. It is recorded. In the storage unit 207, the imaging control unit 201, the image processing unit 203, the display control unit 205, and the like can freely read and write.

<画像処理部について>
続いて、図5〜図21を参照しながら、本実施形態に係る演算処理装置200が備える画像処理部203について、詳細に説明する。
図5は、本実施形態に係る演算処理装置が有する画像処理部の構成の一例を示したブロック図である。図6A〜図7Bは、本実施形態に係る演算処理装置における座標変換処理について説明するための説明図である。図8A及び図8Bは、本実施形態に係る光切断線画像フレームについて説明するための説明図であり、図8Cは、本実施形態に係る正反射画像について説明するための説明図である。図9Aは、実施形態に係る光切断線変位の二次元配列を示した説明図であり、図9Bは、本実施形態に係る輝度の総和の二次元配列を示した説明図であり、図9Cは、本実施形態に係る輝線の画素数の二次元配列を示した説明図である。図10〜図16は、本実施形態に係る演算処理装置における遮蔽領域特定処理について説明するための説明図である。図17は、光切断線の変位と欠陥の高さとの関係を示した説明図であり、図18は、本実施形態に係る光切断線の近似補正処理について説明するための説明図である。図19は、本実施形態に係る演算処理装置における遮蔽領域補間処理について説明するための説明図である。図20は、本実施形態に係る画像処理部が備える欠陥検出部の構成の一例を示したブロック図である。図21は、本実施形態に係る欠陥検出処理で用いられるロジックテーブルの一例を示した説明図である。
<About the image processing unit>
Subsequently, the image processing unit 203 provided in the arithmetic processing unit 200 according to the present embodiment will be described in detail with reference to FIGS.
FIG. 5 is a block diagram showing an example of the configuration of an image processing unit included in the arithmetic processing unit according to the present embodiment. 6A to 7B are explanatory diagrams for describing coordinate conversion processing in the arithmetic processing unit according to the present embodiment. FIGS. 8A and 8B are explanatory diagrams for describing a light-cut line image frame according to the present embodiment, and FIG. 8C is an explanatory diagram for describing a specular reflection image according to the present embodiment. FIG. 9A is an explanatory view showing a two-dimensional array of light cutting line displacements according to the embodiment, and FIG. 9B is an explanatory view showing a two-dimensional array of sums of luminances according to the embodiment; These are explanatory drawings showing a two-dimensional array of the number of pixels of the bright line according to the present embodiment. FIG. 10 to FIG. 16 are explanatory diagrams for describing a shielding area identification process in the arithmetic processing unit according to the present embodiment. FIG. 17 is an explanatory view showing the relationship between the displacement of the light sectioning line and the height of the defect, and FIG. 18 is an explanatory view for explaining the approximate correction process of the light sectioning line according to the present embodiment. FIG. 19 is an explanatory diagram for describing a shielded area interpolation process in the arithmetic processing unit according to the present embodiment. FIG. 20 is a block diagram showing an example of the configuration of a defect detection unit provided in the image processing unit according to the present embodiment. FIG. 21 is an explanatory view showing an example of a logic table used in the defect detection process according to the present embodiment.

本実施形態に係る画像処理部203は、図5に示したように、A/D変換部211と、環状ビームセンター算出部213と、座標変換部215と、光切断画像フレーム生成部217と、光切断線処理部219と、深さ画像算出部221と、乱反射画像算出部223と、正反射画像生成部225と、画像補間部227と、欠陥検出部229と、結果出力部231と、を主に備える。   As shown in FIG. 5, the image processing unit 203 according to the present embodiment includes an A / D conversion unit 211, an annular beam center calculation unit 213, a coordinate conversion unit 215, and a light-cut image frame generation unit 217. The light section processing unit 219, the depth image calculation unit 221, the irregular reflection image calculation unit 223, the regular reflection image generation unit 225, the image interpolation unit 227, the defect detection unit 229, and the result output unit 231. Prepare mainly.

A/D変換部211は、例えば、CPU、ROM、RAM等により実現される。A/D変換部211は、エリアカメラ113から出力された撮像画像をA/D変換し、図4に示したようなデジタル多値画像データ(すなわち、管内表面画像)として出力する。かかるデジタル多値画像データは、記憶部207等に設けられた画像メモリに記憶される。これらのデジタル多値画像データを管状体の軸方向に沿って順次利用することにより、後述するような光切断画像フレーム及び正反射画像フレームが形成される。   The A / D conversion unit 211 is realized by, for example, a CPU, a ROM, a RAM, and the like. The A / D conversion unit 211 A / D converts the captured image output from the area camera 113, and outputs it as digital multilevel image data (that is, an inner surface image in the tube) as shown in FIG. The digital multilevel image data is stored in an image memory provided in the storage unit 207 or the like. By sequentially using these digital multilevel image data along the axial direction of the tubular body, a light cut image frame and a regular reflection image frame as described later are formed.

図4に示したように、管内表面画像は、管状体1の内表面の軸方向に沿ったある位置において、管状体の内表面に照射された環状レーザ光及び円錐状照明光の反射光を撮像したものである。管内表面画像は、予めカメラのゲインやレンズの絞りを適切に設定することにより、環状ビーム及び円錐状照明光が照射された部分が例えば白く表示され、その他の部分は黒く表示されているような濃淡画像となる。   As shown in FIG. 4, at a position along the axial direction of the inner surface of the tubular body 1, the surface image of the inside of the tube reflects the reflected light of the annular laser light and the conical illumination light applied to the inner surface of the tubular body It is an image. The tube surface image is such that the portion irradiated with the annular beam and the conical illumination light is displayed, for example, in white and the other portions are displayed in black, by appropriately setting the camera gain and the lens aperture in advance. It becomes a gray scale image.

A/D変換部211は、エリアカメラ113から出力された撮像画像に基づいて、図4に模式的に示したような管内表面画像を生成すると、生成した管内表面画像に対応するデータを、後述する環状ビームセンター算出部213に出力する。   When the A / D conversion unit 211 generates an in-pipe surface image as schematically shown in FIG. 4 based on the captured image output from the area camera 113, data corresponding to the generated in-pipe surface image will be described later. Output to the annular beam center calculator 213.

環状ビームセンター算出部213は、例えば、CPU、ROM、RAM等により実現される。環状ビームセンター算出部213は、A/D変換部211から出力された各管内表面画像について、環状ビームに対応する環の重心位置と半径をそれぞれ算出する。   The annular beam center calculation unit 213 is realized by, for example, a CPU, a ROM, a RAM, and the like. The annular beam center calculation unit 213 calculates, for each of the in-pipe surface images output from the A / D conversion unit 211, the barycentric position and the radius of the ring corresponding to the annular beam.

環の重心位置及び半径を算出する方法は、特に限定されるわけではなく、公知のあらゆる方法を利用することが可能である。環の重心位置及び半径を算出する方法の具体例としては、例えば、管内表面画像における環状ビームの形状が真円に近い場合は、以下のような2つの方法を挙げることができる。   The method of calculating the center of gravity position and radius of the ring is not particularly limited, and any known method can be used. As a specific example of the method of calculating the barycentric position and radius of the ring, for example, when the shape of the annular beam in the in-pipe surface image is close to a perfect circle, the following two methods can be mentioned.

・2値化した管内表面画像における環状ビーム上の任意の3点を抽出し、この3点の位置座標の重心を算出する。得られた重心位置と3点のうち任意の1点との間の距離が環の半径となる。
・ハフ(Hough)変換による円抽出を行い、円(すなわち、環状ビーム)の重心と半径とを算出する。
Extract arbitrary three points on the annular beam in the binarized tube surface image, and calculate the center of gravity of these three position coordinates. The distance between the obtained barycentric position and any one of the three points is the radius of the ring.
Perform circle extraction by Hough transform, and calculate the center of gravity and radius of the circle (that is, annular beam).

環状ビームセンター算出部213は、各管内表面画像について環の重心位置及び半径を算出すると、環の重心位置及び半径に関する情報をそれぞれ生成して、後述する座標変換部215に出力する。   After calculating the barycentric position and radius of the ring for each tube surface image, the annular beam center calculation unit 213 generates information on the barycentric position and radius of the ring and outputs the information to the coordinate conversion unit 215 described later.

なお、本実施形態においては、管状体1の内面の断面形状が真円に近い場合について説明しているが、任意の断面形状に対して適用可能であり、例えば、断面形状が楕円や角丸長方形等であってもよい。このような場合の重心は、環状ビームの形状から求めることが可能であり、求めた重心との距離の最大値と最小値の平均値を半径として用いることで、後述する座標変換を同じ手順で実施することができる。   In addition, in this embodiment, although the case where the cross-sectional shape of the inner surface of the tubular body 1 is close to a perfect circle is described, the present invention is applicable to any cross-sectional shape. It may be rectangular or the like. The center of gravity in such a case can be determined from the shape of the annular beam, and by using the average value of the maximum value and the minimum value of the distances to the determined center of gravity as the radius, the coordinate transformation described later is performed in the same procedure. It can be implemented.

座標変換部215は、例えば、CPU、ROM、RAM等により実現される。座標変換部215は、算出された重心位置、及び、当該重心位置と環状ビームの照射部分との離隔距離に基づいて、管内表面画像の座標系を変換する。その後、座標変換部215は、環状ビームの照射部分を管状体の周方向に展開した線分として表した光切断画像を生成するとともに、円錐状照明光の照射領域を管状体の周方向に展開した正反射画像を生成する。   The coordinate conversion unit 215 is realized by, for example, a CPU, a ROM, a RAM, and the like. The coordinate conversion unit 215 converts the coordinate system of the in-pipe surface image based on the calculated barycentric position and the separation distance between the barycentric position and the irradiation portion of the annular beam. Thereafter, the coordinate conversion unit 215 generates a light-cut image representing the irradiation portion of the annular beam as a line segment developed in the circumferential direction of the tubular body, and develops the irradiation region of the conical illumination light in the circumferential direction of the tubular body. Generate a regular reflection image.

環状ビームの重心位置が算出されることで、環状ビームの照射位置に対応する画素の存在位置を、重心位置を原点とした極座標(r,θ)で表すことができる。座標変換部215は、図6A及び6Bに示したように、環状ビームセンター算出部213で算出された半径rに対して、動径方向に所定の余裕を設けたうえで、0°≦Ψ≦360°として、直交座標(rcosΨ,rsinΨ)への座標変換を実施する。   By calculating the barycentric position of the annular beam, the existing position of the pixel corresponding to the irradiation position of the annular beam can be represented by polar coordinates (r, θ) with the barycentric position as the origin. As shown in FIGS. 6A and 6B, the coordinate conversion unit 215 provides a predetermined margin in the radial direction with respect to the radius r calculated by the annular beam center calculation unit 213, and then 0 ° ≦ Ψ ≦≦. Coordinate transformation to Cartesian coordinates (r cos Ψ, r sin Ψ) is performed as 360 °.

この際、管状体撮像装置100が図2Aに示したような構造を有している場合、管内表面画像における環状レーザ光や円錐状照明光の照射位置は、環状ビームの重心位置(半径rに対応する位置)に対して、図6Aに示したような位置関係となっている。そこで、座標変換部215は、図7Aに示したように、環状ビームセンター算出部213で算出された半径rに対して、動径方向に±Δrの余裕を設けた上で、動径方向のr−Δr〜r+Δr+dの範囲で、0°≦Ψ≦360°として座標変換を実施する。この際、余裕Δrの値は、環状ビームの照射部分を含む範囲で、プラス方向とマイナス方向とで異なった値であってもよい。かかる場合、例えば、座標変換を行う範囲は、r−Δr〜r+Δrなどと表現することができる。ただし、本実施形態においては、プラス方向とマイナス方向とで同じ値Δrを用いる場合について、以降の説明を行う。 At this time, when the tubular body imaging device 100 has a structure as shown in FIG. 2A, the irradiation position of the annular laser light and the conical illumination light in the inner surface image of the tube is the barycentric position (radius r With respect to the corresponding position), the positional relationship as shown in FIG. 6A is obtained. Therefore, as shown in FIG. 7A, the coordinate conversion unit 215 provides a margin of ± Δr in the radial direction with respect to the radius r calculated by the annular beam center calculation unit 213, and Coordinate transformation is performed in the range of r−Δr to r + Δr + d, 0 ° ≦ Ψ ≦ 360 °. At this time, the value of the margin Δr may be different between the plus direction and the minus direction within the range including the irradiation portion of the annular beam. In such a case, for example, the range in which coordinate conversion is performed can be expressed as r−Δr 1 to r + Δr 2 or the like. However, in the present embodiment, the following description will be made on the case where the same value Δr is used in the positive direction and the negative direction.

このような座標変換を行うことで、図7Aの右側に示したように、環状レーザ光照射部分については、動径方向には半径rを中心として2Δrの高さを有し、角度方向には360°分の長さを有する帯状の画像が抽出され、円錐状照明光照射領域については、動径方向にはdの高さを有し、角度方向には360°分の長さを有する帯状の画像が抽出される。以上の説明からも明らかなように、環状レーザ光照射部分から抽出された帯状の画像は、環状レーザ光の照射部分を管状体の周方向に展開した線分(以下、光切断線とも称する。)を含むこととなる。また、動径方向に関して、半径rを中心として2Δrの範囲を抽出することで、環状ビームの周に凹凸が存在していたとしても、かかる凹凸を含む環状ビームの周をもれなく抽出することが可能となる。このようにして得られた帯状の画像を、以下では光切断画像と称することとする。   By performing such coordinate conversion, as shown on the right side of FIG. 7A, the annular laser light irradiated portion has a height of 2Δr around the radius r in the radial direction, and in the angular direction A strip-shaped image having a length of 360 ° is extracted, and for the conical illumination light irradiation area, a strip having a height of d in the radial direction and a length of 360 ° in the angular direction Images are extracted. As is apparent from the above description, the strip-like image extracted from the annular laser beam irradiation portion is a line segment in which the annular laser beam irradiation portion is expanded in the circumferential direction of the tubular body (hereinafter also referred to as light cutting line). Will be included. Also, by extracting the range of 2Δr around the radius r in the radial direction, even if the unevenness is present around the annular beam, it is possible to extract the circumference of the annular beam including the unevenness without loss. It becomes. The band-shaped image thus obtained is hereinafter referred to as a light cut image.

また、円錐状照明光照射領域から抽出された帯状の画像は、正反射条件を満たすようにエリアカメラ113に結像した円錐状照明光の反射光に関する画像であり、円錐状照明光の正反射光の輝度分布を管状体の周方向に展開した画像となっている。このようにして得られた帯状の画像を、以下では正反射展開画像と称することとする。   Further, a strip-like image extracted from the conical illumination light irradiation area is an image regarding the reflected light of the conical illumination light formed on the area camera 113 so as to satisfy the regular reflection condition, and the specular reflection of the conical illumination light It is an image in which the luminance distribution of light is expanded in the circumferential direction of the tubular body. The strip-shaped image thus obtained is hereinafter referred to as a regular reflection developed image.

管状体撮像装置100が図2Aに示したような構造を有している場合、円錐状照明光照射領域と、環状レーザ光照射部分とは、予め互いに離隔量b+Δrで分離しているため、後述する光切断画像フレーム生成部217及び正反射画像算出部219は、光切断画像と、正反射展開画像と、を容易に切り分けることが可能である。   In the case where the tubular body imaging device 100 has a structure as shown in FIG. 2A, the conical illumination light irradiation area and the annular laser light irradiation portion are separated in advance by the separation amount b + Δr. The light cut image frame generation unit 217 and the specular reflection image calculation unit 219 can easily separate the light cut image and the specular reflection developed image.

なお、Δrの大きさは、離隔量b>0を満足するように、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて予め大まかに算出しておくことで、決定することが可能である。   In addition, the magnitude of Δr is roughly calculated in advance based on the past operation data and the like, in order to satisfy the separation amount b> 0, based on the past operation data and the like. It is possible to decide.

一方、管状体撮像装置100が図2Bに示したような構造を有している場合、管内表面画像における環状レーザ光や円錐状照明光の照射位置は、環状ビームの重心位置に対して、図6Bに示したような位置関係となっている。そこで、座標変換部215は、図7Bに示したように、環状ビームセンター算出部213で算出された半径rに対して、動径方向に±d/2の余裕を設けた上で、動径方向のr−d/2〜r+d/2の範囲で、0°≦Ψ≦360°として座標変換を実施する。   On the other hand, when the tubular body imaging apparatus 100 has a structure as shown in FIG. 2B, the irradiation position of the annular laser light and the conical illumination light in the in-pipe surface image is shown in FIG. It has a positional relationship as shown in 6B. Therefore, as shown in FIG. 7B, the coordinate conversion unit 215 sets a margin of ± d / 2 in the radial direction with respect to the radius r calculated by the annular beam center calculation unit 213, and Coordinate transformation is carried out with 0 ° ≦ Ψ ≦ 360 ° in the range of r−d / 2 to r + d / 2 in the direction.

このような座標変換を行うことで、図7Bの右側に示したように、動径方向には半径rを中心として高さdを有し、角度方向には360°分の長さを有する帯状の画像が抽出される。   By performing such coordinate conversion, as shown on the right side of FIG. 7B, a strip having a height d around the radius r in the radial direction and a length of 360 ° in the angular direction Images are extracted.

管状体撮像装置100が図2Bに示したような構造を有している場合、円錐状照明光照射領域と環状レーザ光照射部分とは、互いに重畳している。しかしながら、管状体撮像装置100が図2Bに示したような構造を有している場合、円錐状照明光と環状レーザ光とは、互いに区別可能なように選択されているため、後述する光切断画像フレーム生成部217及び正反射画像算出部219は、光切断画像と、正反射展開画像と、を容易に分離することが可能となる。   When the tubular body imaging device 100 has a structure as shown in FIG. 2B, the conical illumination light irradiation area and the annular laser light irradiation portion overlap each other. However, in the case where the tubular body imaging device 100 has a structure as shown in FIG. 2B, the conical illumination light and the annular laser light are selected to be distinguishable from each other, and hence the light cutting described later The image frame generation unit 217 and the specular reflection image calculation unit 219 can easily separate the light section image and the specular reflection developed image.

上述のような管状体撮像装置100により撮像された管内表面画像は、約300画素に相当する半径rを有する環を含むこととなる。そこで、r=300画素、Δr=25画素として、0°≦Ψ≦360°の範囲で光切断画像の抽出を行うと、横2041画素×高さ50画素の光切断画像が生成されることとなる。また、d=25画素とすると、横2041画素×高さ50画素の正反射展開画像が生成されることとなる。なお、このときの画素サイズは、横0.5mm×縦0.5mmである。   The in-pipe surface image imaged by the tubular-body imaging device 100 as described above will include a ring having a radius r corresponding to about 300 pixels. Therefore, if a light-cut image is extracted within the range of 0 ° ≦ Ψ ≦ 360 ° with r = 300 pixels and Δr = 25 pixels, a light-cut image of 2041 horizontal pixels × 50 pixels high is generated. Become. Further, assuming that d = 25 pixels, a specular reflection developed image of horizontal 2041 pixels × height 50 pixels is generated. The pixel size at this time is 0.5 mm wide × 0.5 mm long.

なお、先だって説明したように、本実施形態に係る管状体撮像装置100は、円錐状照明光の照射領域を、環状レーザ光の反射光を撮像する毎に毎回撮像する(すなわち、円錐状照明光が毎回照射される)ようにしてもよいし、環状レーザ光がdだけ進む間に1度だけ円錐状照明光の照射領域を撮像する(すなわち、円錐状照明光を、環状レーザ光がdだけ進む間に1度だけ照射させる)ようにしてもよい。そのため、後者のような円錐状照明光源の照射制御を行っている場合には、円錐状照明光が照射されていない際の管内表面画像には、円錐状照明光の照射領域が存在しないこととなる。その場合、座標変換部215は、環状レーザ光の照射部分のみに対して、上記のような座標変換処理を実施して、光切断画像を生成すればよい。   As described above, the tubular-body imaging device 100 according to the present embodiment captures the irradiation area of the conical illumination light every time the reflected light of the annular laser beam is imaged (that is, the conical illumination light). Each time the annular laser light travels by d), the imaging area of the conical illumination light is imaged only once (ie, the conical illumination light is It may be made to irradiate only once) while advancing. Therefore, when performing the irradiation control of the conical illumination light source such as the latter, there is no irradiation region of the conical illumination light in the in-pipe surface image when the conical illumination light is not irradiated. Become. In that case, the coordinate conversion unit 215 may perform the above-described coordinate conversion process only on the irradiation portion of the annular laser light to generate a light-cut image.

また、円錐状照明光が毎回照射されている場合においても、環状レーザ光がdだけ進む間の1度だけ、環状レーザ光の照射部分及び円錐状照明光の照射領域の双方に対して、上記のような座標変換処理を実施する一方で、その他の場合には、環状レーザ光の照射部分に対してのみ、上記のような座標変換処理を実施するようにしてもよい。   In addition, even when the conical illumination light is emitted each time, the above-described operation is performed only to 1 degree while the annular laser light travels by d only for both the illumination portion of the annular laser light and the illumination region of the conical illumination light. While performing the coordinate conversion process as described above, in other cases, the coordinate conversion process as described above may be performed only on the portion irradiated with the annular laser light.

また、座標変換部215は、抽出された光切断画像及び正反射展開画像における各画素の座標(r,Ψ)を利用することで、光切断画像及び正反射展開画像に含まれる画素の座標を直交座標(rcosΨ,rsinΨ)に変換する。ここで、座標変換部215が実施する座標値の変換は、極座標系から直交座標系への変換であるため、極座標系における格子点(すなわち、画素の中心位置)が、直交座標系において必ず格子点に対応するとは限らず、非格子点に対応するものも存在することとなる。そこで、座標変換部215は、直交座標系における非格子点の濃度(画素値)を補間するために、着目している点の近傍に位置する他の格子点の濃度に基づいて補間する、いわゆる画像補間法を併せて実施することが好ましい。   In addition, the coordinate conversion unit 215 uses the coordinates (r, Ψ) of each pixel in the extracted light section image and regular reflection expanded image to calculate the coordinates of the pixels included in the light section image and regular reflection expanded image. Convert to Cartesian coordinates (r cos Ψ, r sin Ψ). Here, since conversion of coordinate values performed by the coordinate conversion unit 215 is conversion from a polar coordinate system to an orthogonal coordinate system, grid points in the polar coordinate system (that is, center positions of pixels) must always be grids in the orthogonal coordinate system. Not only corresponding points but also corresponding non-lattice points exist. Therefore, in order to interpolate the density (pixel value) of the non-grid point in the orthogonal coordinate system, the coordinate conversion unit 215 interpolates based on the density of another grid point located in the vicinity of the point of interest. It is preferable to carry out the image interpolation method together.

かかる画像補間法は、特に限定されるものではなく、例えば、「昭晃堂 画像処理ハンドブック」等に記載されている公知の画像補間法を利用することが可能である。このような画像補間法の例として、最近傍(nearest neighbor)法、双線形補間(bi−linear interpolation)法、3次補間(bi−cubic convolution)法等を挙げることができる。これらの方法のうち、前者ほど処理速度が速く、後者ほど高品質の結果を得ることができる。そこで、座標変換部215は、利用する画像補間法の種別を、処理に用いることのできるリソース量や処理時間等に応じて適宜決定すればよい。   Such an image interpolation method is not particularly limited, and for example, it is possible to use a known image interpolation method described in “Shokyodo Image Processing Handbook” or the like. Examples of such an image interpolation method may include the nearest neighbor method, bi-linear interpolation method, bi-cubic convolution method, and the like. Among these methods, the former is faster and the latter is higher in quality. Therefore, the coordinate conversion unit 215 may appropriately determine the type of image interpolation method to be used according to the amount of resources that can be used for processing, the processing time, and the like.

座標変換部215は、上述のような座標変換処理や画像補間処理を終了すると、得られた光切断画像及び正反射展開画像に対応する画像データを、記憶部207等に設けられた画像メモリに、管状体の軸方向に沿って順次格納していく。   When the coordinate conversion unit 215 completes the coordinate conversion processing and the image interpolation processing as described above, the image data corresponding to the obtained light section image and the specular reflection developed image is stored in the image memory provided in the storage unit 207 or the like. , Sequentially store along the axial direction of the tubular body.

光切断画像フレーム生成部217は、例えば、CPU、ROM、RAM等により実現される。光切断画像フレーム生成部217は、記憶部207等に設けられた画像メモリから、管状体の軸方向に沿って格納された光切断画像を順に取得する。その後、光切断画像フレーム生成部217は、取得した各光切断画像を管状体の軸方向に沿って順に配列して、図8Aに模式的に示したような光切断画像フレームを生成する。   The light-cut image frame generation unit 217 is realized by, for example, a CPU, a ROM, a RAM, and the like. The light-cut image frame generation unit 217 sequentially obtains light-cut images stored along the axial direction of the tubular body from an image memory provided in the storage unit 207 or the like. Thereafter, the light-cut image frame generation unit 217 sequentially arranges each of the obtained light-cut images along the axial direction of the tubular body to generate a light-cut image frame as schematically shown in FIG. 8A.

1つの光切断画像フレームを構成する光切断画像の個数は、適宜設定すればよいが、例えば、256個の光切断画像で1つの光切断画像フレームを構成するようにしてもよい。各光切断画像は、上述のように環状ビーム画像の撮像間隔毎(例えば、0.5mm間隔)に存在している。そのため、0.5mm間隔で撮像された管内表面画像に基づく、256個の光切断画像からなる1つの光切断画像フレームは、管状体の内表面の全周を、軸方向に沿って128mm(=256×0.5mm)の範囲で撮像した結果に相当する。   The number of light sectioned images constituting one light sectioned image frame may be set as appropriate, but for example, one light sectioned image frame may be configured by 256 light sectioned images. Each light section image exists at every imaging interval (for example, 0.5 mm interval) of the annular beam image as described above. Therefore, one light-cut image frame consisting of 256 light-cut images, based on the in-pipe surface image taken at intervals of 0.5 mm, is 128 mm (== axially along the entire circumference of the inner surface of the tubular body). This corresponds to the result of imaging in the range of 256 × 0.5 mm).

光切断画像フレーム生成部217は、光切断画像フレームを生成すると、生成した光切断画像フレームを、後述する光切断線処理部221に出力する。また、光切断画像フレーム生成部217は、生成した光切断画像フレームに対応するデータに、当該光切断画像フレームを生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。   When the light-cut image frame generation unit 217 generates a light-cut image frame, the light-cut image frame generation unit 217 outputs the generated light-cut image frame to a light-cut line processing unit 221 described later. In addition, the light-cut image frame generation unit 217 associates the data corresponding to the generated light-cut image frame with time information on the date and time when the light-cut image frame is generated, and stores it in the storage unit 207 as history information. May be

光切断線処理部219は、例えば、CPU、ROM、RAM等により実現される。光切断線処理部219は、光切断画像フレームに含まれる各光切断線について、光切断線の変位量(輝線の曲がり具合)を含む光切断線特徴量を算出する。以下では、図8A及び図8Bを参照しながら、光切断線処理部221が実施する処理及び算出する光切断線特徴量について、詳細に説明する。   The light cutting line processing unit 219 is realized by, for example, a CPU, a ROM, a RAM, and the like. The light cutting line processing unit 219 calculates a light cutting line feature amount including the displacement amount of the light cutting line (the degree of bending of the bright line) for each light cutting line included in the light cutting image frame. Hereinafter, the processing performed by the light cutting line processing unit 221 and the light cutting line feature quantity calculated by the light cutting line processing unit 221 will be described in detail with reference to FIGS. 8A and 8B.

図8Aでは、1つの光切断画像フレームの中にN本の光切断線が存在しており、光切断画像フレームの横方向の長さは、M画素であるものとする。また、1本の光切断線を含む1つの光切断画像は、縦2Δr画素×横M画素から構成されている。   In FIG. 8A, N light sectioning lines exist in one light sectioning image frame, and the horizontal length of the light sectioning image frame is M pixels. In addition, one light section image including one light section line is configured of vertical 2Δr pixels × horizontal M pixels.

ここで、説明の便宜上、光切断画像フレームの周方向(図8Aにおける横方向)にX軸をとり、光切断画像フレームの軸方向(図8Aにおける縦方向)にY軸をとって、光切断画像フレーム中の画素の位置をXY座標で表すものとする。以下の説明では、光切断画像フレーム中に存在するj(1≦j≦N)番目の光切断線の左側からm画素目(1≦m≦M)の位置(すなわち、Xj,mで表される位置)に着目する。 Here, for convenience of explanation, the light cutting is performed by taking the X axis in the circumferential direction (horizontal direction in FIG. 8A) of the light cutting image frame and the Y axis in the axial direction (longitudinal direction in FIG. 8A) of the light cutting image frame. The position of the pixel in the image frame is represented by XY coordinates. In the following description, the position of the m-th pixel (1 ≦ m ≦ M) from the left side of the j (1 ≦ j ≦ N) light cutting line present in the light cutting image frame (ie, X j, m Focus on the

光切断線処理部219は、まず、着目すべき光切断線(以下、単にラインとも称する。)の着目すべきX座標位置(本説明では、Xj,mで表される位置)を選択すると、図8Bに示したように、着目したラインの着目したX座標位置における画素に対応付けられている画素値(すなわち、環状ビームの輝度値)の分布を参照する。この際、光切断線処理部219は、光切断画像中の当該X座標位置における全ての画素について、以下で説明する処理を実施するのではなく、光切断画像中におけるY座標の基準位置Yの前後Wの範囲に属する画素(すなわち、Y−W〜Y+Wの範囲に属する画素)について、以下で説明する処理を実施する。 When the light cutting line processing unit 219 first selects the X coordinate position (position represented by X j, m in this description) to be focused on of the light section line to be focused on (hereinafter, also simply referred to as a line). As shown in FIG. 8B, the distribution of the pixel values (that is, the luminance values of the annular beam) associated with the pixels at the focused X coordinate position of the focused line is referred to. At this time, the light sectioning line processing unit 219 does not execute the processing described below for all the pixels at the X coordinate position in the light sectioned image, and the reference position Y s of the Y coordinate in the light sectioned image. The process described below is performed on pixels belonging to the range of W before and after W (that is, pixels belonging to the range of Y s −W to Y s + W).

ここで、Y座標の基準位置Yは、光切断画像フレームのjライン目の光切断画像に対して予め指定される軸方向の位置であり、例えば光切断画像の軸方向の中心を指定すれば、先述のようにプラス方向とマイナス方向とで同じ余裕値Δrを用いる場合には、環状ビームセンター算出部213が算出した半径r(すなわち光切断線の位置)に等しくなる。また、処理範囲を規定するパラメータWは、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて、光切断画像中におけるY座標の基準位置Yの前後Wの範囲が光切断画像に収まるように、予め大まかに算出しておき、適宜決定すればよい。パラメータWの値を小さくすることができれば、光切断線処理部219の処理負荷の低減をはかることができる。 Here, the reference position Y s of the Y coordinate is a position in the axial direction specified in advance with respect to the light-cut image of the j-th line of the light-cut image frame, for example, the center in the axial direction of the light-cut image For example, in the case where the same margin value Δr is used in the plus direction and the minus direction as described above, the radius r (that is, the position of the light cutting line) calculated by the annular beam center calculation unit 213 is equal. Further, the parameter W defining the processing range is the range of heights of the concavities and convexities that may exist in the tubular body 1 based on the past operation data etc., before and after W at the reference position Y s of the Y coordinate in the light cut image. The range may be roughly calculated in advance so as to fall within the light cut image, and may be determined appropriately. If the value of the parameter W can be reduced, the processing load of the light cutting line processing unit 219 can be reduced.

光切断線処理部219は、まず、Y−W〜Y+Wの範囲に含まれる画素の中から、光切断線に対応する画素を特定するための第1の閾値の一例である所定の閾値Th以上の画素値を有する画素を特定する。図8Bに示した例では、Yj,k、Yj,k+1、Yj,k+2で表される3つの画素が、それぞれ閾値Th以上の画素値Ij,k、Ij,k+1、Ij,k+2を有している。従って、光切断線処理部219は、所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,m=3と設定する。この所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,mは、いわば位置(j,m)における輝線の画素数に対応する値であり、光切断線特徴量の一つである。また、光切断線処理部219は、以下の処理において、抽出された画素に関する情報(Yj,k、Ij,k)、(Yj,k+1、Ij,k+1)、(Yj,k+2、Ij,k+2)(以下、単に(Y,I)と略記することもある。)の情報を利用して、更なる光切断線特徴量を算出していく。 Light section line unit 219, first, from among the pixels included in the range of Y s -W~Y s + W, the first threshold value for specifying the pixels corresponding to the light section line given as an example A pixel having a pixel value equal to or greater than a threshold Th is identified. In the example shown in FIG. 8B, Y j, k, Y j, k + 1, Y j, k + 3 single pixel represented by 2, each threshold value Th or more pixel values I j, k, I j, k + 1, I j , K + 2 . Therefore, the light section processing unit 219 sets the number p j, m = 3 in which pixels having pixel values equal to or larger than the predetermined threshold Th are added in the line width direction. The number p j, m obtained by adding pixels having pixel values equal to or more than the predetermined threshold value Th in the line width direction is a value corresponding to the number of pixels of the bright line at the position (j, m). one of. In addition, the light section processing unit 219 performs information (Y j, k 1 , I j, k ), (Y j, k + 1 , I j, k + 1 ), (Y j, k + 2 ) on the extracted pixels in the following processing. , I j, k +2 (hereinafter, may be simply abbreviated as (Y, I)) to calculate further light-cut line feature quantities.

また、光切断線処理部219は、パラメータpj,m及び抽出した画素に関する情報(Y,I)を利用して、抽出された画素の輝度の総和Kj,mを算出する。図8Bに示した例の場合、光切断線処理部219が算出する輝度の総和は、Kj,m=Ij,k+Ij,k+1+Ij,k+2となる。この輝度の総和Kj,mも、光切断線特徴量の一つである。 In addition, the light section line processing unit 219 calculates the total sum K j, m of the luminance of the extracted pixel using the parameter p j, m and the information (Y, I) on the extracted pixel. In the case of the example shown in FIG. 8B, the sum of the luminances calculated by the light cutting line processing unit 219 is K j, m = I j, k + I j, k + 1 + I j, k + 2 . The total sum K j, m of the luminance is also one of the light cutting line feature quantities.

更に、光切断線処理部219は、抽出された画素に関する情報(Y,I)とY座標の基準位置Yとを利用して、抽出された画素のY方向の重心位置Y(j,m)を算出するとともに、重心位置Y(j,m)の基準位置Yからの変位量Δdj,m=Y−Y(j,m)を算出する。 Furthermore, the light section line processing unit 219 uses the information (Y, I) on the extracted pixel and the reference position Y s of the Y coordinate to set the barycentric position Y C (j, of the extracted pixel in the Y direction). calculates a m), and calculates the center of gravity position Y C (j, the amount of displacement from the reference position Y s of m) Δd j, m = Y s -Y C (j, m) the.

ここで、重心位置Y(j,m)は、抽出された画素の集合をAと表すこととすると、以下の式101で表される値となる。従って、図8Bに示した例の場合、重心位置Y(j,m)は、以下の式101aで表される値となる。 Here, assuming that the set of extracted pixels is represented by A, the barycentric position Y C (j, m) has a value represented by the following Expression 101. Thus, in the example shown in FIG. 8B, the center of gravity position Y C (j, m) is a value represented by the following formula 101a.

Figure 0006515344
Figure 0006515344

ここで、画素に対応する軸方向の位置は、いわば管状体撮像装置100の移動幅(例えば、0.5mm)で量子化された値である。他方、上記式101で示したような演算により算出される重心位置Y(j,m)は、割り算という数値演算を利用することで算出される値であるため、管状体撮像装置100の移動幅(いわば量子化単位)よりも小さな値となりうる。従って、かかる重心位置Y(j,m)を利用して算出される変位量Δdj,mについても、移動幅よりも小さな値を有しうる値となる。このようにして算出される変位量Δdj,mも、光切断線特徴量の一つである。 Here, the position in the axial direction corresponding to the pixel is a value quantized by the movement width (for example, 0.5 mm) of the tubular imaging device 100. On the other hand, since the barycentric position Y C (j, m) calculated by the calculation as shown in the above equation 101 is a value calculated by using a numerical operation of division, the movement of the tubular body imaging device 100 It can be smaller than the width (in other words, the quantization unit). Therefore, the displacement amount Δd j, m calculated using the barycentric position Y C (j, m) is also a value that can have a value smaller than the movement width. The displacement amount Δd j, m calculated in this manner is also one of the light cutting line feature amounts.

光切断線処理部219は、以上のような3種類の特徴量を、各切断線に含まれるM個の要素に関して算出する。その結果、図9A〜図9Cに示したように、光切断線の変位量Δd、輝度の総和K、及び、輝線の画素数pに関して、M列×N行の二次元配列が生成される。   The light sectioning line processing unit 219 calculates the three types of feature amounts as described above with respect to the M elements included in each sectioning line. As a result, as shown in FIGS. 9A to 9C, a two-dimensional array of M columns × N rows is generated with respect to the displacement amount Δd of the light sectioning line, the sum K of luminance, and the pixel number p of the bright line.

ここで、図2A及び図2Bに示したように、本実施形態に係る管状体撮像装置100では、連結部材117を用いて、一対の保持部材115を互いに連結しているため、エリアカメラ113によって撮像される実際の管内表面画像には、図10に模式的に示したように、連結部材117により環状レーザ光及び円錐状照明光の反射光が遮蔽された不感帯である遮蔽領域が存在する可能性がある。また、送入状態から送出状態へと切り替わる際に、管状体撮像装置100が管状体の周方向に所定の角度回転する(図11では時計方向に45度回転している)ため、管状体内表面のある基準点に着目すると、遮蔽領域の位置は送入時と送出時とで異なることとなる。   Here, as shown in FIG. 2A and FIG. 2B, in the tubular body imaging device 100 according to the present embodiment, the pair of holding members 115 are connected to each other using the connecting members 117, so As schematically shown in FIG. 10, in the actual in-pipe surface image to be imaged, there may be a shielded area which is a dead zone in which reflected light of annular laser light and conical illumination light is shielded by the connecting member 117. There is sex. In addition, when the tubular body imaging device 100 is rotated by a predetermined angle in the circumferential direction of the tubular body (in FIG. 11, the tubular body imaging device 100 is rotated 45 degrees clockwise), the tubular body surface is switched. Focusing on a certain reference point, the position of the shielded area will be different at the time of delivery and at the time of delivery.

ここで、先だって説明した座標変換部215は、以下で詳述するような遮蔽領域の特定処理をより簡便なものとするために、座標系の変換を行う際に、管状体内表面に仮想的に設定された基準点を基準として、変換処理を実施することが好ましい。この基準点を管状体内表面のどの位置に設定するかは、特に限定されるわけではなく、任意の位置に設定することが可能である。例えば図11に示した例では、管状体内表面を送入方向に見た際の3時の方向に、基準点Kが設定されている。この基準点Kは、管軸方向の各位置で撮像された管内表面画像の間で互いに同一の位置となるように選択される。   Here, the coordinate conversion unit 215 described above is virtually set on the surface of the tubular body when performing conversion of the coordinate system in order to simplify the process of specifying the shielding area as described in detail below. It is preferable to perform conversion processing on the basis of the set reference point. The position of the reference point to be set on the surface of the tubular body is not particularly limited, and can be set to any position. For example, in the example shown in FIG. 11, the reference point K is set in the 3 o'clock direction when the tubular body surface is viewed in the delivery direction. The reference points K are selected so as to be at the same position among the in-pipe surface images captured at each position in the tube axis direction.

なお、送入時の管内表面画像上で基準点Kの座標が特定された場合、送出時の管内表面画像における基準点Kの位置は、送入時における基準点Kの座標を所定の角度回転させることで特定することができる。すなわち、送出時において、時計方向を正方向とした場合に管状体撮像装置100が+X度回転される場合には、送入時における基準点Kの位置を−X度回転させることで、送出時における基準点Kの位置を特定することができる。   When the coordinates of the reference point K are specified on the inside surface image of the pipe at the time of delivery, the position of the reference point K in the inside surface image of the pipe at the delivery rotates the coordinates of the reference point K at the time of delivery by a predetermined angle. It can be identified by That is, when the tubular body imaging device 100 is rotated by + X degrees when the clockwise direction is set as the positive direction at the time of delivery, the position of the reference point K at the time of delivery is rotated by -X degrees. It is possible to specify the position of the reference point K at.

図12は、送入時及び送出時に管状体撮像装置100によって撮像される管内表面画像を模式的に図示したものである。図12に示した例の場合、管状体撮像装置100は、時計方向に45度回転された後に送出時の管内表面画像が生成される。ここで、管状体撮像装置100の環状レーザ光源101、円錐状照明光源107及びエリアカメラ113は一体に形成されているため、管状体撮像装置100の回転にあわせてエリアカメラ113も回転することとなる。従って、図12に示した管内表面画像では、基準点Kは反時計方向に45度回転する。   FIG. 12 schematically shows an inner surface image of a tube taken by the tubular body imaging device 100 at the time of delivery and at the time of delivery. In the case of the example shown in FIG. 12, the tubular body imaging device 100 is rotated by 45 degrees in the clockwise direction, and then the in-pipe surface image at the time of delivery is generated. Here, since the annular laser light source 101, the conical illumination light source 107, and the area camera 113 of the tubular body imaging device 100 are integrally formed, the area camera 113 also rotates according to the rotation of the tubular body imaging device 100. Become. Therefore, in the in-pipe surface image shown in FIG. 12, the reference point K rotates 45 degrees in the counterclockwise direction.

このような遮蔽領域のために、本実施形態に係る光切断線処理部219は、上記のような処理に加えて、以下で詳述する遮蔽領域の特定処理を実施することが好ましい。以下、図13〜図16を参照しながら、光切断線処理部219によって実施される遮蔽領域特定処理について、詳細に説明する。すなわち、本実施形態に係る光切断線処理部219は、遮蔽領域特定部としての機能を併せ持っている。   For such a shielded area, it is preferable that the light cutting line processing unit 219 according to the present embodiment performs a process for specifying the shielded area described in detail below, in addition to the process described above. Hereinafter, the shielding area identification process performed by the light cutting line processing unit 219 will be described in detail with reference to FIGS. 13 to 16. That is, the light cutting line processing unit 219 according to the present embodiment also has a function as a shielding area specifying unit.

光切断画像フレーム生成部217により生成される送入時及び送出時の光切断画像フレームには、図13及び図14に示したように、管状体撮像装置100に設けられた連結部材117の本数に応じて、遮蔽領域が存在することとなる。また、各光切断画像フレームの周方向の原点は、座標変換部215により共通した基準点Kを起点として座標変換が実施されているため、図13及び図14に示したように、互いに等しく基準点Kとなる。   As shown in FIGS. 13 and 14, the number of connecting members 117 provided in the tubular imaging device 100 in the light-cut image frames generated by the light-cut image frame generation unit 217 at the time of delivery and at the time of delivery. Depending on the situation, there will be a shielded area. Further, since the coordinate transformation is carried out with respect to the origin in the circumferential direction of each light-cut image frame with reference point K shared by coordinate transformation unit 215 as the origin, as shown in FIG. 13 and FIG. It becomes point K.

ここで、連結部材117による遮蔽領域では、エリアカメラ113によって環状レーザ光及び円錐状照明光の反射光が撮像されないため、図15に模式的に示したように、所定の閾値Thよりも輝度の大きい輝線は存在しない。従って、上記光切断線特徴量の算出過程において、遮蔽領域では輝線の画素数についての光切断線特徴量pj,mがゼロとなる。 Here, since the reflected light of the annular laser light and the conical illumination light is not imaged by the area camera 113 in the shielded area by the connecting member 117, as schematically shown in FIG. 15, the luminance is higher than the predetermined threshold Th. There is no big bright line. Therefore, in the process of calculating the light cutting line feature amount, the light cutting line feature amount p j, m for the number of pixels of the bright line becomes zero in the shielding region.

そこで、本実施形態に係る光切断線処理部219は、それぞれの周方向(X方向)位置における輝線の画素数に着目して、遮蔽領域の範囲を示す周方向座標(X座標)を特定する。以下では、光切断画像フレーム画像において、左から1番目に存在する遮蔽領域の開始位置Xs1s及び終了位置Xs1eを算出する場合を例にとって、説明を行うものとする。 Therefore, the light cutting line processing unit 219 according to the present embodiment identifies circumferential direction coordinates (X coordinates) indicating the range of the shielding area, focusing on the number of pixels of the bright line at each circumferential direction (X direction) position. . In the following, the optical section image frame image, taking the case of calculating the starting position X S1S and the end position X S1e shielding region present in the first from the left, it will be referred to.

光切断線処理部219は、送入時の光切断画像フレームを構成するN本の光切断線それぞれについて、遮蔽領域が開始するX座標の位置Xs1js、及び、遮蔽領域が終了するX座標の位置Xs1je(j=1〜N)を特定する。その上で、管状体撮像装置100に生じた振動の影響等で、遮蔽領域の開始位置及び終了位置にズレが生じる場合を考慮して、特定されたN個の遮蔽領域開始位置Xs1jsのうちの最小値をXs1sとするとともに、遮蔽領域終了位置Xs1jeの最大値をXs1eとする。 The light cutting line processing unit 219 sets the position X s1 js of the X coordinate at which the shielding area starts and the X coordinate at which the shielding area ends for each of the N light cutting lines constituting the light cutting image frame at the time of transmission. The position X s1je (j = 1 to N) is identified. Then, in consideration of the case where the start position and the end position of the shielding area are shifted due to the influence of the vibration generated in the tubular body imaging device 100, etc., among the N shielding area starting positions Xs1js specified the minimum value with the X S1S of the maximum value of the shielded area end position X S1je and X S1e.

また、jライン目における左から1番目の遮蔽領域の開始位置Xs1js及び終了位置Xs1jeは、以下のようにして特定することができる。以下、遮蔽領域の開始位置Xs1js及び終了位置Xs1jeの特定方法を、図16を参照しながら具体的に説明する。 The start position X s1 js and the end position X s1 je of the first shielding region from the left in the j-th line can be specified as follows. Hereinafter, a method of specifying the start position X s1 js and the end position X s1 je of the shielding area will be specifically described with reference to FIG.

光切断線処理部219は、jライン目の光切断線の各X座標において、輝線の画素数pj,m(m=1〜M)に着目する。その上で、光切断線処理部219は、各X位置における輝線の画素数pj,mについて、pj,m=0となるX位置が出現するかを判断していく。pj,m=0となったX位置が存在した場合、光切断線処理部261は、その座標Xを記憶するとともに、それ以降のX座標についてpj,m=0である状態の連続数をカウントしていく。ここで、図16に模式的に示したように、pj,m=0である状態の連続数が、所定の閾値TH(例えば、TH=10等)以上となった場合、光切断線処理部219は、記憶しておいたX座標Xを、jライン目における左から1番目の遮蔽領域の開始位置Xs1jsとして特定する。 The light cutting line processing unit 219 focuses on the number of pixels p j, m (m = 1 to M) of the bright line at each X coordinate of the light cutting line at the j-th line. Then, the light cutting line processing unit 219 determines whether an X position where p j, m = 0 appears for the number p j, m of pixels of the bright line at each X position. When there is an X position where p j, m = 0, the light cutting line processing unit 261 stores the coordinate X m and continues the state in which p j, m = 0 for the subsequent X coordinate Count the numbers. Here, as schematically shown in FIG. 16, when the number of consecutive states in which p j, m = 0 becomes equal to or more than a predetermined threshold TH s (for example, TH s = 10 etc.), the light cutting is performed. The line processing unit 219 specifies the stored X coordinate X m as the start position X s1 js of the first shielding area from the left in the j-th line.

また、遮蔽領域の開始位置Xs1jsが特定された状態の中で、X方向に輝線の画素数を探索していくうちに、pj,m≠0となるX座標Xが出現したとする。この場合、光切断線処理部219は、その座標Xを記憶するとともに、それ以降のX座標についてpj,m≠0である状態の連続数をカウントしていく。ここで、図23に模式的に示したように、pj,m≠0である状態の連続数が、所定の閾値TH(例えば、TH=10等)以上となった場合、光切断線処理部219は、記憶しておいたX座標Xの一つ手前のX位置を、jライン目における左から1番目の遮蔽領域の終了位置Xs1jeとして特定する。ここで、上記閾値THは、連続数判定用の第3の閾値、及び、連続数判定用の第4の閾値の一例であり、第3の閾値と第4の閾値とが同一の値である場合に相当する。なお、上記説明では、遮蔽領域の開始位置を特定するために用いられる閾値THと、遮蔽領域の終了位置を特定するために用いられる閾値THとが同一の値である場合について示したが、これら2つの閾値は互いに異なる値であってもよい。 Further, it is assumed that, while searching for the number of pixels of the bright line in the X direction, an X coordinate X n such that p j, m遮蔽 0 appears in a state where the start position X s1 js of the shielding area is specified. . In this case, the light cutting line processing unit 219 stores the coordinate X n and counts the number of consecutive states in which p j, m ≠ 0 with respect to the subsequent X coordinate. Here, as schematically shown in FIG. 23, when the number of consecutive states in which p j, m ≠ 0 becomes equal to or more than a predetermined threshold value TH s (for example, TH s = 10 etc.), the light cutting is performed. The line processing unit 219 specifies the X position one position before the stored X coordinate X n as the end position X s1 je of the first shielding area from the left in the j-th line. Here, the threshold value TH s is an example of a third threshold value for determining the number of continuous lines and an example of a fourth threshold value for determining the number of continuous lines, and the third threshold value and the fourth threshold value are the same value. It corresponds to a case. In the above description has shown the case with the threshold value TH s used to identify the start position of the shielding region, and the threshold value TH s used to identify an end position of the shielding region is the same value These two thresholds may be different from each other.

また、遮蔽領域の開始位置Xs1s及び終了位置Xs1eを決定する別の方法として以下のようにしてもよい。
jライン目の光切断線の各X座標において、座標位置を移動させながら、輝線の画素数pj,m(m=1〜M)の所定の左右k個分(例えば、k=3等)の平均値qj,m(m=1〜M)を順次求める(移動平均処理)。次に、求めた平均値qj,mが予め設定した閾値A(例えばA=0.5等)未満となるX座標位置を遮蔽領域の開始位置Xs1sとする。また、遮蔽領域の開始位置Xs1sが特定されており、かつ、求めた平均値qj,mが予め設定した閾値A以上となるX座標位置を遮蔽領域の終了位置Xs1eとする。なお、上記閾値Aは、移動平均判定用の第5の閾値の一例である。
It may also be as follows Another way to determine the starting position X S1S and the end position X S1e shielding region.
In each X coordinate of the light cutting line of the j-th line, while moving the coordinate position, k pieces (for example, k = 3 etc.) of predetermined left and right pixels of the number p j, m (m = 1 to M) of pixels of the bright line The average value q j, m (m = 1 to M) of the above is sequentially obtained (moving average processing). Next, an X-coordinate position at which the calculated average value q j, m is less than a preset threshold A (for example, A = 0.5 or the like) is set as the start position Xs1s of the shielding area. Further, an X coordinate position at which the start position X s1 s of the shielding area is specified and the calculated average value q j, m is equal to or larger than the preset threshold A is taken as the end position X s1 e of the shielding area. The threshold A is an example of a fifth threshold for moving average determination.

以上のような処理をj=1〜Nの各光切断線に対して実施することで、光切断線処理部219は、左から1番目の遮蔽領域の開始位置Xs1s及び終了位置Xs1eを決定することができる。また、左から2番目以降の遮蔽領域についても、同様の処理を行うことで、遮蔽領域の開始位置や終了位置を決定することができる。 By performing the aforementioned processing for each light section lines j = 1 to N, the light section line processor 219, the starting position X S1S and the end position X S1e of the first shielding area from the left It can be decided. Moreover, the start position and the end position of the shielding area can be determined by performing the same processing for the second and subsequent shielding areas from the left.

なお、光切断線処理部219は、遮蔽領域における光切断線の変位量についての光切断線特徴量Δdj,m、及び、遮蔽領域における輝度の総和についての光切断線特徴量Kj,mは、それぞれゼロとして取り扱う。 Note that the light cutting line processing unit 219 sets the light cutting line feature amount Δd j, m for the displacement amount of the light cutting line in the shielding region and the light cutting line feature amount K j, m for the sum of the luminance in the shielding region. Each is treated as zero.

従って、例えば左から1番目の遮蔽領域について、輝線の画素数pj,mの二次元配列、輝線の輝度の総和Kj,mの二次元配列、及び、輝線の変位量Δdj,mの二次元配列は、それぞれ以下のようになる。 Therefore, for example, for the first shielding region from the left , a two-dimensional array of the number p j, m of pixels of the bright line , a two-dimensional array of the sum K j, m of luminance of the bright line, and a displacement amount Δd j, m of the bright line Each two-dimensional array is as follows.

j,m=0(j=1〜N,m=Xs1s,・・・,Xs1e
j,m=0(j=1〜N,m=Xs1s,・・・,Xs1e
Δdj,m=0(j=1〜N,m=Xs1s,・・・,Xs1e
p j, m = 0 (j = 1 to N, m = X s1 s ,..., X s1 e )
K j, m = 0 (j = 1 to N, m = X s1s ,..., X s1e )
Δd j, m = 0 (j = 1 to N, m = X s1 s ,..., X s1 e )

光切断線処理部219は、例えば図13に示したような、4本の連結部材117が映りこんだ送入時の光切断画像フレームに対して、以上のような処理を実施することで、4カ所の遮蔽領域それぞれの開始位置及び終了位置を特定することができる。   The light cutting line processing unit 219 performs the above-described processing on the light-cut image frame at the time of feeding in which the four connection members 117 are captured, as illustrated in FIG. 13, for example. The start position and the end position of each of the four shielding areas can be identified.

また、光切断線処理部219は、図14に例示した送出時の光切断画像フレームについても、光切断線特徴量を算出する。しかしながら、送出時の光切断画像フレームについては、遮蔽領域の開始位置及び終了位置を特定しなくともよい。ここで、送出時の光切断画像フレームについて輝線の画素数pj,m=0であるX位置が出現すると、光切断線処理部219は、対応するX位置の輝度の総和Kj,m、及び、輝線の変位量Δdj,mをゼロとして取り扱う。 The light cutting line processing unit 219 also calculates the light cutting line feature amount for the light cutting image frame at the time of delivery illustrated in FIG. 14. However, for the light-cut image frame at the time of delivery, the start position and the end position of the shielding area may not be specified. Here, when the X position where the pixel number p j, m = 0 of the bright line appears in the light-cut image frame at the time of transmission, the light section processing unit 219 calculates the total sum K j, m of the luminance at the corresponding X position, And, the displacement amount Δd j, m of the bright line is treated as zero.

光切断線処理部219は、以上のようにして算出した光切断線特徴量のうち、光切断線の変位量Δdに関する特徴量を、後述する深さ画像算出部221に出力する。また、光切断線処理部219は、算出した光切断線特徴量のうち、輝度の総和K、及び、輝線の画素数pに関する特徴量を、後述する乱反射画像算出部223に出力する。更に、光切断線処理部219は、送入時の光切断画像フレームに存在する各遮蔽領域の開始位置及び終了位置を示した情報(例えば図13におけるXs1s〜Xs4eを示した情報)を、後述する画像補間部227に出力する。 The light cutting line processing unit 219 outputs, to the depth image calculating unit 221 to be described later, a feature amount related to the displacement amount Δd of the light cutting line among the light cutting line feature amounts calculated as described above. Further, the light cutting line processing unit 219 outputs the sum K of the luminance and the feature amount related to the number p of pixels of the bright line among the calculated light cutting line feature amounts to the diffuse reflection image calculating unit 223 described later. Furthermore, the light sectioning line processing unit 219 may use information (for example, information representing Xs1s to Xs4e in FIG. 13) indicating the start position and the end position of each shielding area present in the light section image frame at the time of transmission. , And output to an image interpolation unit 227 described later.

深さ画像算出部221は、例えば、CPU、ROM、RAM等により実現される。深さ画像算出部221は、光切断線処理部219が生成した、送入時及び送出時における光切断線特徴量(特に、変位量Δdに関する特徴量)に基づいて、管状体の内表面の凹凸状態を表す2種類の深さ画像をそれぞれ算出する。   The depth image calculation unit 221 is realized by, for example, a CPU, a ROM, a RAM, and the like. The depth image calculation unit 221 is configured to generate the light cutting line feature amount (in particular, the feature amount related to the displacement amount Δd) at the time of delivery and at the time of delivery, which the light cutting line processing unit 219 generates. Two types of depth images representing the uneven state are respectively calculated.

具体的には、深さ画像算出部221は、図9Aに示したような変位量Δdに関する特徴量(二次元配列)と、環状ビームの垂直成分入射角(図2A及び図2Bにおける角度θ)と、を利用して、深さ画像を算出する。 Specifically, the depth image calculator 221 calculates the feature amount (two-dimensional array) related to the displacement amount Δd as shown in FIG. 9A and the vertical component incident angle of the annular beam (angle θ 2 in FIGS. 2A and 2B). And) to calculate the depth image.

まず、図17を参照しながら、管状体の内表面に存在する凹凸の高さと、光切断線の変位量Δdとの関係について説明する。   First, with reference to FIG. 17, the relationship between the height of the unevenness present on the inner surface of the tubular body and the displacement amount Δd of the light cutting line will be described.

図17では、管状体1の内表面に凹みが存在した場合を模式的に示している。ここで、内表面に凹みが存在しない場合の表面位置の高さと凹みの底部の高さとの差分をΔhと表すこととする。垂直入射した環状レーザ光が表面反射をする場合に着目すると、内表面に凹みが存在しない場合には、図17の光線Aのように反射光は伝播することとなるが、内表面に凹みが存在する場合には、図17の光線Bのように反射光が伝播することとなる。光線Aと光線Bとのズレが、本実施形態において光切断線の変位量Δdとして観測されることとなる。ここで、幾何学的な位置関係から明らかなように、光切断線の変位量Δdと凹みの深さΔhとは、Δd=Δh・sinθの関係が成立する。 In FIG. 17, the case where a dent exists in the inner surface of the tubular body 1 is shown typically. Here, the difference between the height of the surface position when there is no dent on the inner surface and the height of the bottom of the dent is represented as Δh. Focusing on the case where the annular laser light vertically incident is surface-reflected, when there is no dent in the inner surface, the reflected light propagates like the light ray A in FIG. 17, but there is a dent in the inner surface. If it exists, the reflected light propagates as shown by a ray B in FIG. The deviation between the light ray A and the light ray B is observed as the displacement amount Δd of the light cutting line in the present embodiment. Here, as it is clear from the geometric positional relationship between the depth Delta] h of the recess and the displacement amount [Delta] d of the optical cutting line, the relationship of Δd = Δh · sinθ 2 is established.

なお、図17では、管状体の内表面に凹みが存在する場合について説明したが、管状体の内表面に凸部が存在する場合であっても、同様の関係が成立する。   Although FIG. 17 describes the case where the recess is present on the inner surface of the tubular body, the same relationship holds even if the protrusion is present on the inner surface of the tubular body.

深さ画像算出部221は、以上説明したような関係を利用して、光切断線処理部219が算出した送入時及び送出時における光切断線の変位量Δdに関する特徴量にそれぞれ基づき、管状体の内表面の凹凸に関する量Δhを算出する。   The depth image calculation unit 221 uses the above-described relationship to generate a tubular shape based on the feature amount related to the displacement amount Δd of the light cutting line at the time of delivery and at the time of delivery calculated by the light cutting line processing unit 219. The amount Δh of unevenness on the inner surface of the body is calculated.

ここで、深さ画像の算出に用いられる光切断線の変位量Δdは、先に説明したように光切断線の重心位置に基づいて算出されたものであり、移動幅よりも小さな値を有しうる値となっている。従って、深さ画像算出部221により算出される深さ画像は、撮像素子の画素サイズよりも細かい分解能で凹凸が再現されている画像となる。   Here, the displacement amount Δd of the light cutting line used to calculate the depth image is calculated based on the barycentric position of the light cutting line as described above, and has a value smaller than the movement width. It is a possible value. Therefore, the depth image calculated by the depth image calculation unit 221 is an image in which the unevenness is reproduced with a resolution smaller than the pixel size of the imaging device.

本実施形態で示した光切断画像フレームが、例えば撮影ピッチ0.5mmで撮像された光切断線の変位を積み上げたものであるとすると、それぞれの変位量ΔdをΔhに変換すると、幅0.5mm×高さ0.5mmの深さ画像が算出されることとなる。また、角度θ=45°であるとすると、Δd=(1/20.5)・Δhの関係が成立している。 Assuming that the light-cut image frame shown in the present embodiment is, for example, the displacement of light-cut lines imaged at a shooting pitch of 0.5 mm, if the respective displacement amounts Δd are converted to Δh, the width 0. A depth image of 5 mm × 0.5 mm in height is to be calculated. Further, assuming that the angle θ 2 = 45 °, the relationship of Δd = (1/2 0.5 ) · Δh is established.

なお、被検査体である管状体の内表面の形状の変化や、カメラ走査方向軸が管状体の中心からずれることにより、図18に示したように、光切断線に湾曲等の歪みが生じる場合がある。他方、本実施形態に係る欠陥検出方法では、光切断線に重畳している凹凸が、管状体の内表面の断面形状と内表面に存在する表面欠陥に関する情報となっている。そのため、深さ画像算出部221は、光切断線の変位量Δdに基づいて深さ画像を算出する際に、光切断線毎に歪み補正処理を行って、光切断線に重畳している凹凸に関する情報のみを抽出してもよい。このような歪み補正処理を実施することにより、カメラ走査方向軸が管状体の中心軸に正確に一致していない場合や、内表面の形状が円でない場合であっても、内表面に存在する凹凸疵の情報のみを得ることが可能となる。   Note that, as shown in FIG. 18, distortion such as bending occurs in the light cutting line due to the change of the shape of the inner surface of the tubular body which is the inspection object and the camera scanning direction axis shifting from the center of the tubular body. There is a case. On the other hand, in the defect detection method according to the present embodiment, the concavities and convexities overlapping the light cutting line are information on the cross-sectional shape of the inner surface of the tubular body and the surface defect present on the inner surface. Therefore, when calculating the depth image based on the displacement amount Δd of the light cutting line, the depth image calculation unit 221 performs distortion correction processing for each light cutting line, and the unevenness is superimposed on the light cutting line. You may extract only information about By carrying out such distortion correction processing, the camera scanning direction axis exists on the inner surface even if it does not exactly coincide with the central axis of the tubular body or the shape of the inner surface is not a circle. It becomes possible to obtain only the information on the uneven surface.

かかる歪み補正処理の具体例として、(i)多次元関数や各種の非線形関数を利用したフィッティング処理を行い、得られたフィッティング曲線と観測された光切断線との差分演算を行う処理や、(ii)凹凸に関する情報が高周波成分であることを利用して、浮動フィルタやメディアンフィルタ等のローパスフィルタを適用する処理等を挙げることができる。このような歪み補正処理を実施することにより、内表面に存在する凹凸疵の情報を保持したまま、光切断線の平坦化を図ることが可能となる。   As a specific example of the distortion correction process, (i) a process of performing a fitting process using a multidimensional function or various non-linear functions, and performing a difference operation of the obtained fitting curve and the observed light section line, ii) Using the fact that the information on unevenness is a high frequency component, it is possible to cite a process of applying a low pass filter such as a floating filter or a median filter. By carrying out such distortion correction processing, it becomes possible to achieve the flattening of the light sectioning line while holding the information of the unevenness wrinkles present on the inner surface.

深さ画像算出部221は、以上説明したようにして算出した、送入時及び送出時の深さ画像に関する情報を、後述する画像補間部227に出力する。また、深さ画像算出部221は、算出した送入時及び送出時の深さ画像に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。更に、深さ画像算出部221は、算出した送入時及び送出時の深さ画像に関する情報を表示制御部205に出力して、表示部(図示せず。)に出力させてもよい。   The depth image calculation unit 221 outputs the information on the depth image at the time of transmission and at the time of transmission, calculated as described above, to the image interpolation unit 227 described later. Also, the depth image calculation unit 221 stores the calculated information on the depth image at the time of transmission and at the time of transmission as history information in the storage unit 207 etc. May be Furthermore, the depth image calculation unit 221 may output information on the calculated depth image at the time of transmission and at the time of transmission to the display control unit 205, and may cause the display unit (not shown) to output the information.

乱反射画像算出部223は、例えば、CPU、ROM、RAM等により実現される。乱反射画像算出部223は、光切断線処理部219が生成した送入時及び送出時の光切断線特徴量(特に、輝度の総和K及び輝線の画素数pに関する特徴量)に基づいて、管状体の内表面における環状ビームの輝度の分布を表す輝度画像を算出する。図2A及び図2Bからも明らかなように、本実施形態に係る管状体撮像装置100では、エリアカメラ113に対しては、環状レーザ光の乱反射光が結像するようになっている。従って、以上のようにして算出される輝度画像を、以下では、乱反射画像とも称することとする。   The diffuse reflection image calculation unit 223 is realized by, for example, a CPU, a ROM, a RAM, and the like. The irregular reflection image calculation unit 223 generates a tubular shape based on the light cutting line feature quantities (in particular, the total quantity of luminance K and the feature quantity related to the number p of pixels of bright lines) generated by the light cutting line processing unit 219 at the time of delivery and at delivery. A luminance image is calculated that represents the distribution of the luminance of the annular beam on the inner surface of the body. As apparent from FIGS. 2A and 2B, in the tubular body imaging device 100 according to the present embodiment, the diffusely reflected light of the annular laser light forms an image on the area camera 113. Therefore, the luminance image calculated as described above is hereinafter also referred to as a diffuse reflection image.

具体的には、乱反射画像算出部223は、図9Bに示したような、送入時及び送出時における輝度の総和Kに関する特徴量(二次元配列)、及び、図9Cに示したような、送入時及び送出時における輝線の画素数pに関する特徴量(二次元配列)をそれぞれ利用して、送入時及び送出時について、総和輝度の線幅方向の平均値である平均輝度KAVE(j,m)=Kj,m/pj,m(1≦j≦N、1≦m≦M)を算出する。その後、乱反射画像算出部225は、算出した平均輝度KAVE(j,m)からなる2種類のデータ配列を、着目している管状体の送入時及び送出時の乱反射画像とする。 Specifically, the diffuse reflection image calculation unit 223 is configured to include the feature amount (two-dimensional array) related to the total sum K of luminance at the time of transmission and at the time of transmission as shown in FIG. 9B, and as shown in FIG. The average luminance K AVE (average value of the line width direction of the total luminance at the time of transmission and at the time of transmission) using the feature quantities (two-dimensional array) regarding the number p of pixels of the bright line at the time of j, m) = Kj, m / pj, m (1 <j <N, 1 <m <M) are calculated. Thereafter, the diffuse reflection image calculation unit 225 sets two types of data arrays composed of the calculated average luminance K AVE (j, m) as diffuse reflection images at the time of delivery and delivery of the tubular body in question.

乱反射画像算出部223は、以上説明したようにして算出した送入時及び送出時の乱反射画像に関する情報を、後述する画像補間部227に出力する。また、乱反射画像算出部223は、算出した送入時及び送出時の乱反射画像に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。更に、乱反射画像算出部223は、算出した送入時及び送出時の乱反射画像に関する情報を表示制御部205に出力して、表示部(図示せず。)に出力させてもよい。   The irregular reflection image calculation unit 223 outputs the information on the irregular reflection image at the time of transmission and reception calculated as described above to the image interpolation unit 227 described later. In addition, the diffuse reflection image calculation unit 223 may store the calculated information on the diffuse reflection image at the time of transmission and at the time of transmission as the history information in the storage unit 207 or the like in association with the time information on the date and time etc. Good. Furthermore, the diffuse reflection image calculation unit 223 may output the calculated information on the diffuse reflection image at the time of transmission and reception to the display control unit 205 and output the information to the display unit (not shown).

正反射画像生成部225は、例えば、CPU、ROM、RAM等により実現される。正反射画像算出部225は、記憶部207等に設けられた画像メモリから、管状体の軸方向に沿って格納された正反射展開画像を順に取得する。この際、光切断画像フレーム生成部217によって光切断画像がdライン分配列される間に対応する正反射展開画像は、先だって言及したように、1ライン目の光切断画像と同時に撮像された正反射展開画像1枚分で対応することが可能である。そこで、正反射画像算出部225は、dラインごとに正反射展開画像を取得して、取得した各正反射展開画像を管状体の軸方向に沿って順に配列し、図8Cに模式的に示したような正反射画像を、送入時と送出時のそれぞれについて生成する。   The specular reflection image generation unit 225 is realized by, for example, a CPU, a ROM, a RAM, and the like. The specular reflection image calculation unit 225 sequentially acquires specular reflection developed images stored along the axial direction of the tubular body from an image memory provided in the storage unit 207 or the like. At this time, the regular reflection developed image corresponding to the d-line arrangement of the light-cut image by the light-cut image frame generation unit 217 is a positive-cut image taken simultaneously with the light-cut image of the first line as mentioned earlier. It is possible to cope with one reflection developed image. Therefore, the specular reflection image calculation unit 225 acquires a specular reflection developed image for each d line, arranges each acquired specular reflection developed image in order along the axial direction of the tubular body, and is schematically shown in FIG. 8C. A regular specular image is generated for each of the infeed and outfeed.

正反射画像生成部225は、以上のようにして正反射画像を生成すると、生成した正反射画像を、後述する画像補間部227に出力する。また、正反射画像生成部225は、生成した正反射画像に対応するデータに、当該正反射画像を生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。   After generating the regular reflection image as described above, the regular reflection image generation unit 225 outputs the generated regular reflection image to an image interpolation unit 227 described later. In addition, the regular reflection image generation unit 225 may store the data corresponding to the generated regular reflection image in the storage unit 207 or the like as history information by associating time information regarding the date and time when the regular reflection image is generated. .

画像補間部227は、例えば、CPU、ROM、RAM等により実現される。画像補完部227は、深さ画像算出部221が算出した送入時及び送出時の深さ画像を利用して、深さ画像において遮蔽領域に対応する部分の補間処理を実施する。また、画像補間部227は、乱反射画像算出部223が算出した送入時及び送出時の乱反射画像を利用して、乱反射画像において遮蔽領域に対応する部分の補間処理を実施する。更に、画像補間部227は、正反射画像生成部225が算出した送入時及び送出時の正反射画像を利用して、正反射画像において遮蔽領域に対応する部分の補間処理を実施する。   The image interpolation unit 227 is realized by, for example, a CPU, a ROM, a RAM, and the like. The image complementation unit 227 performs interpolation processing of a portion corresponding to the shielding area in the depth image using the depth image at the time of transmission and reception calculated by the depth image calculation unit 221. Further, the image interpolation unit 227 performs interpolation processing of a portion corresponding to the shielding area in the diffuse reflection image by using the diffuse reflection images at the time of transmission and reception calculated by the diffuse reflection image calculation unit 223. Furthermore, the image interpolation unit 227 performs interpolation processing of a portion corresponding to the shielding area in the regular reflection image, using the regular reflection images at the time of transmission and at the time of transmission calculated by the regular reflection image generation unit 225.

深さ画像算出部221、乱反射画像生成部223及び正反射画像生成部225がそれぞれ算出した送入時及び送出時の画像において、連結部材117による遮蔽領域に該当する部分は、画素値の変化が存在しない部分となっており、この部分からは管状体の内表面の状態に関する正確な知見を得ることができない。そこで、画像補間部227は、送入時及び送出時の画像を利用して、遮蔽領域に対応する深さ情報及び輝度情報を補間する処理を実施する。   In the images at the time of transmission and at the time of transmission calculated by the depth image calculation unit 221, the irregular reflection image generation unit 223, and the regular reflection image generation unit 225, changes in pixel value occur in the portions corresponding to the shielded area by the connection member 117. It is a part that does not exist, and it is not possible to obtain an accurate knowledge of the state of the inner surface of the tubular body from this part. Therefore, the image interpolation unit 227 performs processing of interpolating the depth information and the luminance information corresponding to the shielded area by using the images at the time of transmission and the time of transmission.

以下では、図19を参照しながら、送入時の画像(送入時深さ画像や送入時乱反射画像)において左から1番目に存在する遮蔽領域に対応する部分の補間処理について、具体的に説明する。   Hereinafter, with reference to FIG. 19, the interpolation processing of a portion corresponding to the shielding region which is present first from the left in the image at the time of transmission (depth image at transmission and irregular reflection image at transmission) will be concretely described. Explain to.

本実施形態に係る管状体撮像装置100では、送入時の管内表面画像を撮像する状態から送出時の管内表面画像を撮像する状態へと切り替わる際に、管状体撮像装置100の全体が所定の角度だけ回転する。また、管状体撮像装置100では、各照明光の照射領域が遮蔽領域よりも広くなるように、連結部材117の太さや配置位置が決定されている。   In the tubular body imaging device 100 according to the present embodiment, the entire tubular body imaging device 100 is a predetermined one when switching from a state in which the in-pipe surface image at delivery is taken to a state in which the in-pipe surface image at delivery is picked up. Rotate by an angle. Further, in the tubular body imaging device 100, the thickness and the arrangement position of the connecting member 117 are determined such that the irradiation area of each illumination light is wider than the shielding area.

以上のような設定のために、本実施形態に係る欠陥検出装置10では、図13及び図14の光切断画像フレームに示したように、送入時と送出時とでフレーム内での遮蔽領域の位置が変化することとなる。また、図14から明らかなように、各照明光の照射領域が遮蔽領域よりも広いため、一方の光切断画像フレーム(例えば送入時の光切断画像フレーム)における遮蔽領域は、他方の光切断画像フレーム(例えば、送出時の光切断画像フレーム)における非遮蔽領域に包含されることとなる。   For the setting as described above, in the defect detection apparatus 10 according to the present embodiment, as shown in the light-cut image frame of FIG. 13 and FIG. The position of will change. Further, as is clear from FIG. 14, since the irradiation area of each illumination light is wider than the shielding area, the shielding area in one light cut image frame (for example, the light cut image frame at the time of delivery) is the other light cut. It will be included in the unshielded area in the image frame (e.g. light cut image frame at the time of delivery).

そこで、本実施形態に係る画像補間部227は、例えば図19に示したように、送出時画像を利用して、送入時の画像の遮蔽領域を補間して、遮蔽領域に対応する部分が存在しない画像(深さ画像、乱反射画像及び正反射画像)を生成する。   Therefore, as shown in, for example, FIG. 19, the image interpolation unit 227 according to the present embodiment interpolates the shielded area of the image at the time of transmission using the image at the time of transmission, and a portion corresponding to the shielded area Generate non-existent images (depth image, diffuse image and specular image).

図19では、左から1番目に存在する遮蔽領域を補間する処理について、模式的に図示している。
送入時の画像における遮蔽領域の開始位置Xs1s及び終了位置Xs1eは、光切断線処理部219により特定され、画像補間部227に通知されている。そこで、画像補間部227は、送出時の画像を参照して、送入時の画像の遮蔽領域に対応する部分(Xs1s〜Xs1e)の情報(深さ情報や輝度情報)を取得し、送入時の画像の遮蔽領域に対応する部分に、取得した情報を代入する。
FIG. 19 schematically illustrates the process of interpolating the first shielding area present from the left.
Feeding start position X S1S and the end position X S1e of the shielding area in an image of Nyutoki is identified by the light section line unit 219 is notified to the image interpolation unit 227. Therefore, the image interpolation unit 227 refers to the image at the time of delivery, and acquires information (depth information and luminance information) of a portion (X s1 s to X s1 e ) corresponding to the shielded area of the image at the time of delivery. The acquired information is substituted for the part corresponding to the shielded area of the image at the time of delivery.

ここで、管状体撮像装置100の動作からも明らかなように、送入時の光切断画像フレームにおけるN本目の光切断線と、送出時の光切断画像フレームにおける1本目の光切断線とが、同一の管軸方向位置に対応している。そこで、画像補間部227は、送入時の画像の1ライン目に対応する情報を補間する場合には、送出時の画像のNライン目に対応する画像を利用して、補間処理を実施する。同様に、画像補間部227は、送入時の画像のjライン目に対応する情報を補間する場合には、送出時の画像の(N+1−j)ライン目に対応する画像を利用して補間処理を実施する。   Here, as is clear from the operation of the tubular body imaging device 100, the Nth light cutting line in the light cutting image frame at the time of delivery and the first light cutting line in the light cutting image frame at the time of delivery are , Corresponds to the same tube axial position. Therefore, when interpolating the information corresponding to the first line of the image at the time of transmission, the image interpolation unit 227 performs the interpolation process using the image corresponding to the Nth line of the image at the time of transmission. . Similarly, when interpolating the information corresponding to the j-th line of the image at the time of transmission, the image interpolation unit 227 performs interpolation using the image corresponding to the (N + 1-j) -th line of the image at the time of transmission. Perform the process.

画像補間部227は、このような補間処理を、深さ画像及び乱反射画像の1ライン目〜Nライン目に対応する部分に対して実施することで、送入時の画像において左から1番目に存在する遮蔽領域の情報を補間することができる。   The image interpolation unit 227 performs such interpolation processing on portions corresponding to the first line to the Nth line of the depth image and the diffuse reflection image, thereby making the first image from the left in the image at the time of transmission. It is possible to interpolate the information of the existing shielding area.

また、画像補間部227は、同様の補完処理を、左から2番目以降に存在する遮蔽領域に対応する部分にも適用することによって、送入時の画像に存在する全ての遮蔽領域に対応する部分の情報を補間することができる。   In addition, the image interpolation unit 227 applies the same complementing process to the part corresponding to the shielding area existing from the left onwards to correspond to all the shielding areas existing in the image at the time of transmission. It is possible to interpolate part information.

画像補間部227は、以上説明したような補間処理により、遮蔽領域に対応する部分の情報を補間すると、補間後の深さ画像及び乱反射画像に関する情報を、後述する欠陥検出部229に出力する。   When the image interpolation unit 227 interpolates the information of the portion corresponding to the shielded area by the interpolation processing as described above, the image interpolation unit 227 outputs information on the depth image and the irregular reflection image after interpolation to the defect detection unit 229 described later.

また、正反射画像についても、深さ画像や乱反射画像と同様な遮蔽領域が存在している。一方で、正反射画像における遮蔽領域の位置は、深さ画像や乱反射画像における遮蔽領域の位置と同じと考えられる。そこで、画像補間部227は、光切断線処理部219から出力された送入時の光切断画像フレームに存在する各遮蔽領域の開始位置及び終了位置を示した情報と、生成された送入時及び送出時の正反射画像と、を利用して、深さ画像や乱射画像と同様にして、正反射画像の補間処理を実施する。   In addition, as for the regular reflection image, a shielding area similar to the depth image and the diffuse reflection image exists. On the other hand, the position of the shielding area in the specular reflection image is considered to be the same as the position of the shielding area in the depth image or the diffuse reflection image. Therefore, the image interpolation unit 227 outputs information indicating the start position and the end position of each shielding area present in the light-cut image frame at the time of transmission output from the light-cut line processing unit 219, and at the time of generated transmission And, using the regular reflection image at the time of transmission, interpolation processing of the regular reflection image is performed in the same manner as the depth image and the diffuse image.

画像補間部227は、このような補間処理により、遮蔽領域に対応する部分の輝度情報を補間すると、補間後の正反射画像に関する情報を、後述する欠陥検出部229に出力する。   When the image interpolation unit 227 interpolates the luminance information of the portion corresponding to the shielded area by such interpolation processing, the image interpolation unit 227 outputs information on the regular reflection image after interpolation to the defect detection unit 229 described later.

また、画像補間部227は、補間後の深さ画像、乱反射画像及び正反射画像に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。更に、画像補間部227は、補間後の深さ画像、乱反射画像及び正反射画像に関する情報を表示制御部205に出力して、表示部(図示せず。)に出力させてもよい。   Further, the image interpolation unit 227 stores the information on the depth image after interpolation, the irregular reflection image, and the regular reflection image in the storage unit 207 or the like as history information in association with time information on the date and time when the information is calculated. It is also good. Furthermore, the image interpolation unit 227 may output information on the depth image after interpolation, the irregular reflection image, and the regular reflection image to the display control unit 205 and output the information to the display unit (not shown).

欠陥検出部229は、例えば、CPU、ROM、RAM等により実現される。欠陥検出部229は、補間処理後の正反射画像、乱反射画像及び深さ画像に基づいて、管状体の内表面に存在する凹凸疵及び凹凸無い有害疵を、無害の汚れ等と区別しながら検出する。
以下では、かかる欠陥検出部229の構成について、図20を参照しながら、簡単に説明する。
The defect detection unit 229 is realized by, for example, a CPU, a ROM, a RAM, and the like. The defect detection unit 229 detects the uneven wrinkles and the uneven wrinkles existing on the inner surface of the tubular body from the harmless dirt and the like based on the regular reflection image, the irregular reflection image and the depth image after the interpolation process, Do.
Hereinafter, the configuration of the defect detection unit 229 will be briefly described with reference to FIG.

本実施形態に係る欠陥検出部229は、図20に示したように、二値化部241と、ラベリング部243と、特徴量抽出部245と、判定部247と、を有する。   The defect detection unit 229 according to the present embodiment includes a binarization unit 241, a labeling unit 243, a feature quantity extraction unit 245, and a determination unit 247 as shown in FIG.

二値化部241は、CPU、ROM、RAM等により実現される。二値化部241は、生成された正反射画像、乱反射画像及び深さ画像を参照し、これらのデータ群を、それぞれの画像に対して設定された所定の閾値(二値化閾値)に基づいて二値化する。二値化処理に利用する二値化閾値については、特に限定されるものではなく、過去の操業データ等を解析することで適宜決定することが可能である。   The binarizing unit 241 is realized by a CPU, a ROM, a RAM, and the like. The binarization unit 241 refers to the generated regular reflection image, the irregular reflection image, and the depth image, and sets these data groups based on the predetermined threshold (binarization threshold) set for each image. And binarize. The binarization threshold value used for the binarization process is not particularly limited, and can be appropriately determined by analyzing past operation data and the like.

二値化部241は、上記のような3種類の画像データ群の二値化データを生成すると、生成した二値化データを後述するラベリング部243に出力する。   When the binarization unit 241 generates binarized data of the above-described three types of image data groups, the binarization unit 241 outputs the generated binarized data to the labeling unit 243 described later.

ラベリング部243は、例えば、CPU、ROM、RAM等により実現される。ラベリング部243は、二値化部241から出力された3種類の二値化データをそれぞれ参照し、周知の画像処理技術を用いて、表面欠陥の候補領域を3種類の二値化データのそれぞれから抽出する。この表面欠陥の候補領域は、二値化部241から出力された二値化データのうち、画素値(データ値)が「1」となっている部分に対応する。また、ラベリング部243は、表面欠陥の候補領域を抽出するに際して、フィルタ処理、エッジ抽出やエッジ追跡等といった公知の画像処理技術を組み合わせることも可能である。   The labeling unit 243 is realized by, for example, a CPU, a ROM, a RAM, and the like. The labeling unit 243 refers to each of the three types of binarized data output from the binarization unit 241, and uses a well-known image processing technique to select surface defect candidate regions for each of the three types of binarized data. Extract from The candidate region of the surface defect corresponds to a portion of the binarized data output from the binarizing unit 241, in which the pixel value (data value) is "1". The labeling unit 243 can also combine known image processing techniques such as filter processing, edge extraction, edge tracking and the like when extracting candidate regions of surface defects.

次に、ラベリング部243は、画素値が「1」である部分が連続している領域のそれぞれに対して、領域内では同一のラベル番号であり、かつ、他の領域と重複しないラベル番号を順に付与していく。これにより、抽出された表面欠陥の候補領域に対して、これら候補領域を識別するための識別情報が付与されることとなる。   Next, the labeling unit 243 assigns label numbers which are the same as label numbers in the area and do not overlap other areas with respect to each of the areas in which the portion where the pixel value is “1” is continuous. We will give in order. As a result, identification information for identifying these candidate areas is provided to the extracted candidate area of surface defect.

特徴量抽出部245は、例えば、CPU、ROM、RAM等により実現される。特徴量抽出部245は、ラベリング部243により抽出された3種類の二値化画像における各候補領域について、幅、長さ、面積(大きさ)、円形度、直線度、矩形度、明るさ、コントラスト、エッジ強度等といった、表面欠陥を特徴づける公知の特徴量を抽出する。特徴量抽出部245は、ラベリング部243により抽出された3種類の二値化画像における各候補領域について特徴量を抽出すると、抽出した特徴量を、候補領域のラベル番号に関連付けた上で、判定部247に出力する。   The feature amount extraction unit 245 is realized by, for example, a CPU, a ROM, a RAM, and the like. The feature amount extraction unit 245 determines the width, length, area (size), circularity, straightness, rectangularity, brightness, and the like of each candidate region in the three types of binarized images extracted by the labeling unit 243. It extracts known feature quantities that characterize surface defects, such as contrast and edge strength. When the feature amount extraction unit 245 extracts the feature amount for each candidate region in the three types of binarized images extracted by the labeling unit 243, the feature amount extraction unit 245 determines the extracted feature amount after associating it with the label number of the candidate region. Output to the unit 247.

判定部247は、例えば、CPU、ROM、RAM等により実現される。判定部247は、予め記憶部207に格納されている、表面欠陥の種別と特徴量との対応関係を示した図21のようなデータベース等を参照して、表面欠陥の候補領域が表面欠陥に該当するか否かを判定する。この際、判定部247は、データベース等に格納されている特徴量と、特徴量抽出部245により抽出された特徴量との一致度合いに着目し、判定を行う。算出される一致度合いが所定の閾値以上であれば、判定部247は、着目している表面欠陥の候補領域には、一致度合いが所定の閾値以上となった種別の表面欠陥が存在すると判定する。また、着目している表面欠陥の候補領域が、いずれの種別の表面欠陥にも該当しない場合には、着目している表面欠陥の候補領域は、表面欠陥ではないと判定する。   The determination unit 247 is realized by, for example, a CPU, a ROM, a RAM, and the like. The determination unit 247 refers to a database or the like as shown in FIG. 21 in which the correspondence relationship between the type of surface defect and the feature amount is stored in advance in the storage unit 207, and the candidate region of the surface defect is a surface defect. Determine if applicable. At this time, the determination unit 247 performs determination by focusing on the degree of coincidence between the feature amount stored in the database or the like and the feature amount extracted by the feature amount extraction unit 245. If the calculated matching degree is equal to or higher than a predetermined threshold value, the determining unit 247 determines that there is a type of surface defect whose matching degree is equal to or higher than the predetermined threshold value in the surface defect candidate area of interest. . Further, when the candidate region of the surface defect of interest does not correspond to any type of surface defect, it is determined that the candidate region of the surface defect of interest is not a surface defect.

ここで、本実施形態に係る円錐状照明光を利用した正反射照明では、表面粗度が小さい場合(鏡面に近い場合)は正反射成分が増して輝度が高くなり、本実施形態に係る環状レーザ光を利用した乱反射照明では、表面粗度が大きい場合に散乱成分が増して輝度が高くなる。本実施形態で着目する凹凸の無い踏み付け疵は、踏みつけられた部位表面は均されて粗度が小さくなっていることから、正反射画像で輝度が高く(白く光って)観測される。一方、従来のように乱反射画像を得るだけでは、かかる踏み付け疵は若干黒く撮像されるだけであるため、汚れ等の黒く撮像される過検要因と区別出来ない。そこで、正反射画像と乱反射画像の両法を組み合わせて相補的に利用することで、以下のように3種類の表面性状を、選別して検出することが可能となる。   Here, in regular reflection illumination using conical illumination light according to the present embodiment, when the surface roughness is small (when it is close to a mirror surface), the specular reflection component is increased and the brightness is increased, and the ring according to the present embodiment In diffuse reflection illumination using a laser beam, when the surface roughness is large, the scattered component increases and the luminance becomes high. In the case of the treading rod without unevenness according to the present embodiment, since the surface of the treaded part is leveled and the roughness is small, the luminance is observed high (white light) in the regular reflection image. On the other hand, if the diffuse reflection image is merely obtained as in the prior art, such a stomp is only imaged a little black, so it can not be distinguished from the over-detection factor that is imaged black such as dirt. Therefore, by combining and using both the specular reflection image and the diffuse reflection image in a complementary manner, it becomes possible to sort and detect three types of surface properties as follows.

踏み付け疵:正反射画像では白く観測され、乱反射画像では、黒く観察されるか、変化なし
汚れ/模様:正反射画像では、黒く観察されるか、変化なし。乱反射画像では、黒く観察される。
Stump marks: observed white in regular reflection image, black observed or not changed in irregular reflection image Stain / pattern: observed black or not observed in regular reflection image. It is observed black in the diffuse reflection image.

結果として、蓋のはずれた踏み付け疵は、深さ画像から検出でき、凹凸のない蓋付踏み付け疵は、正反射画像と乱反射画像との組み合わせから検出することができる。また、乱反射画像では輝度変化がほとんど生じない微細な擦り疵等も、正反射画像で、擦り疵のエッジ部が線状に白く光って撮像されることから、同様に検出が可能となる。   As a result, it is possible to detect the flailing treads of the lid from the depth image, and the lidded treads without unevenness can be detected from the combination of the regular reflection image and the diffuse reflectance image. Further, fine rubs and the like hardly causing a change in luminance in the diffuse reflection image can also be similarly detected because the edge portion of the rub is linearly lightened and imaged in the regular reflection image.

ここで、表面欠陥の種別と特徴量との対応関係を示した、図21に示したようなデータベースの形式は、特に限定されるものではなく、例えば、表面欠陥の種別と特徴量とが項目として設定されており、欠陥の種別及び特徴量により規定されるテーブルの各セルに判別条件式が記載されたルックアップテーブルの形のロジックテーブル等を用いることもできる。このようなロジックテーブルは、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により構築されたデータベースを利用して、公知の方法により生成することが可能である。   Here, the format of the database as shown in FIG. 21 showing the correspondence between the type of surface defect and the feature amount is not particularly limited. For example, the type of the surface defect and the feature amount are items It is also possible to use a logic table or the like in the form of a look-up table in which the discrimination condition formula is described in each cell of the table defined by the type of defect and the feature amount. Such a logic table is a known method using a database constructed by a learning process in which teacher data is used to identify past operation data and the type and severity of defects identified by the inspector based on the operation data. It is possible to generate.

このような処理を行うことで、判定部247は、管状体の内表面に存在する各種の表面欠陥を検出し、検出された表面欠陥毎に欠陥の有害度を特定することが可能となる。   By performing such processing, the determination unit 247 can detect various surface defects present on the inner surface of the tubular body, and can specify the degree of harmfulness of each detected surface defect.

なお、以上の説明では、特徴量の一致度合いやロジックテーブルを利用して欠陥の種別や有害度を判別する場合について説明したが、欠陥の種別や有害度を判別する方法は上記例に限定されるわけではない。例えば、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により、ニューラルネットやサポートベクターマシン(SVM)等の判別器を生成し、かかる判別器を欠陥の種別や有害度の判別に利用してもよい。   In the above description, the case of determining the type and the harmfulness of the defect using the matching degree of the feature amount and the logic table has been described, but the method of judging the type and the harmfulness of the defect is limited to the above example It does not mean that For example, a classifier such as a neural network or a support vector machine (SVM) is generated by learning processing using teacher data as past operation data and identification results of defect types and harmfulness by a tester based on the operation data. Such a discriminator may be used to determine the type of defect or the degree of harmfulness.

判定部247は、以上のようにして管状体の内表面に存在する各種の表面欠陥を検出すると、得られた検出結果を、結果出力部231に出力する。   When the determination unit 247 detects various surface defects present on the inner surface of the tubular body as described above, the determination unit 247 outputs the obtained detection result to the result output unit 231.

結果出力部231は、例えば、CPU、ROM、RAM等により実現される。結果出力部231は、判定部247から出力された表面欠陥の検出結果に関する情報を、表示制御部205に出力する。これにより、管状体の内表面に存在する表面欠陥に関する情報が、表示部(図示せず。)に出力されることとなる。また、結果出力部231は、得られた検出結果を、製造管理用プロコン等の外部の装置に出力してもよく、得られた検出結果を利用して、製品の欠陥帳票を作成してもよい。また、結果出力部231は、表面欠陥の検出結果に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。   The result output unit 231 is realized by, for example, a CPU, a ROM, a RAM, and the like. The result output unit 231 outputs the information on the detection result of the surface defect output from the determination unit 247 to the display control unit 205. As a result, information on surface defects present on the inner surface of the tubular body is output to the display unit (not shown). In addition, the result output unit 231 may output the obtained detection result to an external device such as a manufacturing control procon, or the defect report of the product may be created using the obtained detection result. Good. In addition, the result output unit 231 may store information on the detection result of the surface defect in the storage unit 207 or the like as history information in association with time information on the date and time when the information is calculated.

以上、本実施形態に係る演算処理装置200が有する画像処理部203の構成について、詳細に説明した。   Heretofore, the configuration of the image processing unit 203 included in the arithmetic processing device 200 according to the present embodiment has been described in detail.

以上、本実施形態に係る演算処理装置200の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the arithmetic processing unit 200 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. Further, all functions of each component may be performed by a CPU or the like. Therefore, it is possible to change the configuration to be used as appropriate according to the technical level at which the present embodiment is implemented.

なお、上述のような本実施形態に係る演算処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   In addition, it is possible to create a computer program for realizing each function of the arithmetic processing unit according to the present embodiment as described above, and to install it on a personal computer or the like. In addition, a computer readable recording medium in which such a computer program is stored can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory or the like. In addition, the above computer program may be distributed via, for example, a network without using a recording medium.

(欠陥検出方法について)
続いて、図22を参照しながら、本実施形態に係る欠陥検出方法の流れを簡単に説明する。図22は、本実施形態に係る欠陥検出方法の流れの一例を示した流れ図である。
(About the defect detection method)
Subsequently, the flow of the defect detection method according to the present embodiment will be briefly described with reference to FIG. FIG. 22 is a flow chart showing an example of the flow of a defect detection method according to this embodiment.

まず、欠陥検出装置10の管状体撮像装置100は、環状レーザ光源101から照射される環状レーザ光及び円錐状照明光源107から照射される円錐状照明光を利用して、プローブの送入及びプローブの送出時に管状体の内表面を撮像して、プローブ送入時及びプローブ送出時の2種類の撮像画像(管内表面画像)を生成し、生成した2種類の管内表面画像を演算処理装置200に出力する。演算処理装置200が備える画像処理部203のA/D変換部211は、取得した2種類の撮像画像に対してA/D変換処理を行い、送入時の管内表面画像及び送出時の管内表面画像をそれぞれ生成する(ステップS101)。   First, the tubular body imaging device 100 of the defect detection device 10 transmits and receives a probe using the annular laser light emitted from the annular laser light source 101 and the conical illumination light emitted from the conical illumination light source 107. The inner surface of the tubular body is imaged at the time of delivery, and two types of captured images (in-tube surface image) at the time of probe delivery and at the time of probe delivery are generated. Output. The A / D conversion unit 211 of the image processing unit 203 included in the arithmetic processing unit 200 performs A / D conversion processing on the acquired two types of captured images, and the tube surface image at the time of delivery and the tube surface at the time of delivery Images are generated respectively (step S101).

次に、環状ビームセンター算出部213は、A/D変換部211が生成した送入時及び送出時の管内表面画像を利用して、各管内表面画像の重心位置及び半径を算出し(ステップS103)、得られた算出結果を、座標変換部215に出力する。   Next, the annular beam center calculation unit 213 calculates the barycentric position and radius of each tube inner surface image using the tube inner surface images generated by the A / D converter 211 at the time of delivery and at the time of delivery (step S103). ), And outputs the obtained calculation result to the coordinate conversion unit 215.

続いて、座標変換部215は、算出された重心位置や半径等を利用して、送入時の管内表面画像及び送出時の管内表面画像を座標変換し、光切断画像と正反射展開画像とを生成する(ステップS105)。この際、座標変換部215は、基準点Kを基準として座標変換処理を実施する。これにより、後段で生成される送入時及び送出時の光切断線画像フレーム及び正反射画像において、各光切断線の周方向の位置座標の原点を統一するとともに、光切断画像と正反射展開画像とで、周方向の位置座標の原点を統一することが可能となる。生成された光切断画像及び正反射展開画像は、管状体の軸方向に沿って、記憶部207等に設けられた画像メモリに順次格納されていく。   Subsequently, the coordinate conversion unit 215 performs coordinate conversion of the in-pipe surface image at the time of delivery and the in-pipe surface image at the time of delivery using the calculated barycentric position and radius, etc. Are generated (step S105). At this time, the coordinate conversion unit 215 performs coordinate conversion processing on the basis of the reference point K. This unifies the origin of the position coordinate of the circumferential direction of each light cutting line in the light cutting line image frame and the regular reflection image generated at the post stage and at the time of transmission and generates the light cutting image and the regular reflection development. It becomes possible to unify the origin of the position coordinate in the circumferential direction with the image. The generated light section image and the specular reflection developed image are sequentially stored in an image memory provided in the storage unit 207 or the like along the axial direction of the tubular body.

その後、光切断画像フレーム生成部217は、生成された光切断画像を管状体の軸方向に沿って順に配列して、送入時及び送出時の光切断画像フレームをそれぞれ生成する(ステップS107)。光切断画像フレーム生成部217は、生成した送入時及び送出時の光切断画像フレームを、光切断線処理部219に出力する。   Thereafter, the light-cut image frame generation unit 217 sequentially arranges the generated light-cut images along the axial direction of the tubular body to generate light-cut image frames at the time of delivery and at the time of delivery (step S107). . The light-cut image frame generation unit 217 outputs the generated light-cut image frames at the time of delivery and at the time of delivery to the light-cutting line processing unit 219.

一方、正反射画像生成部225は、生成された正反射展開画像を管状体の軸方向に沿って順に配列して、送入時及び送出時の正反射画像をそれぞれ生成する(ステップS109)。正反射画像生成部225は、生成した送入時及び送出時の正反射画像を、画像補間部227に出力する。   On the other hand, the regular reflection image generation unit 225 arranges the generated regular reflection development images in order along the axial direction of the tubular body, and generates regular reflection images at the time of delivery and at the time of delivery (step S109). The regular reflection image generation unit 225 outputs the generated regular reflection images at the time of transmission and at the time of transmission to the image interpolation unit 227.

光切断線処理部219は、生成された送入時及び送出時の光切断画像フレームを利用し、各光切断線について、閾値以上の輝度を有する画素の画素数、当該画素の輝度の総和及び光切断線の変位量を算出する(ステップS111)。これら算出結果が、光切断線特徴量として利用される。算出された光切断線特徴量は、深さ画像算出部221及び乱反射画像算出部223にそれぞれ出力される。   The light cutting line processing unit 219 uses the generated light cutting image frames at the time of transmission and at the time of transmission, and for each light cutting line, the number of pixels having a luminance equal to or greater than a threshold, the sum of the luminances of the pixels, The displacement amount of the light cutting line is calculated (step S111). These calculation results are used as light cutting line feature quantities. The calculated light section line feature amount is output to the depth image calculating unit 221 and the diffuse reflection image calculating unit 223, respectively.

また、光切断線処理部219は、上記光切断線特徴量の算出とあわせて、送入時の光切断画像フレームについて、遮蔽領域の位置(すなわち、遮蔽領域の開始位置及び終了位置)を特定する(ステップS113)。その後、光切断線処理部219は、特定した遮蔽領域の位置に関する情報を、画像補間部227に出力する。   In addition, the light cutting line processing unit 219 specifies the position of the shielding area (that is, the start position and the end position of the shielding area) of the light sectioning image frame at the time of delivery, in addition to the calculation of the light cutting line feature amount. (Step S113). Thereafter, the light cutting line processing unit 219 outputs information on the position of the identified shielding area to the image interpolation unit 227.

深さ画像算出部221は、算出された光切断線特徴量(特に、光切断線の変位量に関する特徴量)を利用して、送入時の深さ画像及び送出時の深さ画像をそれぞれ算出するとともに、乱反射画像算出部223は、算出された光切断線特徴量(特に、閾値以上の輝度を有する画素の画素数に関する特徴量、及び、輝度の総和に関する特徴量)を利用して、送入時の乱反射画像及び送出時の乱反射画像をそれぞれ算出する(ステップS115)。深さ画像算出部221は、算出した送入時の深さ画像及び送出時の深さ画像を、画像補間部227に出力する。また、乱反射画像算出部265は、算出した送入時の乱反射画像及び送出時の乱反射画像を、画像補間部227に出力する。   The depth image calculation unit 221 uses the calculated light section line feature amount (in particular, the feature amount related to the displacement amount of the light section line) to respectively transmit the depth image at the time of delivery and the depth image at the time of delivery. In addition to the calculation, the diffuse reflection image calculation unit 223 uses the calculated light cutting line feature amount (in particular, the feature amount related to the number of pixels of the pixels having the luminance equal to or higher than the threshold and the feature amount related to the sum of the luminance). The irregular reflection image at the time of transmission and the irregular reflection image at the time of transmission are calculated (step S115). The depth image calculation unit 221 outputs the calculated depth image at the time of transmission and the calculated depth image at the time of transmission to the image interpolation unit 227. Further, the diffuse reflection image calculation unit 265 outputs the calculated diffuse reflection image at the time of transmission and the diffuse reflection image at the time of transmission to the image interpolation unit 227.

次に、画像補間部227は、光切断線処理部219から通知された遮蔽領域の位置に関する情報と、深さ画像算出部221、乱反射画像算出部223及び正反射画像生成部225により生成された送出時の各画像と、を利用し、送入時の各画像の補間処理を実施する(ステップS117)。その後、画像補間部227は、補完後の各画像を、欠陥検出部229に出力する。   Next, the image interpolation unit 227 generates the information on the position of the shielded area notified from the light cutting line processing unit 219 and the depth image calculation unit 221, the irregular reflection image calculation unit 223, and the regular reflection image generation unit 225. Interpolation processing of each image at the time of transmission is performed using each image at the time of transmission (step S117). Thereafter, the image interpolation unit 227 outputs each image after complementation to the defect detection unit 229.

続いて、欠陥検出部229は、補完後の深さ画像、正反射画像及び乱反射画像を利用して、管状体の内表面に存在する欠陥部位を検出し、検出した欠陥部位の欠陥の種別及び有害度を特定する(ステップS119)。以上のような流れにより、管状体の内表面に存在する欠陥が検出されることとなる。   Subsequently, the defect detection unit 229 detects a defect site existing on the inner surface of the tubular body using the depth image, the regular reflection image and the irregular reflection image after complementation, and the type of defect of the detected defect site, The harmfulness level is identified (step S119). By the flow as described above, a defect present on the inner surface of the tubular body is detected.

以上、本発明の実施形態に係る欠陥検出装置及び欠陥検出方法について、詳細に説明した。
本発明の実施形態に係る欠陥検出装置及び欠陥検出方法によれば、簡便な装置構成で、管状体内面を周方向全周・全長に亘って、微小な凹凸形状の疵に加えて、凹凸が無い表面粗度の異なる疵や微細な擦り疵を、地肌模様や汚れ等の過検要因と区別しながら、高精度で、かつ、同時に検出することができ、疵の発生位置を正確に把握することができる。更に、管状体製造工程の途中であっても容易に迅速な検査の実施が行えるようになるため、管状体製造の生産性、歩留まり向上や、管状体の品質保証に大きく寄与することができる。
Hereinabove, the defect detection apparatus and the defect detection method according to the embodiment of the present invention have been described in detail.
According to the defect detection apparatus and the defect detection method according to the embodiment of the present invention, in the simple apparatus configuration, the inner surface of the tubular body extends in the circumferential direction all around the entire length and in addition to the wrinkles of the minute uneven shape It can be detected with high accuracy and at the same time while distinguishing wrinkles and fine abrasions with different surface roughness, from over-inspection factors such as background pattern and dirt, and accurately grasp the occurrence position of wrinkles be able to. Furthermore, since the inspection can be easily and quickly carried out during the process of manufacturing the tubular body, it can greatly contribute to the productivity of the manufacturing of the tubular body, the improvement of the yield, and the quality assurance of the tubular body.

(ハードウェア構成について)
次に、図23を参照しながら、本発明の実施形態に係る演算処理装置200のハードウェア構成について、詳細に説明する。図23は、本発明の実施形態に係る演算処理装置200のハードウェア構成を説明するためのブロック図である。
(About hardware configuration)
Next, the hardware configuration of the arithmetic processing unit 200 according to the embodiment of the present invention will be described in detail with reference to FIG. FIG. 23 is a block diagram for explaining the hardware configuration of the arithmetic processing unit 200 according to the embodiment of the present invention.

演算処理装置200は、主に、CPU901と、ROM903と、RAM905と、を備える。また、演算処理装置200は、更に、バス907と、入力装置909と、出力装置911と、ストレージ装置913と、ドライブ915と、接続ポート917と、通信装置919とを備える。   The arithmetic processing unit 200 mainly includes a CPU 901, a ROM 903 and a RAM 905. The arithmetic processing unit 200 further includes a bus 907, an input unit 909, an output unit 911, a storage unit 913, a drive 915, a connection port 917, and a communication unit 919.

CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置913、又はリムーバブル記録媒体921に記録された各種プログラムに従って、演算処理装置200内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバス907により相互に接続されている。   The CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or part of the operation in the arithmetic processing unit 200 in accordance with various programs recorded in the ROM 903, the RAM 905, the storage unit 913, or the removable recording medium 921. The ROM 903 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 905 primarily stores programs used by the CPU 901, parameters that appropriately change in the execution of the programs, and the like. These are mutually connected by a bus 907 constituted by an internal bus such as a CPU bus.

バス907は、ブリッジを介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バスに接続されている。   The bus 907 is connected to an external bus such as a peripheral component interconnect / interface (PCI) bus via a bridge.

入力装置909は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置909は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、演算処理装置200の操作に対応したPDA等の外部接続機器923であってもよい。更に、入力装置909は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。欠陥検出装置10のユーザは、この入力装置909を操作することにより、演算処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 909 is an operation unit operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input device 909 may be, for example, a remote control unit (so-called remote control) using infrared rays or other radio waves, or an external connection device 923 such as a PDA corresponding to the operation of the processing unit 200. May be Furthermore, the input device 909 is configured of, for example, an input control circuit that generates an input signal based on the information input by the user using the above-described operation means, and outputs the generated input signal to the CPU 901. By operating the input device 909, the user of the defect detection apparatus 10 can input various data to the arithmetic processing unit 200 and instruct processing operations.

出力装置911は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置911は、例えば、演算処理装置200が行った各種処理により得られた結果を出力する。具体的には、表示装置は、演算処理装置200が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。   The output device 911 is configured of a device capable of visually or aurally notifying the user of the acquired information. Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, facsimiles and the like. The output device 911 outputs, for example, results obtained by various processes performed by the arithmetic processing device 200. Specifically, the display device displays the results obtained by the various processes performed by the arithmetic processing device 200 as text or an image. On the other hand, the audio output device converts an audio signal composed of reproduced audio data, acoustic data and the like into an analog signal and outputs it.

ストレージ装置913は、演算処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置913は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置913は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータなどを格納する。   The storage device 913 is a device for data storage configured as an example of a storage unit of the arithmetic processing unit 200. The storage device 913 includes, for example, a magnetic storage unit device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 913 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.

ドライブ915は、記録媒体用リーダライタであり、演算処理装置200に内蔵、あるいは外付けされる。ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録されている情報を読み出して、RAM905に出力する。また、ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録を書き込むことも可能である。リムーバブル記録媒体921は、例えば、CDメディア、DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体921は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体921は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。   The drive 915 is a reader / writer for a recording medium, and is built in or externally attached to the arithmetic processing unit 200. The drive 915 reads out information recorded in a removable recording medium 921 such as a mounted magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 905. The drive 915 can also write a record on a removable recording medium 921 such as a mounted magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory. The removable recording medium 921 is, for example, a CD medium, a DVD medium, a Blu-ray (registered trademark) medium, or the like. Further, the removable recording medium 921 may be Compact Flash (registered trademark) (Compact Flash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) equipped with a noncontact IC chip, an electronic device, or the like.

接続ポート917は、機器を演算処理装置200に直接接続するためのポートである。接続ポート917の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS−232Cポート等がある。この接続ポート917に外部接続機器923を接続することで、演算処理装置200は、外部接続機器923から直接各種のデータを取得したり、外部接続機器923に各種のデータを提供したりする。   The connection port 917 is a port for directly connecting a device to the arithmetic processing unit 200. Examples of the connection port 917 include a universal serial bus (USB) port, an IEEE 1394 port, a small computer system interface (SCSI) port, and an RS-232C port. By connecting the external connection device 923 to the connection port 917, the arithmetic processing unit 200 directly acquires various data from the external connection device 923 or provides various data to the external connection device 923.

通信装置919は、例えば、通信網925に接続するための通信デバイス等で構成された通信インターフェースである。通信装置919は、例えば、有線もしくは無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置919は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置919は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置919に接続される通信網925は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、社内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。   The communication device 919 is, for example, a communication interface configured of a communication device or the like for connecting to the communication network 925. The communication device 919 is, for example, a communication card for wired or wireless Local Area Network (LAN), Bluetooth (registered trademark), or WUSB (Wireless USB). In addition, the communication device 919 may be a router for optical communication, a router for asymmetric digital subscriber line (ADSL), a modem for various types of communication, or the like. The communication device 919 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or another communication device. The communication network 925 connected to the communication device 919 is configured by a network or the like connected by wire or wireless, and is, for example, the Internet, a home LAN, an in-house LAN, infrared communication, radio wave communication or satellite communication. May be

以上、本発明の実施形態に係る演算処理装置200の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。   Heretofore, an example of the hardware configuration capable of realizing the function of the arithmetic processing unit 200 according to the embodiment of the present invention has been shown. Each of the components described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level of the time of carrying out the present embodiment.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention belongs can conceive of various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also fall within the technical scope of the present invention.

10 欠陥検出装置
100 管状体撮像装置
101 環状レーザ光源
103 レーザ光源
105 円錐状の光学素子
107 円錐状照明光源
109 基台
111 発光素子
113 エリアカメラ
115 保持部材
117 連結部材
150 駆動制御装置
200 演算処理装置
201 撮像制御部
203 画像処理部
205 表示制御部
209 記憶部
211 A/D変換部
213 環状ビームセンター算出部
215 座標変換部
217 光切断画像フレーム生成部
219 光切断線処理部
221 深さ画像算出部
223 乱反射画像算出部
225 正反射画像生成部
227 画像補間部
229 欠陥検出部
231 結果出力部
DESCRIPTION OF SYMBOLS 10 Defect detection apparatus 100 Tubular body imaging device 101 Annular laser light source 103 Laser light source 105 Conical optical element 107 Conical illumination light source 109 Base 111 Light emitting element 113 Area camera 115 Holding member 117 Connection member 150 Drive control device 200 Arithmetic processing device 201 imaging control unit 203 image processing unit 205 display control unit 209 storage unit 211 A / D conversion unit 213 annular beam center calculation unit 215 coordinate conversion unit 217 light-cut image frame generation unit 219 light-cut line processing unit 221 depth image calculation unit 223 irregular reflection image calculation unit 225 regular reflection image generation unit 227 image interpolation unit 229 defect detection unit 231 result output unit

Claims (14)

管状体の軸方向に沿って移動しながら、当該管状体の内表面の全周方向に対して、環状のレーザ光及び円錐状の照明光をそれぞれ照射し、当該環状のレーザ光及び円錐状の照明光が照射された前記内表面を撮像することで、前記内表面における前記環状のレーザ光及び円錐状の照明光の撮像画像である管内表面画像を、管状体の軸方向に沿って複数生成する管状体撮像装置と、
前記管状体撮像装置により生成された前記管内表面画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、
を備え、
前記管状体撮像装置は、
前記管状体の内表面の全周方向に対して前記環状のレーザ光を照射する環状レーザ光源と、
前記管状体の内表面の全周方向に対して前記円錐状の照明光を照射する円錐状照明光源と、
前記環状のレーザ光及び円錐状の照明光が照射された前記内表面を、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域とが同一視野内に収まるように撮像するエリアカメラと、
を有し、
前記エリアカメラは、前記円錐状の照明光の照射領域からの前記円錐状の照明光の正反射光が結像し、かつ、前記環状のレーザ光の照射部分からの前記環状のレーザ光の乱反射光が結像するように、前記環状レーザ光源及び前記円錐状照明光源と対向して配設されており、
前記演算処理装置は、
それぞれの前記管内表面画像における前記環状のレーザ光の照射部分の重心位置及び半径をそれぞれ算出する環状ビームセンター算出部と、
算出された前記重心位置と、前記重心位置と前記環状のレーザ光の照射部分との離隔量と、前記重心位置と前記円錐状の照明光の照射領域との離隔量と、に基づいて前記管内表面画像の座標系を変換し、それぞれの前記環状のレーザ光の照射部分を前記管状体の周方向に展開した線分である光切断線を含む帯状の領域である光切断線画像と、それぞれの前記円錐状の照明光の照射領域を前記管状体の周方向に展開した帯状の領域である正反射展開画像と、を複数生成する座標変換部と、
前記光切断線画像それぞれを前記軸方向に沿って順に配列させた光切断線画像フレームに基づいて、前記管状体の内表面の凹凸状体を表す深さ画像を算出する深さ画像算出部と、
前記光切断線画像フレームに基づいて、前記管状体の内表面における前記環状のレーザ光の輝度の分布を表わす乱反射画像を算出する乱反射画像算出部と、
前記正反射展開画像それぞれを前記軸方向に沿って順に配列させて、前記管状体の内表面における前記円錐状の照明光の輝度の分布を表わす正反射画像を生成する正反射画像生成部と、
算出された前記深さ画像、前記乱反射画像及び前記正反射画像に基づいて、前記管状体に存在する欠陥を検出する欠陥検出部と、
を有する、欠陥検出装置。
While moving along the axial direction of the tubular body, annular laser light and conical illumination light are respectively irradiated to the entire circumferential direction of the inner surface of the tubular body, and the annular laser light and conical light By imaging the inner surface irradiated with illumination light, a plurality of tube inner surface images, which are captured images of the annular laser light and conical illumination light on the inner surface, are generated along the axial direction of the tubular body A tubular body imaging device
An arithmetic processing unit that performs image processing on the in-pipe surface image generated by the tubular body imaging device to determine whether a defect is present on the inner surface of the tubular body;
Equipped with
The tubular body imaging device is
An annular laser light source that irradiates the annular laser beam in the entire circumferential direction of the inner surface of the tubular body;
A conical illumination light source for illuminating the conical illumination light in the circumferential direction of the inner surface of the tubular body;
The inner surface irradiated with the annular laser light and the conical illumination light is imaged such that the irradiation portion of the annular laser light and the irradiation area of the conical illumination light fall within the same field of view Area camera,
Have
In the area camera, specular reflection light of the conical illumination light from the conical illumination light irradiation area forms an image, and irregular reflection of the annular laser light from the annular laser light irradiation portion It is disposed opposite to the annular laser light source and the conical illumination light source so that light is imaged.
The arithmetic processing unit
An annular beam center calculation unit configured to calculate the position of the center of gravity and the radius of the portion irradiated with the annular laser beam in each of the in-pipe surface images;
The inside of the tube based on the calculated barycentric position, the separation amount between the barycentric position and the portion irradiated with the annular laser light, and the separation amount between the barycentric position and the irradiation region of the conical illumination light. A light sectioning line image which is a band-like area including a light sectioning line which is a line segment in which a coordinate system of a surface image is transformed and a portion irradiated with each of the annular laser light is expanded in a circumferential direction of the tubular body A coordinate conversion unit that generates a plurality of specular reflection developed images, which are band-like regions obtained by expanding the irradiation region of the conical illumination light in the circumferential direction of the tubular body;
And a depth image calculation unit for calculating a depth image representing a concavo-convex body on the inner surface of the tubular body based on the light section line image frame in which the light section line images are sequentially arranged along the axial direction; ,
A diffuse reflection image calculating unit that calculates a diffuse reflection image representing a distribution of luminance of the annular laser light on the inner surface of the tubular body based on the light cutting line image frame;
A specular reflection image generation unit that arranges the specular reflection developed images in order along the axial direction to generate a specular reflection image representing the distribution of the luminance of the conical illumination light on the inner surface of the tubular body;
A defect detection unit that detects a defect present in the tubular body based on the calculated depth image, the diffuse reflection image, and the regular reflection image;
And a defect detection device.
前記深さ画像算出部は、前記周方向に沿った前記光切断線の線幅方向の重心位置を算出し、前記半径を、前記光切断線画像に対して予め指定した軸方向の位置である基準位置として、当該基準位置と前記重心位置との変位量に基づいて前記深さ画像を算出する、請求項1に記載の欠陥検出装置。   The depth image calculation unit calculates a barycentric position of the light cutting line in the line width direction along the circumferential direction, and the radius is a position in an axial direction previously designated with respect to the light cutting line image. The defect detection apparatus according to claim 1, wherein the depth image is calculated based on a displacement amount between the reference position and the barycentric position as the reference position. 前記乱反射画像算出部は、前記光切断線のそれぞれに対して、前記周方向の位置毎に、光切断線に対応する画素を特定するための第1の閾値以上の輝度値を有する画素を線幅方向に加算した個数と、当該第1の閾値以上の輝度値を有する画素の総和輝度とを算出し、前記総和輝度の前記線幅方向の平均値に基づいて前記乱反射画像を算出する、請求項1又は2に記載の欠陥検出装置。   The irregular reflection image calculation unit may set, for each of the light cutting lines, a pixel having a luminance value equal to or greater than a first threshold for specifying a pixel corresponding to the light cutting line at each position in the circumferential direction. The irregular reflection image is calculated based on the number of pixels added in the width direction and the total luminance of pixels having luminance values equal to or greater than the first threshold, and the average value of the total luminance in the line width direction. The defect detection apparatus according to claim 1 or 2. 前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域と、が互いに重畳しないように配設されている、請求項1〜3の何れか1項に記載の欠陥検出装置。   The said annular laser light source and the said conical illumination light source are arrange | positioned so that the irradiation part of the said annular laser beam and the irradiation area | region of the said conical illumination light may not mutually overlap. The defect detection device according to any one of the above. 前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域と、が互いに重畳するように配設されており、
前記環状のレーザ光と、前記円錐状の照明光とは、波長、照射タイミング、又は、偏光が互いに異なっており、
前記エリアカメラは、前記環状のレーザ光の照射部分からの反射光と、前記円錐状の照明光の照射領域からの反射光と、を互いに区別して撮像する、請求項1〜3の何れか1項に記載の欠陥検出装置。
The annular laser light source and the conical illumination light source are disposed such that the irradiation portion of the annular laser light and the illumination area of the conical illumination light overlap each other.
The annular laser light and the conical illumination light have different wavelengths, irradiation timings, or polarizations from each other.
The area camera according to any one of claims 1 to 3, wherein the reflected light from the portion irradiated with the annular laser light and the reflected light from the irradiated region of the conical illumination light are distinguished from each other and imaged. The defect detection apparatus as described in a term.
前記エリアカメラは、カラー撮像が可能なカラーカメラであり、
前記環状レーザ光源及び前記円錐状照明光源は、前記環状のレーザ光及び前記円錐状の照明光の色の組み合わせが、(赤・青)、(青・緑)、又は、(赤・緑)の何れかとなるように波長が互いに異なる光源である、請求項5に記載の欠陥検出装置。
The area camera is a color camera capable of color imaging,
In the annular laser light source and the conical illumination light source, a combination of the annular laser light and the conical illumination light is (red / blue), (blue / green) or (red / green) The defect detection device according to claim 5, wherein the light sources are different from each other in wavelength.
前記円錐状の照明光の照射領域は、前記管状体の内表面において前記軸方向に長さdを有しており、
前記円錐状の照明光の照射領域は、前記環状のレーザ光が前記軸方向にdだけ進む間に1度だけ撮像される、請求項1〜6の何れか1項に記載の欠陥検出装置。
The illumination area of the conical illumination light has a length d in the axial direction on the inner surface of the tubular body,
The defect detection device according to any one of claims 1 to 6, wherein the conical illumination light irradiation area is imaged only once while the annular laser light travels in the axial direction by d.
前記座標変換部は、前記座標系の変換に際して、前記光切断線画像の各画素の輝度値、及び、前記正反射展開画像の各画素の輝度値を、対応する前記管内表面画像の各位置における近傍画素の輝度値から、画像補間処理により算出する、請求項1〜7の何れか1項に記載の欠陥検出装置。   The coordinate conversion unit is configured to convert the luminance value of each pixel of the light section image and the luminance value of each pixel of the specular reflection developed image at each position of the corresponding in-pipe surface image when converting the coordinate system. The defect detection device according to any one of claims 1 to 7, which is calculated by image interpolation processing from the luminance value of the neighboring pixel. 前記欠陥検出部は、
前記深さ画像、前記乱反射画像及び前記正反射画像の画素値が、それぞれの前記画像に対して設定された欠陥部位特定のための第2の閾値以上であるか否かに基づいて欠陥部位を特定し、
特定した前記欠陥部位について、当該欠陥部位の形態及び画素値に関する特徴量情報を抽出し、
抽出した前記特徴量情報に基づいて、前記管状体の内表面に存在する欠陥を判別する、請求項1〜8の何れか1項に記載の欠陥検出装置。
The defect detection unit
The defect area is determined based on whether the pixel values of the depth image, the diffuse reflection image and the regular reflection image are equal to or greater than a second threshold for defect area identification set for each of the images. Identify
Extracting feature amount information on the form and pixel value of the defect site for the identified defect site;
The defect detection device according to any one of claims 1 to 8, wherein a defect present on the inner surface of the tubular body is determined based on the extracted feature amount information.
前記管状体撮像装置は、
前記環状レーザ光源及び前記円錐状照明光源と、前記エリアカメラと、を連結して固定する1又は複数の連結部材を更に有し、
前記管状体撮像装置が前記管状体の内部に送入される際、及び、前記管状体撮像装置が前記管状体の内部から送出される際のそれぞれで、前記連結部材により前記環状のレーザ光及び前記円錐状の照明光が遮蔽されることで生じた遮蔽領域を含む前記管内表面画像を生成するとともに、前記管状体撮像装置の送入と送出との間に、送入時の前記管内表面画像の遮蔽領域と送出時の前記管内表面画像の遮蔽領域とが重ならないように前記管状体撮像装置を回転し、
前記演算処理装置は、
送入時の前記光切断線画像又は送出時の前記光切断線画像を利用して、前記光切断線画像及び前記正反射展開画像における前記遮蔽領域の位置を特定する遮蔽領域特定部と、
送入時又は送出時の前記管内表面画像に基づいて生成された前記深さ画像、乱反射画像及び正反射画像における前記遮蔽領域を、送出時又は送入時の前記管内表面画像に基づいて生成された前記深さ画像、乱反射画像及び正反射画像を利用して補間する画像補間部と、
を更に有し、
前記座標変換部は、前記管状体の内表面の所定の位置を基準点として送入時及び送出時の前記管内表面画像の座標系をそれぞれ変換し、送入時における複数の前記光切断線画像及び前記正反射展開画像、並びに、送出時における複数の前記光切断線画像及び前記正反射展開画像を生成する、請求項1〜9の何れか1項に記載の欠陥検出装置。
The tubular body imaging device is
The annular laser light source, the conical illumination light source, and the area camera are further provided with one or more connecting members that connect and fix the light source.
When the tubular body imaging device is fed into the interior of the tubular body and when the tubular body imaging device is delivered from the inside of the tubular body, the annular laser light and The in-tube surface image at the time of delivery is generated between the delivery and the delivery of the tubular body imaging device, while generating the in-tube surface image including a shielded area generated by blocking the conical illumination light. Rotating the tubular body imaging device so that the shielded area of the tube and the shielded area of the tube surface image at the time of delivery do not overlap;
The arithmetic processing unit
A shielded area specifying unit which specifies the position of the shielded area in the light sectioned line image and the regular reflection developed image using the light sectioned line image at the time of delivery or the light sectioned line image at the time of delivery;
The shielded area in the depth image, the diffuse reflection image and the regular reflection image generated based on the in-pipe surface image at the time of delivery or at the time of delivery is generated based on the in-pipe surface image at the time of delivery or at the time of delivery An image interpolation unit that interpolates using the depth image, the diffuse reflection image, and the regular reflection image;
And have
The coordinate conversion unit respectively converts the coordinate system of the tube surface image at the time of delivery and at the time of delivery using a predetermined position on the inner surface of the tubular body as a reference point, and a plurality of the light cutting line images at the time of delivery The defect detection device according to any one of claims 1 to 9, wherein the specular reflection developed image, and a plurality of the light section line images and the specular reflection developed image at the time of delivery are generated.
前記遮蔽領域特定部は、
前記光切断線のそれぞれに対して、前記周方向の位置毎に、前記第1の閾値以上の輝度値を有する画素を線幅方向に加算した個数である輝線画素数を特定しており、
前記輝線画素数によって、前記遮蔽領域の周方向位置を特定する、請求項10に記載の欠陥検出装置。
The shielding area specifying unit
For each of the light cutting lines, the number of bright line pixels, which is the number obtained by adding in the line width direction pixels having luminance values equal to or more than the first threshold value, is specified for each circumferential position.
The defect detection device according to claim 10, wherein a circumferential position of the shielding area is specified by the number of bright line pixels.
前記遮蔽領域特定部は、
前記輝線画素数がゼロとなった前記周方向の位置を記憶するとともに、以降の周方向の位置について前記輝線画素数がゼロとなる状態の連続数をカウントし、当該輝線画素数がゼロとなる状態の連続数が連続数判定用の第3の閾値以上となった場合に、記憶した前記周方向の位置を前記遮蔽領域の開始位置とし、
前記遮蔽領域の開始位置が特定されており、かつ、着目した前記周方向の位置における前記輝線画素数がゼロではなかった場合において、以降の周方向の位置について前記輝線画素数がゼロではなくなった前記周方向の位置を記憶するとともに、前記輝線画素数がゼロではない状態の連続数をカウントし、前記輝線画素数がゼロではない状態の連続数が連続数判定用の第4の閾値以上となった場合に、記憶した前記周方向の位置を、前記遮蔽領域が終了して新たに非遮蔽領域が開始した位置とする、請求項11に記載の欠陥検出装置。
The shielding area specifying unit
The position in the circumferential direction in which the number of bright line pixels becomes zero is stored, and the number of consecutive bright line pixels in the state in which the number of bright line pixels becomes zero is counted at subsequent positions in the circumferential direction, and the number of bright line pixels becomes zero. When the number of consecutive states becomes equal to or more than a third threshold for determining the number of consecutive states, the stored position in the circumferential direction is set as the start position of the shielding area,
When the start position of the shielding area is specified and the number of bright line pixels at the focused circumferential position is not zero, the number of bright line pixels at the subsequent circumferential position is not zero The position in the circumferential direction is stored, and the number of consecutive lines in which the number of bright line pixels is not zero is counted, and the number of consecutive lines in which the number of bright line pixels is not zero is equal to or greater than a fourth threshold for determining the number of consecutive lines. 12. The defect detection device according to claim 11, wherein, when having become, the stored position in the circumferential direction is a position where the shielding area ends and a non-shielding area starts anew.
前記遮蔽領域特定部は、
前記光切断線のそれぞれに対して、前記周方向の位置毎に、前記輝線画素数の移動平均を算出し、
前記移動平均が、移動平均判定用の第5の閾値未満となる前記周方向の位置を、前記遮蔽領域の開始位置とし、
前記遮蔽領域の開始位置が特定されており、かつ、前記移動平均が前記第5の閾値以上となる前記周方向の位置を、前記遮蔽領域の終了位置とする、請求項11に記載の欠陥検出装置。
The shielding area specifying unit
A moving average of the number of bright line pixels is calculated for each of the light cutting lines at each position in the circumferential direction,
The circumferential position at which the moving average is less than a fifth threshold for moving average determination is set as the start position of the shielding area,
The defect detection according to claim 11, wherein the circumferential position at which the start position of the shielding area is specified and the moving average is equal to or more than the fifth threshold is the end position of the shielding area. apparatus.
管状体の軸方向に沿って移動しながら、当該管状体の内表面の全周方向に対して、環状のレーザ光及び円錐状の照明光をそれぞれ照射し、当該環状のレーザ光及び円錐状の照明光が照射された前記内表面を撮像することで、前記内表面における前記環状のレーザ光及び円錐状の照明光の撮像画像である管内表面画像を、管状体の軸方向に沿って複数生成するものであり、前記管状体の内表面の全周方向に対して前記環状のレーザ光を照射する環状レーザ光源と、前記管状体の内表面の全周方向に対して前記円錐状の照明光を照射する円錐状照明光源と、前記環状のレーザ光及び円錐状の照明光が照射された前記内表面を、前記環状のレーザ光の照射部分と、前記円錐状の照明光の照射領域とが同一視野内に収まるように撮像するエリアカメラと、を有し、前記エリアカメラは、前記円錐状の照明光の照射領域からの前記円錐状の照明光の正反射光が結像し、かつ、前記環状のレーザ光の照射部分からの前記環状のレーザ光の乱反射光が結像するように、前記環状レーザ光源及び前記円錐状照明光源と対向して配設されている管状体撮像装置により、前記管内表面画像を管状体の軸方向に沿って複数生成するステップと、
それぞれの前記管内表面画像における前記環状のレーザ光の照射部分の重心位置及び半径をそれぞれ算出する環状ビームセンター算出ステップと、
算出された前記重心位置と、前記重心位置と前記環状のレーザ光の照射部分との離隔量と、前記重心位置と前記円錐状の照明光の照射領域との離隔量と、に基づいて前記管内表面画像の座標系を変換し、それぞれの前記環状のレーザ光の照射部分を前記管状体の周方向に展開した線分である光切断線を含む帯状の領域である光切断線画像と、それぞれの前記円錐状の照明光の照射領域を前記管状体の周方向に展開した帯状の領域である正反射展開画像と、を複数生成する座標変換ステップと、
前記光切断線画像それぞれを前記軸方向に沿って順に配列させた光切断線画像フレームに基づいて、前記管状体の内表面の凹凸状体を表す深さ画像を算出する深さ画像算出ステップと、
前記光切断線画像フレームに基づいて、前記管状体の内表面における前記環状のレーザ光の輝度の分布を表わす乱反射画像を算出する乱反射画像算出ステップと、
前記正反射展開画像それぞれを前記軸方向に沿って順に配列させて、前記管状体の内表面における前記円錐状の照明光の輝度の分布を表わす正反射画像を生成する正反射画像生成ステップと、
算出された前記深さ画像、前記乱反射画像及び前記正反射画像に基づいて、前記管状体に存在する欠陥を検出する欠陥検出ステップと、
を含む、欠陥検出方法。

While moving along the axial direction of the tubular body, annular laser light and conical illumination light are respectively irradiated to the entire circumferential direction of the inner surface of the tubular body, and the annular laser light and conical light By imaging the inner surface irradiated with illumination light, a plurality of tube inner surface images, which are captured images of the annular laser light and conical illumination light on the inner surface, are generated along the axial direction of the tubular body An annular laser light source for emitting the annular laser beam to the entire circumferential direction of the inner surface of the tubular body, and the conical illumination light to the entire circumferential direction of the inner surface of the tubular body A cone-shaped illumination light source for irradiating the inner surface, the inner surface irradiated with the annular laser light and the conical illumination light, an irradiation portion of the annular laser light, and an irradiation area of the conical illumination light; Area camera that captures images within the same field of view , And the area camera focuses the specularly reflected light of the conical illumination light from the conical illumination light illumination area, and the annular light from the annular laser light illumination portion The tube surface image is arranged along the axial direction of the tubular body by a tubular body imaging device disposed opposite to the annular laser light source and the conical illumination light source so that the diffusely reflected light of the laser light forms an image. Step to generate multiple
An annular beam center calculating step of calculating the position of the center of gravity and the radius of the portion irradiated with the annular laser light in each of the in-pipe surface images;
The inside of the tube based on the calculated barycentric position, the separation amount between the barycentric position and the portion irradiated with the annular laser light, and the separation amount between the barycentric position and the irradiation region of the conical illumination light. A light sectioning line image which is a band-like area including a light sectioning line which is a line segment in which a coordinate system of a surface image is transformed and a portion irradiated with each of the annular laser light is expanded in a circumferential direction of the tubular body A coordinate conversion step of generating a plurality of specular reflection developed images which are band-like regions in which the irradiation region of the conical illumination light is developed in the circumferential direction of the tubular body;
A depth image calculating step of calculating a depth image representing a concavo-convex body on the inner surface of the tubular body based on a light sectioning line image frame in which the light sectioning line images are sequentially arranged along the axial direction; ,
A diffuse reflection image calculating step of calculating a diffuse reflection image representing a distribution of luminance of the annular laser light on the inner surface of the tubular body based on the light cutting line image frame;
Regular reflection image generation step of arranging the respective regular reflection developed images in order along the axial direction to generate a regular reflection image representing the distribution of the brightness of the conical illumination light on the inner surface of the tubular body;
A defect detection step of detecting a defect present in the tubular body based on the calculated depth image, the diffuse reflection image and the regular reflection image;
Defect detection methods, including:

JP2015179308A 2015-09-11 2015-09-11 Defect detection apparatus and defect detection method Active JP6515344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179308A JP6515344B2 (en) 2015-09-11 2015-09-11 Defect detection apparatus and defect detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179308A JP6515344B2 (en) 2015-09-11 2015-09-11 Defect detection apparatus and defect detection method

Publications (2)

Publication Number Publication Date
JP2017053790A JP2017053790A (en) 2017-03-16
JP6515344B2 true JP6515344B2 (en) 2019-05-22

Family

ID=58316276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179308A Active JP6515344B2 (en) 2015-09-11 2015-09-11 Defect detection apparatus and defect detection method

Country Status (1)

Country Link
JP (1) JP6515344B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481216B1 (en) * 2017-05-31 2019-03-13 新日鐵住金株式会社 Tubular body surface inspection method and tubular body surface inspection apparatus
JP6907862B2 (en) * 2017-09-28 2021-07-21 日本製鉄株式会社 Internal surface inspection device for pipes
JP7159624B2 (en) * 2018-06-04 2022-10-25 日本製鉄株式会社 Surface texture inspection method and surface texture inspection device
WO2020026290A1 (en) 2018-07-30 2020-02-06 日本製鉄株式会社 Tubular body inner surface inspecting device and tubular body inner surface inspecting method
CN108931855B (en) * 2018-09-27 2023-06-30 中国工程物理研究院激光聚变研究中心 Annular light beam conversion device and conversion method
JP7285645B2 (en) * 2019-01-08 2023-06-02 前田建設工業株式会社 Image processing device and spatial inner surface shape measuring device using the same
CN109934811B (en) * 2019-03-08 2022-12-30 中国科学院光电技术研究所 Optical element surface defect detection method based on deep learning
JP7205832B2 (en) * 2020-01-08 2023-01-17 国立大学法人東海国立大学機構 Hole internal inspection device
CN112767249B (en) * 2021-01-13 2023-04-07 广东省特种设备检测研究院珠海检测院 Image unfolding and splicing method and system for surface defect detection of small pipe fitting
CN113125402B (en) * 2021-04-22 2022-09-23 中国科学院水生生物研究所 Sample supporting and sorting chip and fluid sample introduction and sorting system
CN114111678A (en) * 2021-10-21 2022-03-01 芜湖优尼特精密制造有限公司 Compressor control part survey device based on visual detection technique
CN116067283B (en) * 2023-04-03 2023-08-04 成都飞机工业(集团)有限责任公司 Deep cavity measurement method, device, equipment and medium
CN116148185B (en) * 2023-04-04 2023-07-25 成都新西旺自动化科技有限公司 Barrel-shaped light source and visual imaging method
CN117073454B (en) * 2023-07-24 2024-03-15 中国人民解放军陆军工程大学 Multi-caliber tubular bore detection device based on image and laser scanning
CN117804357B (en) * 2024-03-01 2024-05-14 中北大学 Deep hole detection device and detection method based on laser reflection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309491A (en) * 2003-02-21 2004-11-04 Fast:Kk Construction and civil engineering structure measurement/analysis system
DE102009019459B4 (en) * 2009-05-04 2012-02-02 Hommel-Etamic Gmbh Device for imaging the inner surface of a cavity in a workpiece
KR101180835B1 (en) * 2010-04-02 2012-09-07 주식회사 쓰리비 시스템 Apparatus for inspecting defects
JP5742655B2 (en) * 2011-01-14 2015-07-01 新日鐵住金株式会社 Defect detection apparatus and defect detection method
EP2762860A4 (en) * 2011-09-30 2015-05-27 Olympus Corp Inner surface shape measuring apparatus, detecting head, and endoscope apparatus

Also Published As

Publication number Publication date
JP2017053790A (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6515344B2 (en) Defect detection apparatus and defect detection method
JP5742655B2 (en) Defect detection apparatus and defect detection method
JP6696278B2 (en) Drift inspection equipment
JP5672480B2 (en) Apparatus and method for determining shape of terminal end of bead
JP6447728B2 (en) Inspected object imaging apparatus, inspected object imaging method, surface inspection apparatus, and surface inspection method
TWI621849B (en) Computer-implemented method, non-transitory computer-readable medium, and system for detecting defects on a wafer
KR20160090359A (en) Surface defect detection method and surface defect detection device
JP6079948B1 (en) Surface defect detection device and surface defect detection method
JP6481216B1 (en) Tubular body surface inspection method and tubular body surface inspection apparatus
JP4739044B2 (en) Appearance inspection device
CN1720742B (en) Apparatus and method for detecting surface defects on a workpiece such as a rolled/drawn metal bar
JP2008506111A (en) Apparatus and method for inspecting ribbed containers
JP6481217B1 (en) Tubular body surface inspection apparatus and tubular body surface inspection method
JP2018009894A (en) Cylinder inner surface observation device, cylinder inner surface observation method, cylinder inner surface inspection device and cylinder inner surface inspection method
JP6417948B2 (en) Drift gauge and drift inspection method
JP6683088B2 (en) Surface texture inspection device, surface texture inspection method and program
JP6958175B2 (en) Tubular internal surface inspection device and tubular internal surface inspection method
CN109791038B (en) Optical measurement of step size and metallization thickness
JP5796511B2 (en) Tubular body inspection device and tubular body inspection method
CN111563870B (en) Image processing method and apparatus, detection method and apparatus, and storage medium
JP2016109458A (en) Cylinder inner wall surface inspection device and cylinder inner wall inspection method
WO2019171474A1 (en) Surface property inspection device, surface property inspection method, and program
KR101711708B1 (en) Method and apparatus for detecting center point of region in OCT image
JP2011058970A (en) Pipe end face inspection device and pipe end face inspection method
CN114494129A (en) Contrast enhancement method for surface slight deformation defect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6515344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151