JP5764238B2 - Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method - Google Patents

Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method Download PDF

Info

Publication number
JP5764238B2
JP5764238B2 JP2014097545A JP2014097545A JP5764238B2 JP 5764238 B2 JP5764238 B2 JP 5764238B2 JP 2014097545 A JP2014097545 A JP 2014097545A JP 2014097545 A JP2014097545 A JP 2014097545A JP 5764238 B2 JP5764238 B2 JP 5764238B2
Authority
JP
Japan
Prior art keywords
image
steel pipe
shows
steel
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014097545A
Other languages
Japanese (ja)
Other versions
JP2014178328A (en
Inventor
眞人 渡邉
眞人 渡邉
一雄 坂元
一雄 坂元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku Electric Power Co Inc
Kozo Keikaku Engineering Inc
Original Assignee
Tohoku Electric Power Co Inc
Kozo Keikaku Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku Electric Power Co Inc, Kozo Keikaku Engineering Inc filed Critical Tohoku Electric Power Co Inc
Priority to JP2014097545A priority Critical patent/JP5764238B2/en
Publication of JP2014178328A publication Critical patent/JP2014178328A/en
Application granted granted Critical
Publication of JP5764238B2 publication Critical patent/JP5764238B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、鋼管内部腐食解析装置及び鋼管内部腐食解析方法に関し、さらに詳しくは、鋼管鉄塔の鋼管内部を撮影した画像を解析することにより、劣化部分の抽出と劣化評価を行う鋼管内部腐食解析装置及び鋼管内部腐食解析方法に関するものである。   The present invention relates to a steel pipe internal corrosion analysis apparatus and a steel pipe internal corrosion analysis method, and more specifically, a steel pipe internal corrosion analysis apparatus that extracts and evaluates deterioration by analyzing an image of the inside of a steel pipe tower. And a steel pipe internal corrosion analysis method.

送電線設備の鋼管は、経年変化により内部に腐食が発生している場合がある。そのため、定期的に鋼管内部を検査する必要がある。しかし、鋼管鉄塔の鋼管内部腐食は外観からでは確認できないため、経年による劣化減肉を見逃す虞がある。このため、従来から工業用内視鏡等を鋼管内に挿入し、その画像を解析し、劣化程度の定性的判定が行われている。しかし、数mから数十mもの長さとなる鋼管の調査には多大のマンパワーと経験が要求されるばかりでなく、収集した画像から劣化部分を特定して、その劣化の程度を定性的に判定しなければならないため、判定者が異なると判定結果にバラツキが発生すると共に、判定に多大の時間を要するといった問題がある。
この問題を解決するために、特許文献1には、鋼材から成る構造物の発錆状況について定量的な判定を行うことができる発錆状況判定装置について開示されている。これによると、錆色領域にある発錆度ごとの画素占有率を算出し、その結果を出力して発錆状況を判定している。
Steel pipes of power transmission line facilities may have corrosion inside due to aging. Therefore, it is necessary to periodically inspect the inside of the steel pipe. However, the steel pipe internal corrosion of the steel pipe tower cannot be confirmed from the appearance, so there is a risk of overlooking deterioration and thinning over time. For this reason, conventionally, an industrial endoscope or the like is inserted into a steel pipe, the image is analyzed, and a qualitative determination of the degree of deterioration has been performed. However, not only a great deal of manpower and experience is required to investigate steel pipes that are several meters to several tens of meters long, but it also qualitatively determines the degree of deterioration by identifying the deterioration from the collected images. Therefore, there is a problem in that the determination results vary when the determiners are different and a long time is required for the determination.
In order to solve this problem, Patent Document 1 discloses a rusting state determination apparatus capable of quantitatively determining the rusting state of a structure made of steel. According to this, the pixel occupancy rate for each degree of rusting in the rust color area is calculated, and the result is output to determine the rusting status.

特開2005−291984公報JP 2005-291984 A

しかし、特許文献1に開示されている従来技術は、撮影された画像の色から発錆領域の画素占有率を算出しているので、錆とそれ以外の識別が必ずしも正確に行われていないといった問題がある。
本発明は、かかる課題に鑑みてなされたものであり、実際のビデオ画像を元に画像処理による解析を行う際に、前処理により撮影環境をある程度統一させ、条件を統一した後に、劣化度部分の抽出と分類を行うことにより、正確に、且つ効率的に劣化部分の抽出と劣化度評価を行うことができる鋼管内部腐食解析装置、及び鋼管内部解析方法を提供することを目的とする。
However, the conventional technique disclosed in Patent Document 1 calculates the pixel occupancy ratio of the rusting region from the color of the photographed image, so that rust and other identification are not necessarily accurately performed. There's a problem.
The present invention has been made in view of such problems, and when performing analysis by image processing based on an actual video image, the shooting environment is unified to some extent by preprocessing, and after the conditions are unified, the deterioration degree portion It is an object of the present invention to provide a steel pipe internal corrosion analysis apparatus and a steel pipe internal analysis method capable of accurately and efficiently extracting a deteriorated portion and evaluating the deterioration degree by extracting and classifying the steel pipe.

本発明はかかる課題を解決するために、請求項1は、鋼管内画像を解析する鋼管内部腐食解析装置であって、プティカルフローにより推定した前記鋼管の中心部分に基づいて、前記鋼管の中心位置を推定し、前記中心位置に基づいて前記画像をコマ毎に平面展開した展開画像を作成する展開画像作成手段と、前記展開画像をカメラの移動位置に基づいて張り合わせ、前記鋼管の全体の前記展開画像を作成する画像張り合せ手段と、を備え、記鋼管の全体の前記展開画像に対する劣化領域を抽出することを特徴とする。 For the present invention to solve the above problems, claim 1 is a steel tube corrosion analysis system you analyze the image in the steel pipe, based on the center portion of the steel pipe estimated by the O-flop optical flow, estimating a center position of the steel pipe, laminated on the basis of the movement positions of the camera and the developed image forming means, the pre-Symbol deployment image to create an expanded image obtained by planar development of the image in each frame on the basis of the center position, and an image-clad combined means the creating a developed image of the whole of the steel pipe, characterized by the Turkey to extract the degradation region to the entire of the developed image prior Symbol steel.

請求項2は、前記画像の輝度より推定した前記鋼管の開口部と、前記中心部分に基づいて、前記中心位置を推定することを特徴とする。 According to a second aspect of the present invention, the center position is estimated based on the opening of the steel pipe estimated from the luminance of the image and the center portion .

請求項3は、展開画像作成手段画像張り合せ手段を備え、鋼管内画像を解析する鋼管内部腐食解析装置による鋼管内部腐食解析方法であって、前記展開画像作成手段が、プティカルフローにより推定した前記鋼管の中心部分に基づいて、前記鋼管の中心位置を推定し、前記中心位置に基づいて前記画像をコマ毎に平面展開した展開画像を作成するステップと、前記画像張り合せ手段が、前記展開画像をカメラの移動位置に基づいて張り合わせ、前記鋼管の全体の前記展開画像を作成するステップと、
記鋼管の全体の前記展開画像に対する劣化領域を抽出するステップと、を有することを特徴とする。
Claim 3, and an image creating device and an image-clad combined unit deployment, a steel internal corrosion analysis method by the steel tube corrosion analysis system you analyze the images in the steel tube, said expanded image creating device, Oh Estimating a center position of the steel pipe based on a central portion of the steel pipe estimated by optical flow, creating a developed image in which the image is planarly developed for each frame based on the center position; and a step combined unit, bonded based pre Symbol expand image to the moving position of the camera, to create the developed image of the whole of the steel pipe,
Characterized in that it have a, a step that to extract the degradation region to the entire of the developed image prior Symbol steel.

請求項4は、前記画像の輝度より推定した前記鋼管の開口部と、前記中心部分に基づいて、前記中心位置を推定するステップを有することを特徴とする。
Claim 4, the opening of the steel pipe which is estimated from the luminance of the image, based on the central portion, characterized in that it have the step of estimating the center position.

本発明によれば、鋼管内視鏡調査で得られた画像を解析することにより、該鋼管内の劣化部分の抽出及び劣化評価を行う鋼管内部腐食解析装置であって、鋼管中心位置を該鋼管の開口部の輝度とオプティカルフローを用いたカメラ位置推定結果情報を元に推定し、該推定結果を用いてコマ毎の画像を展開した画像を作成する展開画像作成手段と、前記コマ毎の展開画像をカメラの移動位置を元に張り合わせる画像張り合せ手段と、を備え、前記展開画像作成手段により鋼管全体を平面展開した画像を作成し、作成した画像に対する劣化領域を抽出することで、実際の劣化部分の面積や前記鋼管内全体の劣化状況を把握することができる。   According to the present invention, a steel pipe internal corrosion analysis apparatus that extracts and evaluates deterioration of a deteriorated portion in the steel pipe by analyzing an image obtained by an endoscopic inspection of the steel pipe. The image is estimated based on the camera position estimation result information using the brightness of the aperture and the optical flow, and a developed image creating means for creating an image in which the image for each frame is developed using the estimated result, and the development for each frame Image pasting means for pasting images based on the movement position of the camera, creating an image in which the entire steel pipe is flattened by the developed image creating means, and extracting a degradation region for the created image. It is possible to grasp the area of the deteriorated portion of the steel sheet and the deterioration state of the entire steel pipe.

本発明の劣化予測マッピング装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the degradation prediction mapping apparatus of this invention. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 色ムラの補正(1)結果を示す図である。It is a figure which shows the correction | amendment (1) result of a color nonuniformity. 図3の枠内部分の拡大図である。It is an enlarged view of the part in a frame of FIG. 双六角錘モデルを示す図である。It is a figure which shows a bihexagonal-pyramid model. 色補正(双六角錘モデル)の処理手順を示す図である。It is a figure which shows the process sequence of a color correction (bihexagonal pyramid model). 色補正(双六角錘モデル)の結果例を示す図である。It is a figure which shows the example of a result of a color correction (bihexagonal pyramid model). 照明ムラ補正(方法1)の処理手順を示す図である。It is a figure which shows the process sequence of illumination nonuniformity correction (method 1). 照明ムラ補正(方法2)の処理手順を示す図である。It is a figure which shows the process sequence of illumination nonuniformity correction (method 2). 照明ムラ補正の結果例を示す図である。It is a figure which shows the example of a result of illumination nonuniformity correction | amendment. Retinexの結果例を示す図である。It is a figure which shows the example of a result of Retinex. レンズ歪みイメージを示す図である。It is a figure which shows a lens distortion image. 鋼管画像へのレンズ歪み補正結果を示す図である。It is a figure which shows the lens distortion correction result to a steel pipe image. エンボス処理の例を示す図である。It is a figure which shows the example of an embossing process. 図14で用いたフィルタを示す図である。It is a figure which shows the filter used in FIG. 強調表示結果を示す図である。It is a figure which shows an emphasis display result. RGB平均値による7段階分類を示す図である。It is a figure which shows 7 steps | paragraph classification by RGB average value. 劣化度ごとのRGB平均値を示す図である。It is a figure which shows the RGB average value for every deterioration degree. RGBを用いた領域抽出結果を示す図である。It is a figure which shows the area | region extraction result using RGB. 劣化領域の特徴量採取のための画像マスク例を示す図である。It is a figure which shows the example of an image mask for the feature-value collection of a degradation area | region. UCS座標系による劣化度分布を示す図である。It is a figure which shows the deterioration degree distribution by a UCS coordinate system. RGBからYIQ変換例を示す図である。It is a figure which shows the example of YIQ conversion from RGB. YIQに変換した画像例を示す図である。It is a figure which shows the example of an image converted into YIQ. YIQによる赤錆抽出例を示す図(その1)である。It is FIG. (1) which shows the example of red rust extraction by YIQ. YIQによる赤錆抽出例を示す図(その2)である。It is a figure (the 2) which shows the example of red rust extraction by YIQ. サンプルより抜粋した画像ファイルの一覧を示す図である。It is a figure which shows the list of the image file extracted from the sample. 抜粋した画像の劣化度分布(I−明度)を示す図である。It is a figure which shows the degradation degree distribution (I-lightness) of the extracted image. 明度正規化処理を示す図である。It is a figure which shows a brightness normalization process. 明度補正比較を示す図である。It is a figure which shows a brightness correction | amendment comparison. 補正対象画像のバリエーションを示す図である。It is a figure which shows the variation of a correction object image. 主観分類によるパラメータを示す図である。It is a figure which shows the parameter by subjective classification. 主観分類による分類の一致度を示す図である。It is a figure which shows the coincidence degree of the classification | category by subjective classification. サポートベクターマシンのイメージを示す図である。It is a figure which shows the image of a support vector machine. サポートベクターマシンの利用構成を示す図である。It is a figure which shows the utilization structure of a support vector machine. サポートベクターマシンによる分類の一致度を示す図である。It is a figure which shows the coincidence degree of the classification | category by a support vector machine. AdaBoostによる分類の一致度を示す図である。It is a figure which shows the coincidence degree of the classification | category by AdaBoost. 分類方式による一致度比較を示す図である。It is a figure which shows the matching degree comparison by a classification system. プロトタイプの構成を示す図である。It is a figure which shows the structure of a prototype. No2−32劣化度分類結果(主観分類による)を示す図である。It is a figure which shows No2-32 degradation degree classification result (by subjective classification). No3−04劣化度分類結果(主観分類による)を示す図である。It is a figure which shows No3-04 degradation classification result (by subjective classification). No2−32劣化度分類結果(AdaBoostによる)を示す図である。It is a figure which shows No2-32 degradation degree classification result (by AdaBoost). No3−04劣化度分類結果(AdaBoostによる)を示す図である。It is a figure which shows No3-04 degradation classification result (by AdaBoost). No2−32劣化度分類結果(サポートベクターマシンによる)を示す図である。It is a figure which shows No2-32 degradation classification result (by support vector machine). No3−04劣化度分類結果(サポートベクターマシンによる)を示す図である。It is a figure which shows No3-04 degradation classification result (by a support vector machine). 劣化度分類結果を示す図である。It is a figure which shows a degradation degree classification result. 平面展開例を示す図である。It is a figure which shows the example of plane expansion | deployment. 鋼管中心位置の推定イメージを示す図である。It is a figure which shows the presumed image of the steel pipe center position. 動画像再生プログラム構成を示す図である。It is a figure which shows a moving image reproduction program structure. 動画再生例を示す図である。It is a figure which shows the example of a moving image reproduction. 鋼管展開画像に対する劣化度判定結果を示す図である。It is a figure which shows the deterioration degree determination result with respect to a steel pipe expansion | deployment image. 異物領域抽出結果例を示す図である。It is a figure which shows the example of a foreign material area | region extraction result. (A)は劣化度判定結果の比較結果を示す図、(B)は鋼管展開画像に対する劣化度判定結果を示す図である。(A) is a figure which shows the comparison result of a deterioration degree determination result, (B) is a figure which shows the deterioration degree determination result with respect to a steel pipe expansion | deployment image. (a)は鋼管全体の凹凸推定結果(等高線表示)を示す図、(b)は鋼管全体の凹凸推定結果(3D表示)を示す図である。(A) is a figure which shows the unevenness | corrugation estimation result (contour line display) of the whole steel pipe, (b) is a figure which shows the unevenness | corrugation estimation result (3D display) of the whole steel pipe.

以下、本発明を図に示した実施形態を用いて詳細に説明する。但し、この実施形態に記載される構成要素、種類、組み合わせ、形状、その相対配置などは特定的な記載がない限り、この発明の範囲をそれのみに限定する主旨ではなく単なる説明例に過ぎない。   Hereinafter, the present invention will be described in detail with reference to embodiments shown in the drawings. However, the components, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely illustrative examples and not intended to limit the scope of the present invention only unless otherwise specified. .

図1は本発明の鋼管内部腐食解析装置のハードウェア構成の一例を示すブロック図である。本発明に係る鋼管内部腐食解析装置100は、一般的なコンピュータのハードウェア構成と同様に、プログラムに従って順次処理を行うCPU(中央演算処理装置)と、プログラム又は普遍的なデータを格納するROM(読出し専用メモリ)と、一次的にデータを記憶したり、そのデータを読み出してCPUに供給するRAM(随時アクセスメモリ)と、大量のデータを格納するデータベース(DB)4と、キーボード及びマウス等の入力装置によりデータを入力する入力部5と、マッピングデータを表示する出力部6と、各部を接続するバス7と、を備えて構成されている。尚、CPU、ROM、RAMを制御部8とする。また、本発明は、上述した実施形態のみに限定されたものではない。上述した実施形態の鋼管内部腐食解析装置100を構成する各機能をそれぞれプログラム化し、あらかじめCD−ROM等の記録媒体に書き込んでおき、コンピュータに搭載したCD−ROMドライブのような媒体駆動装置にこのCD−ROM等を装着して、これらのプログラムをコンピュータのメモリあるいは記憶装置に格納し、それを実行することによって、本発明の目的が達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラム自体が上述した実施形態の機能を実現することになり、そのプログラムおよびそのプログラムを記録した記録媒体も本発明を構成することになる。   FIG. 1 is a block diagram showing an example of a hardware configuration of a steel pipe internal corrosion analysis apparatus of the present invention. The steel pipe internal corrosion analysis apparatus 100 according to the present invention has a CPU (central processing unit) that sequentially performs processing according to a program and a ROM that stores programs or universal data (similar to a general computer hardware configuration). A read-only memory), a RAM (temporary access memory) that temporarily stores data and reads the data and supplies it to the CPU, a database (DB) 4 that stores a large amount of data, a keyboard and a mouse, etc. An input unit 5 for inputting data by an input device, an output unit 6 for displaying mapping data, and a bus 7 for connecting the respective units are provided. Note that the CPU, ROM, and RAM serve as the control unit 8. Further, the present invention is not limited only to the above-described embodiments. Each function constituting the steel pipe internal corrosion analysis apparatus 100 of the above-described embodiment is programmed, written in advance on a recording medium such as a CD-ROM, and this is stored in a medium driving apparatus such as a CD-ROM drive mounted on a computer. It goes without saying that the object of the present invention is achieved by mounting a CD-ROM or the like, storing these programs in a memory or storage device of a computer, and executing them. In this case, the program itself read from the recording medium realizes the functions of the above-described embodiment, and the program and the recording medium recording the program also constitute the present invention.

この鋼管内部腐食解析装置100は、鋼管内視鏡調査で得られた画像を解析することにより、該鋼管内の劣化部分の抽出及び劣化評価を行う鋼管内部腐食解析装置100であって、プログラムに従って順次処理を行うCPUと、プログラム及びデータを格納するROMと、一次的にデータを記憶し、該記憶したデータを読み出してCPUに供給するRAMと、を有する制御部8は、様々な条件下で得られた画像から撮影条件の相違点を除去する前処理手段10と、劣化部分を予備的に抽出する劣化部分予備抽出手段11と、前処理手段10により撮影条件を統一し、且つ劣化部分予備抽出手段11により得られた抽出結果に基づいて、画像に対して劣化度ごとの領域を抽出及び分類する劣化部分抽出分類手段12と、実際にプロトタイプを作成して劣化領域の抽出結果の検証と評価を行う劣化領域検証評価手段14と、劣化領域検証評価手段14により検証評価された劣化領域を表示する表示処理手段15と、を備えて構成されている。
本発明で使用した撮影画像は工業用内視鏡にて撮影された動画像と、その中から劣化部分を抜き出した静止画像である。図3にその一部を示す。図2(a)〜(d)が劣化度II〜Vに対応する。
色味について全体的に青っぽくなっているもの(特に開口部)(A部)が多く見られるが、赤味を帯びたもの(B部)も一部見受けられる。また、光量不足により暗い部分ではRGBのいずれかの値が明るく見えるCCDノイズも散見している。
画像全体の明るさ(明度)については、撮影時の照明と対象物の距離によってかなり偏りが見られる。極端な場合には照明が鋼管側面に近づくと完全に白く飛んでいる部分がある。
This steel pipe internal corrosion analysis apparatus 100 is a steel pipe internal corrosion analysis apparatus 100 that extracts and evaluates deterioration of a deteriorated portion in the steel pipe by analyzing an image obtained by a steel pipe endoscopic survey. A control unit 8 having a CPU that performs sequential processing, a ROM that stores programs and data, and a RAM that temporarily stores data, reads the stored data, and supplies the RAM to the CPU, under various conditions. The preprocessing means 10 for removing the difference in the photographing conditions from the obtained image, the deteriorated part preliminary extracting means 11 for preliminarily extracting the deteriorated part, and the preprocessing means 10 unify the photographing conditions, and the deteriorated part preparatory part. Based on the extraction result obtained by the extraction unit 11, a degraded part extraction / classification unit 12 that extracts and classifies an area for each degree of degradation from an image, and a prototype is actually created. The degradation region verification evaluation unit 14 that verifies and evaluates the extraction result of the degradation region and the display processing unit 15 that displays the degradation region verified and evaluated by the degradation region verification evaluation unit 14 are configured. .
The captured images used in the present invention are a moving image captured by an industrial endoscope and a still image obtained by extracting a deteriorated portion from the moving image. A part of it is shown in FIG. 2A to 2D correspond to the degradation degrees II to V. FIG.
Many of the colors are particularly bluish (especially openings) (part A), but some are reddish (part B). In addition, there are some CCD noises where one of the RGB values appears bright in dark areas due to insufficient light quantity.
The brightness (brightness) of the entire image is considerably biased depending on the distance between the illumination and the object at the time of shooting. In extreme cases, there is a part that is completely white when the lighting approaches the side of the steel pipe.

次に、光量不足時に多く見られる色ムラを軽減する色補正について説明する。
まずRGB画像を一度HSV(色相、彩度、明度)の色空間に変換し、このうちH(色相)とS(彩度)にぼかし効果(ローパスフィルター)を施した。これは写真加工等において良く用いられる手法である。
処理手順を以下に示す。
1)RGBをHSVに変換する。
RGB→HSV変換式:
MAXがRGB(r,g,b)のうち最大の値に、MINをRGB(r,g,b)のうち最小の値とすると、
MAXがrの場合:H=60*(g−b)/(MAX−MIN)+0
MAXがgの場合:H=60*(b−r)/(MAX−MIN)+120
MAXがbの場合:H=60*(r−g)/(MAX−MIN)+240
S=(MAX−MIN)/MAX
V=MAX
2)HとSの画像に対して各画素近傍5x5の画素値の平均を求めて、新たな画素値とする(ローパスフィルタ)。
3)HSVをRGBに変換する。
HSV→RGB変換式:
Hi=(60/H)%6(%は割った余りを意味する)
f=H/60−Hi
p=V(1−S)
q=V(1−fS)
t=V(1−(1−f)S)
Hiが0の場合:r=V,g=t,b=p
Hiが1の場合:r=q,g=V,b=p
Hiが2の場合:r=p,g=V,b=t
Hiが3の場合:r=p,g=q,b=V
Hiが4の場合:r=t,g=p,b=V
Hiが5の場合:r=V,g=p,b=q
Next, color correction for reducing color unevenness that is often seen when the amount of light is insufficient will be described.
First, the RGB image was once converted into a HSV (hue, saturation, brightness) color space, and H (hue) and S (saturation) were subjected to a blurring effect (low-pass filter). This is a technique often used in photographic processing and the like.
The processing procedure is shown below.
1) Convert RGB to HSV.
RGB → HSV conversion formula:
When MAX is the maximum value of RGB (r, g, b) and MIN is the minimum value of RGB (r, g, b),
When MAX is r: H = 60 * (g−b) / (MAX−MIN) +0
When MAX is g: H = 60 * (b−r) / (MAX−MIN) +120
When MAX is b: H = 60 * (r−g) / (MAX−MIN) +240
S = (MAX-MIN) / MAX
V = MAX
2) For the H and S images, the average of the pixel values in the vicinity of each pixel 5 × 5 is obtained and set as a new pixel value (low-pass filter).
3) Convert HSV to RGB.
HSV → RGB conversion formula:
Hi = (60 / H)% 6 (% means the remainder divided)
f = H / 60-Hi
p = V (1-S)
q = V (1-fS)
t = V (1- (1-f) S)
When Hi is 0: r = V, g = t, b = p
When Hi is 1: r = q, g = V, b = p
When Hi is 2: r = p, g = V, b = t
When Hi is 3: r = p, g = q, b = V
When Hi is 4: r = t, g = p, b = V
When Hi is 5: r = V, g = p, b = q

図3に上記手法の適応例を示す。図3の(a)〜(d)で、左が補正前、右が補正後の画像である。一見したところ大きな変化は見られないが、図3(c)のA部、B部を拡大すると、図4のようにCCDノイズが低減できていることが確認できる。
前出の色補正(1)は局所的な色ムラを補正するものであり、カメラの色バランス特性に起因すると思われる、全体的な色のずれ(青みの強い映像)を補正することはできない。ここでは双六角錘モデルを用いて画像全体の色味を補正した。図5は双六角錘モデルを表す図である。双六角錘モデルは六角錘を上下重ね合わせた形をした色空間であり、六角錘の底辺に相当する六角形がH(色相)を表し、六角錘の先端部が明度を表している。
FIG. 3 shows an application example of the above method. In (a) to (d) of FIG. 3, the left is an image before correction and the right is an image after correction. At first glance, no significant change is seen, but it can be confirmed that the CCD noise can be reduced as shown in FIG. 4 by enlarging the A part and the B part in FIG.
The previous color correction (1) corrects local color unevenness, and cannot correct the overall color shift (a strong blue image) that seems to be caused by the color balance characteristics of the camera. . Here, the color of the entire image was corrected using a bihexagonal spindle model. FIG. 5 is a diagram showing a bihexagonal spindle model. The bihexagonal weight model is a color space in which hexagonal weights are stacked one above the other. The hexagon corresponding to the base of the hexagonal weight represents H (hue), and the tip of the hexagonal weight represents lightness.

図6を用いて以下に色補正の手順を示す:
1)0から255の範囲の値を持つRGB値のうち、RGB全てが120−200に収まる画素を取得(値は複数毎の結果より決定した)。
2)1)の画素の平均値(avrR,avrG,avrB)を計算。
3)2)の結果をHSV変換し明度を求める(avrR,avrG,avrB)−>明度avrV。
4)同じ明度(avrV)を持ち、色相なし(H=任意)、彩度(S=0)をRGB(nR,nG,nB)に変換する(彩度0なので変換後のRGB値は全て同じ値となる)。
5)元画像のRGB平均値(avrR,avrG,avrB)をこのRGB(nR,nG,nB)にするための変換比率rateR=nR/avrRrateG=nG/avrG。
6)変換比率を全ての画素に対し、掛け合わせることで補正(ただし結果は0−255の範囲に収まるように切りつめる)。
本手法の基本的な考えは、画像全体の色相(色味)の偏りを求めて、これを色相中心へ補正することで全体的な色味の偏りを除去するものである。
The color correction procedure is shown below using FIG.
1) Of the RGB values having a value in the range of 0 to 255, obtain a pixel in which all of RGB falls within 120-200 (values are determined from the results for each of the plurality).
2) Calculate the average value (avrR, avrG, avrB) of the pixels in 1).
3) The result of 2) is subjected to HSV conversion to obtain brightness (avrR, avrG, avrB)-> lightness avrV.
4) Converts RGB (nR, nG, nB) to RGB (nR, nG, nB) having the same lightness (avrV), no hue (H = arbitrary), and saturation (S = 0), so all converted RGB values are the same Value).
5) Conversion ratio rateR = nR / avrRateG = nG / avrG for converting the RGB average value (avrR, avrG, avrB) of the original image into this RGB (nR, nG, nB).
6) Correction is performed by multiplying all pixels with the conversion ratio (however, the result is trimmed so that it falls within the range of 0-255).
The basic idea of this method is to obtain the hue (hue) bias of the entire image and correct it to the center of the hue to remove the overall hue bias.

図7に本手法を施した結果例を示す。(a)は補正前、(b)は本発明による手法、(c)は比較のために代表的な画像編集ソフトであるAdobe社のPhotoShop(登録商標)で自動補正した結果を示す。
全体の色味(例えば青みが強い)は(b)の本手法、(c)のPhotoShopの自動補正共に改善されている。ただしPhotoShopの自動補正では明度も同時に自動補正されている。
本手法はローパスフィルタを用いたノイズ除去手法が局所的なCCDノイズに有効であるのに対して、画像全体の色調を補正する効果があるといえる。
FIG. 7 shows an example of the result of applying this method. (A) is before correction, (b) is a method according to the present invention, and (c) is a result of automatic correction by Adobe Photoshop (registered trademark), which is a typical image editing software, for comparison.
The overall color (for example, strong bluishness) is improved both in the present method of (b) and the automatic correction of PhotoShop in (c). However, in the automatic correction of PhotoShop, the brightness is also automatically corrected at the same time.
This method is effective for correcting the color tone of the entire image, while the noise removal method using a low-pass filter is effective for local CCD noise.

照明ムラを除去する方法として、図8の方法1、図9の方法2の2種類の手法を適応する。
方法1:画像をブロック分割し、各ブロックの明度が等しくなるように補正する。
1)画像をRGBからHSVに変換する。
2)HSVに変換した画像を15x15のブロック毎に分割し、それぞれの明度(V)の平均(avrVi,j)を求める(突出した値を除去するため、平均を求める際に標準偏差35から65の範囲の値を使用する)。
3)画像全体の平均明度(avrVall)を求める。
4)ブロック毎に明度補正比率rateVi,j=avrVall/avrVi,jを求め、画像内の全ての画素の明度を更新する(このとき隣接するブロックavrVi±1,j±1を用いて各画素の補正比率を内挿する)。
5)HSV画像RGB画像に変換する。
As a method for removing the illumination unevenness, two methods of method 1 in FIG. 8 and method 2 in FIG. 9 are applied.
Method 1: The image is divided into blocks and corrected so that the brightness of each block is equal.
1) Convert the image from RGB to HSV.
2) The image converted into HSV is divided into 15 × 15 blocks, and the average (avrVi, j) of each lightness (V) is obtained (in order to remove the prominent values, the standard deviation 35 to 65 is obtained when obtaining the average) Use a range value).
3) Obtain the average brightness (avrVall) of the entire image.
4) The brightness correction ratio rateVi, j = avrVall / avrVi, j is obtained for each block, and the brightness of all the pixels in the image is updated (at this time, the adjacent blocks avrVi ± 1, j ± 1 are used to update each pixel). Interpolate the correction ratio).
5) Convert to HSV image RGB image.

方法2:着目ピクセルを中心としたブロックの明度が画像全体の明度に等しくなるよう補正する。
1)画像をRGBからHSVに変換する。
2)Vの画像全体の平均明度avrVallを求める。
3)Vの画像に対して、各画素Vi,jの15x15の周辺画素の平均明度avrVi,jを求める。
4)補正後の明度V’i.jをVi,j−(avrVi,j−avrVall)とする。
5)HSV画像をRGB画像に変換する。
Method 2: Correction is performed so that the brightness of the block centered on the pixel of interest is equal to the brightness of the entire image.
1) Convert the image from RGB to HSV.
2) Obtain the average brightness avrVall of the entire V image.
3) For the V image, obtain the average brightness avrVi, j of the 15 × 15 surrounding pixels of each pixel Vi, j.
4) Lightness after correction V′i. Let j be Vi, j- (avrVi, j-avrVall).
5) Convert the HSV image to an RGB image.

図10に方法1と方法2を適応した結果を示す。図10(a)は元画像、(b)は方法1、(c)は方法2である。
方法1は比較的照明ムラが除去できている。方法2も照明ムラは除去できているが、その他の劣化部分の特徴的な濃淡まで均一化されている。
階調補正を目的として、近年着目されている手法にRetinex理論がある。これは入力画像を照明光と物体の反射率の積で表されるとし、入力画像から照明光を分離することで反射率画像を補正画像として得られるものである。
FIG. 10 shows the result of applying Method 1 and Method 2. 10A shows the original image, FIG. 10B shows method 1, and FIG. 10C shows method 2.
Method 1 can relatively remove illumination unevenness. In Method 2, illumination unevenness can be removed, but the characteristic shades of other deteriorated portions are uniformed.
For the purpose of tone correction, Retinex theory is a method that has been attracting attention in recent years. It is assumed that the input image is represented by the product of the illumination light and the reflectance of the object, and the reflectance image is obtained as a corrected image by separating the illumination light from the input image.

図11に画像編集ソフトGIMP2に備わるRetinex処理を行った例を示す。(a)は元画像、(b)はRetinexパラメータ1、(c)はRetinexパラメータ2、(d)は比較のために照明ムラ補正(画像内明度均一化)の方法1の結果である。
GIMP2はAdobe社のPhotoShopの様な画像加工ツールの一つである。
Retinexパラメータ1:目盛り=240、目盛り分割=3、動的=1.2(デフォルト値)
Retinexパラメータ2:目盛り=120、目盛り分割=3、動的=0.8
図11の上段の画像ではRetinexパラメータ2がほぼベストの状態となったが、下段の画像ではRetinexパラメータ2よりはデフォルトのRetinexパラメータ1がほぼベストの状態である。
傾向として以下の点が挙げられる:
・陰の部分は均一化されるが、全体的に色味が抜けた感じとなる。
・色味を出すためにパラメータを変更するとカメラノイズが強調されてしまう。
FIG. 11 shows an example of performing Retinex processing provided in the image editing software GIMP2. (A) is the original image, (b) is the Retinex parameter 1, (c) is the Retinex parameter 2, and (d) is the result of method 1 of illumination unevenness correction (lightness uniformity in the image) for comparison.
GIMP2 is one of image processing tools such as Adobe PhotoShop.
Retinex parameter 1: Scale = 240, Scale division = 3, Dynamic = 1.2 (default value)
Retinex parameter 2: Scale = 120, Scale division = 3, Dynamic = 0.8
In the upper image in FIG. 11, the Retinex parameter 2 is almost the best state, but in the lower image, the default Retinex parameter 1 is almost the best state than the Retinex parameter 2.
Trends include the following:
・ The shaded area is made uniform, but the overall color is lost.
・ Camera noise is emphasized when parameters are changed to produce color.

図12はレンズ歪みイメージを表す図である。
通常、カメラ等を用いた撮影画像は映像周辺が膨張したように歪んだものとなる。これはレンズが広角対応になるほど顕著となる(魚眼レンズが顕著な例)。一般的な画像処理、特に物体の位置等を計測する場合には、このレンズ歪みを補正することは不可欠である。今回の鋼管内部の撮影用でもレンズ歪みの補正が必要であるかを確認する。
レンズ歪み補正(キャリブレーション)の手法には校正版等を用いて厳密に行う方法があるが、実際の現場での作業は手間がかかり現実的ではないため、簡易方法を採用した。
本手法の原理はまずレンズ1が球面であると仮定する。撮影対象物の映像(光)はこのレンズ面を通過する際に屈折してCCD面3に到達、映像として記録される。そこで図12(a)の様に撮影画像(青のライン上の画素)3を実際の絵(緑のライン上の画素)2に移動する処理を行うことで、レンズ歪みを補正できる。
FIG. 12 shows a lens distortion image.
Usually, a photographed image using a camera or the like is distorted so that the periphery of the video is expanded. This becomes more conspicuous as the lens becomes compatible with a wide angle (a fisheye lens is an example). In general image processing, particularly when measuring the position of an object, it is indispensable to correct this lens distortion. We will check whether correction of lens distortion is necessary even for shooting inside the steel pipe.
Although there is a method of strict correction using a calibration plate or the like as a method for correcting lens distortion (calibration), a simple method is adopted because work in an actual site is laborious and impractical.
The principle of this method assumes that the lens 1 is spherical. The image (light) of the object to be imaged is refracted when passing through this lens surface, reaches the CCD surface 3 and is recorded as an image. Therefore, the lens distortion can be corrected by performing a process of moving the captured image (pixels on the blue line) 3 to the actual picture (pixels on the green line) 2 as shown in FIG.

図13に実際の鋼管内部を撮影した画像に対してレンズ歪み補正処理を行った結果を示す。(a)は補正前画像、(b)は補正後画像を示す。もともと円柱状となっている鋼管内部を撮影しているため、見かけ上の画像周辺の映像の歪みは見られない。むしろ補正のために周辺部を引き延ばすために画像の劣化(低解像度化)が発生する。後述する平面図への展開処理でも同様の画像の劣化が発生することを考えると、平面図展開の処理のみを行った方が良好な結果が得られる場合が多い。
劣化部分の自動抽出に必ずしも直接寄与するものではないが、検査画像を人が見て判り易くすることで自動抽出結果の確認も含めて、全体の診断効率アップが期待できる。ここでは、疑似立体表示の手法を用いた撮影画像の強調表示を試みる。図14はエンボス処理の例を示す図であり、図15はエンボスフィルタを示す図である。
疑似立体表示に用いられる手法として、いわゆるエンボス処理がある。これは画像の領域のエッジ部分に着目して、エッジの左上方向の画像を明るく、右下方向を暗くすることでその領域を立体的に浮き上がらせる物である。
エンボス処理にはいくつかの手法があるが、今回は図15のエンボスフィルタ処理を用いた。これは図14のように画像の各画素とその周辺画素に対して、上記パラメータを掛けて合計したものを新たにその画素の値とするものである。これにより輝度変化のある部分(例えば腐食領域の境界)などが立体的に強調されて見える。
FIG. 13 shows the result of lens distortion correction processing performed on an image obtained by photographing the actual inside of a steel pipe. (A) shows an image before correction, and (b) shows an image after correction. Since the inside of the steel pipe, which is originally cylindrical, is taken, there is no apparent distortion around the image. Rather, image degradation (lower resolution) occurs because the peripheral portion is extended for correction. Considering that the same image deterioration occurs in the development process for a plan view described later, it is often possible to obtain a better result by performing only the plan view development process.
Although it does not necessarily contribute directly to the automatic extraction of the deteriorated part, it is expected to improve the overall diagnosis efficiency including confirmation of the automatic extraction result by making the inspection image easy for humans to understand. Here, an attempt is made to highlight a captured image using a pseudo-stereoscopic display technique. FIG. 14 is a diagram showing an example of embossing processing, and FIG. 15 is a diagram showing an embossing filter.
There is a so-called embossing process as a technique used for pseudo-stereoscopic display. This focuses on the edge portion of the image area and brightens the image in the upper left direction of the edge and darkens the lower right direction to make the area rise three-dimensionally.
There are several methods for embossing, but this time the embossing filter processing of FIG. 15 was used. As shown in FIG. 14, each pixel of an image and its peripheral pixels are multiplied by the above parameters and added to obtain a new value for the pixel. As a result, a portion with a change in luminance (for example, the boundary of the corrosion region) or the like appears to be three-dimensionally emphasized.

図16に実際の撮影画像に適応した例を示す。明らかに処理前の画像と比較して、劣化部分が強調され認識しやすくなっており、効果が認められる。
「画像解析による溶融亜鉛めっき鋼材表面の劣化度評価に関する研究」ではNTTによる4段階の劣化度見本に代わり図17のように7段階の劣化度見本を作成し、これを評価基準として採用した。劣化度見本のもととなった試験体の平行部分から、連続した小領域を抽出し、それぞれのRGBの平均値を求め、RGB3次元上にプロットしたものである。
FIG. 16 shows an example adapted to an actual captured image. Obviously, compared with the image before processing, the deteriorated portion is emphasized and easily recognized, and the effect is recognized.
In “Study on Degradation Evaluation of Hot-Dip Galvanized Steel Surface by Image Analysis”, a seven-stage deterioration degree sample was created as shown in FIG. 17 instead of the four-stage deterioration degree sample by NTT, and this was adopted as an evaluation standard. A continuous small area is extracted from the parallel part of the specimen that is the basis of the deterioration degree sample, and an average value of each RGB is obtained and plotted on the three-dimensional RGB.

図18に上記論文で使用している劣化度毎のRGB平均値を示す(値はRGB3次元プロット図より採取したため、必ずしも正確ではない)。この7段階の劣化度では劣化度I〜Vが白さびに、劣化度VIとVIIが赤さびに対応していることが判る。
図19にこのRGB平均値を用いて、サンプル画像に対して領域抽出を行った結果を示す(この図の画像左にある劣化度表示はサンプル画像に対する5段階の手作業による診断結果であり、RGB平均値を用いた7段階分類とは異なることに注意。7段階の分類結果は図19下の「抽出劣化部分凡例」を参照)。
RGB平均値による抽出方法は以下に示す通り。
1)対象となる画像の各画素のRGB値を求める。
2)RGB値が図18に示す、どの劣化度のRGB平均値に一致するかを判断する。
・このときRGB値の許容誤差は±20とし、複数の劣化度RGB平均値±20に含まれる場合には、RGB平均値に近い方を採用する。
・たとえばある画素のRGBが(130,130,140)であれば、その画素は劣化度IIIに相当すると判断する。
FIG. 18 shows the average RGB values for each degree of deterioration used in the above paper (values are not necessarily accurate because they are collected from RGB three-dimensional plots). It can be seen that the deterioration levels I to V correspond to white rust, and the deterioration levels VI and VII correspond to red rust.
FIG. 19 shows the result of region extraction performed on the sample image using this RGB average value (the degradation level display on the left side of the image in FIG. 19 is a diagnosis result of five steps on the sample image, Note that this is different from the 7-level classification using RGB average values (see “Extraction Degradation Partial Legend” at the bottom of FIG. 19).
The extraction method using RGB average values is as follows.
1) The RGB value of each pixel of the target image is obtained.
2) It is determined to which RGB degree the RGB value matches the RGB value shown in FIG.
At this time, the allowable error of the RGB value is ± 20, and when it is included in the plurality of average RGB values ± 20, the one closer to the RGB average value is adopted.
For example, if RGB of a certain pixel is (130, 130, 140), it is determined that the pixel corresponds to the degree of deterioration III.

結果をみると、劣化度の低い白さび部分はそれなりに抽出できているが、赤さび部分(5段階評価での劣化度でVI、VII)はうまく抽出できていない。その理由は図17と抽出に用いた画像の劣化部分を比較すると、RGB分類による劣化度VI、VIIの色は実際の画像の腐食部分よりも明るめであるため、腐食が進行してほとんど黒くなった部分とは一致しないためである。
RGB平均値が鋼管内部を撮影したサンプル画像の劣化部分と比較して、全体的に明るいことから、当該論文は鋼管内部ではなく、外部に露出した鉄塔表面部分を対象としていると推察できる。
「自己組織化特徴マップを用いた鋼材表面の劣化度評価システム」ではUCS座標系(y,u,v)の色空間と経験的分類を自己組織化マップを用いて定量化したパターンとを結び付けている。
UCS(Uniform Chromaticity Scale)は、色に関する眼の非線形性を補正するとともに、使用CRTで表示することのできる最大色空間を用いる表示法である。人間は、青の近辺ではわずかな色度差でも感知できるが、緑の近辺では大きな色度差がないと色の違いが感知できない非線形性をもつ。この色度差が感覚的な色の性質の差に比例するような色空間を均等知覚空間といい、この空間を用いた表示系がUCS表色系である。
From the results, the white rust portion having a low degree of deterioration can be extracted as it is, but the red rust portion (VI, VII in terms of the deterioration degree in the five-step evaluation) cannot be extracted well. The reason for this is that comparing the deteriorated portion of the image used in the extraction with FIG. 17, the deterioration degrees VI and VII colors according to the RGB classification are brighter than the corroded portion of the actual image, so the corrosion progresses and becomes almost black. This is because the portion does not match.
Since the RGB average value is bright overall as compared with the deteriorated portion of the sample image obtained by photographing the inside of the steel pipe, it can be inferred that the paper is not on the inside of the steel pipe but on the surface of the steel tower exposed to the outside.
The steel surface degradation assessment system using self-organizing feature maps combines the UCS coordinate system (y, u, v) color space with patterns quantified using self-organizing maps. ing.
UCS (Uniform Chromaticity Scale) is a display method that corrects the non-linearity of the eye with respect to color and uses the maximum color space that can be displayed by the CRT used. Humans can detect even a slight chromaticity difference in the vicinity of blue, but have non-linearity that cannot detect a color difference unless there is a large chromaticity difference in the vicinity of green. A color space in which this chromaticity difference is proportional to the difference in sensory color properties is called a uniform perception space, and a display system using this space is the UCS color system.

また、自己組織化マップはニューラルネットワークの一種で多次元のデータを2次元に写像することが可能であり、高次元空間の情報の可視化などに用いられるものである。
ここではUCS表色系の有効性について検討した。まず劣化画像のサンプルとして、後述する図26のサンプル画像(91枚)の劣化領域毎の特徴量(RGB)を採取する。
サンプル画像(91枚)からの劣化領域毎特徴量採取は以下の様に行った。
1)画像の劣化している部分の領域に対してマスク画像を手作業で作成する(図20(a)〜(d))。
2)1)の領域の各画素のRGB値を求め、領域全体の平均値を求める。→劣化領域毎特徴量
3)以上を91枚それぞれの画像に対して行う。
次に、以下のRGB(r,g,b)からUCS(u,v,y)への変換式により、採取された劣化領域毎特徴量(RGB)をUCSへ変換する。
u=4x/(−2x+12y+3)
v=9y/(−2x+12y+3)
x=(0.49000r+0.31000g+0.2000b)/m
y=(0.1769r+0.81240g+0.01063b)/m
z=(0.00000r+0.01000g+0.99000b)/m
m=0.66697r+1.13240g+1.20063b
図21に91枚の画像から採取したUCS平均値をマッピングした。
結果は劣化度III、IV、Vはかなり入り混じっており、UCS座標系だけでは明確な分類ができているとはいい難い。
A self-organizing map is a kind of neural network that can map multi-dimensional data in two dimensions and is used for visualization of information in a high-dimensional space.
Here, the effectiveness of the UCS color system was examined. First, as a deteriorated image sample, feature values (RGB) for each deteriorated region of a sample image (91 sheets) shown in FIG.
The feature amount collection for each deteriorated area from the sample images (91 sheets) was performed as follows.
1) A mask image is manually created for an area of a degraded part of the image (FIGS. 20A to 20D).
2) The RGB value of each pixel in the area 1) is obtained, and the average value of the entire area is obtained. → Characteristic quantity for each degraded area 3) The above process is performed for each of the 91 images.
Next, the collected feature quantity (RGB) for each deteriorated region is converted into UCS by the following conversion formula from RGB (r, g, b) to UCS (u, v, y).
u = 4x / (-2x + 12y + 3)
v = 9y / (-2x + 12y + 3)
x = (0.49000r + 0.31000g + 0.2000b) / m
y = (0.1769r + 0.81240 g + 0.01063b) / m
z = (0.00000r + 0.01000g + 0.99000b) / m
m = 0.66697r + 1.13240g + 1.20063b
In FIG. 21, the UCS average values collected from 91 images are mapped.
As a result, the degradation degrees III, IV, and V are mixed, and it is difficult to say that the classification is clear only by the UCS coordinate system.

YIQ色空間はテレビ映像の規格のひとつであるNTSCで基準として使用されている表色系である。特徴としては人間の目に区別しやすい肌色系(オレンジからシアン)の色信号をI軸に取り、区別しにくい寒色系(緑からマゼンタ)の色信号をQ軸に取っている(Yは輝度を示す)。
以下にRGB色空間(r,g,b)からYIQ色空間(y,i,q)への変換式を示す。
y=0.299r+0.587g+0.114b
i=0.596r−0.274g−0.322b
q=0.211r−0.522g+0.311b
The YIQ color space is a color system used as a standard in NTSC, which is one of the standards for television images. The feature is that the skin color system (orange to cyan) that is easy to distinguish for human eyes is taken on the I axis, and the cold color system (green to magenta) that is difficult to distinguish is taken on the Q axis (Y is luminance) Showing).
The conversion formula from the RGB color space (r, g, b) to the YIQ color space (y, i, q) is shown below.
y = 0.299r + 0.587g + 0.114b
i = 0.596r−0.274g−0.322b
q = 0.211r-0.522g + 0.311b

図22にYIQ変換の例として全色相をもったRGB画像をYIQに変換した例を示す。図23は撮影画像をYIQに変換した例を示す図である。
いくつかの画像に対してIの値を変化させながら領域抽出を試みた結果、I=0.05以上の閾値で比較的赤さび領域が抽出できることが判った。図24、図25に抽出例を示す。(a)は元画像、(b)はIを0〜最大値で正規化した画像、(c)はIが0.05以上の領域を表す図である。なおIの値は表示のために0〜最大値をRGBの0〜255へ正規化して表示している。
赤みのやや薄い部分、白さびには対応できていないが、それ以外の目立つ赤さび領域(劣化度III以上程度)についてはほぼ抽出できている。
FIG. 22 shows an example of converting an RGB image having all hues into YIQ as an example of YIQ conversion. FIG. 23 is a diagram showing an example of converting a captured image into YIQ.
As a result of region extraction while changing the value of I for several images, it was found that a relatively red rust region can be extracted with a threshold value of I = 0.05 or more. 24 and 25 show examples of extraction. (A) is an original image, (b) is an image obtained by normalizing I with 0 to the maximum value, and (c) is a diagram showing a region where I is 0.05 or more. The value of I is displayed by normalizing 0 to the maximum value of 0 to 255 for RGB for display.
Although it cannot cope with a slightly thin portion of redness and white rust, the other conspicuous red rust regions (deterioration degree of about III or more) can be almost extracted.

図27にサンプル画像より抜粋した劣化度部分(II〜V)抽出(計91画像)し、劣化領域のYIQのI(平均)を横軸に、明度(平均)を縦軸にしたグラフを示す。グラフ上の直線は劣化度毎の値を直線近似したものである。劣化度IIはRGB同様に比較的はっきりと分類できている。劣化度IIIとIVはやや劣化度IVが劣化度IIIよりに存在している物もあるが、ある程度の領域分けは可能と考えられる。劣化度抽出に用いるパラメータ決定(主観分類)」ではこの結果を基に領域抽出パラメータを主観的に決定する。
前節で得られたサンプル画像(91枚)の特徴量と劣化度見本A(一般環境)との比較を行った。撮影条件の違いによる明度のばらつきをなくすことは、安定した劣化度抽出には欠かせない処理である。図28に明度正規化の処理手順を示す。
1)基準となる鋼管A内における画像正規化
a)それぞれの画像に対して双六角錘モデルを用いた色補正を行う。
b)鋼管Aの補正用基準画像の作成
・鋼管A内全ての画像の同一座標にある画素の明度を取り出し、明度順に並び替えて、その中央に位置する画素の明度を代表値とする。
・この処理で作成された画像を鋼管Aの補正基準画像とする。
c)補正用基準画像もとに鋼管Aの各画像の明度補正を行う。
・それぞれの画像の平均明度とbの補正用基準画像の平均明度を求める。
・全ての画素に対して、(補正用基準画像の平均明度)/(処理対象画像の平均明度)の比率を掛けることで、鋼管A内の全ての画像の明度を均一化する。
2)他の鋼管Bの画像正規化
a〜bの処理は1)と同じ
c)鋼管Aと鋼管Bの補正用基準画像の明度平均が同じになるように、鋼管Bの補正用基準画像の明度を補正する。補正方法は1)−cと同様の手法を用いる。
d)cで得られた補正用基準画像B’を用いて、1)−c同様に鋼管Bの各画像の明度補正を行う。
FIG. 27 shows a graph in which the deterioration degree parts (II to V) extracted from the sample image (91 images in total) are extracted, and YIQ I (average) in the deterioration region is plotted on the horizontal axis and the brightness (average) is plotted on the vertical axis. . The straight line on the graph is a linear approximation of the value for each degree of deterioration. Degradation degree II can be classified relatively clearly like RGB. Although there are some deterioration degrees III and IV that have a slight deterioration degree IV higher than the deterioration degree III, it is considered that a certain degree of area division is possible. In parameter determination (subjective classification) used for deterioration degree extraction, region extraction parameters are subjectively determined based on this result.
The feature amount of the sample image (91 sheets) obtained in the previous section was compared with the deterioration sample A (general environment). Eliminating variations in brightness due to differences in shooting conditions is an essential process for stable deterioration level extraction. FIG. 28 shows the lightness normalization processing procedure.
1) Image normalization in steel pipe A as a reference a) Color correction using a bihexagonal pyramid model is performed on each image.
b) Creation of correction reference image for steel pipe A-The brightness of pixels at the same coordinates of all images in steel pipe A is taken out and rearranged in order of brightness, and the brightness of the pixel located at the center is used as a representative value.
The image created by this processing is used as the correction reference image for the steel pipe A.
c) The brightness of each image of the steel pipe A is corrected based on the reference image for correction.
The average brightness of each image and the average brightness of the reference image for correction b are obtained.
The brightness of all the images in the steel pipe A is made uniform by multiplying the ratio of (average brightness of the correction reference image) / (average brightness of the processing target image) to all the pixels.
2) Image normalization of other steel pipes B The processing of a and b is the same as 1) c) The reference image for correction of steel pipe B is adjusted so that the average brightness of the reference images for correction of steel pipe A and steel pipe B is the same. Correct the brightness. The correction method uses the same method as in 1) -c.
d) Using the correction reference image B ′ obtained in c, the brightness of each image of the steel pipe B is corrected in the same manner as in 1) -c.

図29に明度補正結果の一例を示す。
鋼管全体でみると、補正前の明度平均の差が鋼管Aと鋼管Bでは0.94であったものが、明度補正後は0.96と改善されていることが判る。これは鋼管Aと鋼管Bの明度平均の差が若干ながら縮まったことを意味する。
ただし、本手法では1鋼管内の全ての画像を対象とするため、一般的な状態である鋼管中心を撮影しているものや、壁に接近して劣化部位を詳細に撮影しているものなど、異なる方向を撮影した画像を同列に処理している。また、鋼管中心を撮影した画像の場合、開口部が見えているとその部分は非常に明るいが、開口部から離れると逆に暗くなるといった照明条件の異なる画像が混在している。壁の劣化部位に着目した画像では壁側に強く照明が当たった画像となるが、どの鋼管のどの方向に劣化部位があるかによって照明が当たる部分も変わってくる。図30に補正対象画像のバリエーションを示す。
FIG. 29 shows an example of the brightness correction result.
Looking at the entire steel pipe, it can be seen that the difference in brightness average before correction was 0.94 for steel pipe A and steel pipe B, but it was improved to 0.96 after brightness correction. This means that the difference in brightness average between the steel pipe A and the steel pipe B is slightly reduced.
However, in this method, all images in one steel pipe are targeted, so that the center of the steel pipe, which is a general state, is photographed, or the deteriorated part is photographed in detail close to the wall, etc. The images taken in different directions are processed in the same row. In addition, in the case of an image obtained by photographing the center of a steel pipe, when the opening is visible, the portion is very bright, but there is a mixture of images with different illumination conditions such as darkening when the opening is separated. The image focusing on the degraded part of the wall is an image in which the wall side is strongly illuminated, but the illuminated part also varies depending on which steel pipe has the degraded part in which direction. FIG. 30 shows variations of the correction target image.

このような異なる照明条件の画像は類似した撮影状態毎に分類して補正することが望ましい。以下に分類するための案を示す。
1)開口部の検出
・画像中心位置に近く、映像が白飛びしている部分RGB(255,255,255)の領域を検出し、その領域は処理対象外とする。
2)カメラ撮影方向の推定
・後述の平面展開で用いるオプティカルフローの手法を用いる。これにより開口部のあり/なしに関わらず鋼管中心位置を推定できる。
・大まかな画像全体の明度の分布状況を求め、明るい部分が極端に画像の端にあれば壁に接近して撮影していると推定できる。
劣化度毎の領域抽出にYIQのIと明度を用いるにあたって、どの劣化度がどのIと明度に相当するかを決定する必要がある。
まずは図31のようにIと明度の分布図から主観的に抽出パラメータを決定した。それぞれ劣化度毎の四角枠で囲まれた領域を抽出パラメータとする。
Such images with different illumination conditions are desirably classified and corrected for each similar photographing state. The following are suggestions for classification.
1) Detection of the opening portion • The region of the portion RGB (255, 255, 255) close to the center position of the image where the video is overexposed is detected, and the region is excluded from the processing target.
2) Estimating the camera shooting direction-The optical flow method used in plane development described later is used. Thereby, the steel pipe center position can be estimated regardless of the presence / absence of the opening.
-The brightness distribution of the entire image is obtained, and if the bright part is extremely at the edge of the image, it can be estimated that the image is taken close to the wall.
When using YIQ I and lightness for region extraction for each degree of deterioration, it is necessary to determine which degree of deterioration corresponds to which I and lightness.
First, as shown in FIG. 31, the extraction parameters were determined subjectively from the distribution map of I and lightness. A region surrounded by a square frame for each deterioration degree is set as an extraction parameter.

図32に上記分類パラメータをN=91の劣化度毎のデータ(I,明度)を適応し、どの程度一致するかを示す。全体的にばらついている劣化度IVの一致率が低い。
図33にサポートベクターマシンのイメージを示す図である。サポートベクターマシンとはニューラルネットワークを用いたパターン識別手法の一つであり、学習モデルを採用している。サポートベクターマシンとは例えばデータを二つの種類に分離するために、各データ点との距離が最大となる分離平面を求めるマージン最大化という考え方を用いるものである。図33は赤と青の2つのデータ群を分離するために、マージン最大となる境界線(黒の太線)の例である。今回はフリーのツール”libsvm”を使用した。
ここでは図34に示すように、サンプル画像から選択した91枚の画像の劣化度と特徴量(YIQのIと明度)を学習用パターンとして用い、再度この学習用データのIと明度だけを与えて、得られる劣化度がどの程度一致しているかを確認した。
FIG. 32 shows how much the above classification parameters are matched by applying data (I, brightness) for each degree of degradation of N = 91. The coincidence rate of the degree of degradation IV that varies as a whole is low.
FIG. 33 is a diagram showing an image of a support vector machine. A support vector machine is a pattern identification method using a neural network, and employs a learning model. The support vector machine uses, for example, the concept of margin maximization to obtain a separation plane that maximizes the distance to each data point in order to separate data into two types. FIG. 33 shows an example of the boundary line (black thick line) that maximizes the margin in order to separate the two data groups of red and blue. This time, the free tool “libsvm” was used.
Here, as shown in FIG. 34, the deterioration degree and feature quantity (YIQ I and brightness) of 91 images selected from the sample images are used as learning patterns, and only I and brightness of this learning data are given again. Thus, the degree of coincidence of the obtained deterioration was confirmed.

図35に劣化度毎の一致度を示す。劣化度IIとIVは高い一致率を示すが、劣化度IIIとVは非常に低い値となっている。これはサポートベクターマシンがクラス(劣化度)毎に領域分けを行おうとするものの、学習データが必ずしもそれぞれの劣化度毎にうまくまとまっていないためである。
AdaBoostも学習モデルを用いるクラスタリングの一手法である。サポートベクターマシン同様、与えられた教師付きデータを用いて学習を行う。
AdaBoostはブースティング法と呼ばれる手法の最も基本的なもので、直接一つの判別ルール(判別器と呼ぶ)を決定するのではなく、単純な判別器を多数組み合わせることで全体として一つの判別ルールを構築するものである。与えられた教師付きデータを用いて学習を行い、その学習結果をふまえて逐次重みの調整を繰り返すことで(判別器の追加)複数の学習結果を求め、その結果を組み合わせて精度を向上させる。
FIG. 35 shows the degree of coincidence for each degree of deterioration. Degradation levels II and IV show a high coincidence rate, but degradation levels III and V are very low values. This is because the support vector machine attempts to divide the area for each class (degradation degree), but the learning data is not necessarily well organized for each deterioration degree.
AdaBoost is also a clustering method using a learning model. As with the support vector machine, learning is performed using the given supervised data.
AdaBoost is the most basic method called the boosting method. Instead of directly determining one discriminant rule (called discriminator), a single discriminant rule is combined as a whole by combining many simple discriminators. To build. Learning is performed using the given supervised data, and by sequentially adjusting the weight based on the learning result (addition of a discriminator), a plurality of learning results are obtained, and the results are combined to improve accuracy.

ここでも前節と同じデータ(YIQのIと明度、劣化度)を用いて学習を行い、再度同じデータ(YIQのIと明度)を与えて得られた劣化度の一致率を確認した。図36はAdaBoostによる分類の一致度を示す図である。
結果は主観分類、サポートベクターマシンよりも良好である。サポートベクターマシンと比較してAdaBoostは必ずしも1つのクラスが1つの領域にある必要はないという柔軟性によるものである。
図37に3手法を比較した表を示す。3種の分類方式の比較結果としてはAdaBoostが最も高い一致率を示している。
Here again, learning was performed using the same data (YIQ I and lightness and deterioration) as in the previous section, and the coincidence ratio of deterioration obtained by giving the same data (YIQ I and lightness) again was confirmed. FIG. 36 is a diagram showing the degree of coincidence of classification by AdaBoost.
The result is better than subjective classification, support vector machine. Compared to support vector machines, AdaBoost is due to the flexibility that one class does not necessarily have to be in one region.
FIG. 37 shows a table comparing the three methods. As a comparison result of the three classification methods, AdaBoost shows the highest matching rate.

上記までで検討した領域抽出方法を用いて劣化度毎の領域抽出を行う。図38にプロトタイプの構成を示す。
本プロトタイプでは前処理として、色補正と明度補正を行い、主観分類とAdaBoostによる劣化部分の抽出と分類を行う部分を実装した。以下にその処理手順を示す。
劣化度毎領域抽出手順:
1)前処理として明度の正規化を行う
2)主観分類方法あるいはAdaboostを用いた劣化度別部位の抽出と分類を行う
また、オプションとしてエンボス処理による強調表示の処理も行うことが可能。
Region extraction for each degree of deterioration is performed using the region extraction method discussed above. FIG. 38 shows the configuration of the prototype.
In this prototype, color correction and lightness correction are performed as pre-processing, and a part for extracting and classifying a deteriorated part by subjective classification and AdaBoost is implemented. The processing procedure is shown below.
Extraction procedure for each degree of deterioration:
1) Normalization of brightness as pre-processing 2) Extraction and classification of degradation-specific parts using subjective classification method or Adaboost Also, it is possible to perform emphasis display processing as an option.

図39、図40に主観分類で決定したパラメータに基づく分類結果を示す。画像左の劣化度は人間が判断した結果、右の凡例の色が主観分類で決定されたパラメータで分類された画像中の劣化度に対応している。
図41、図42にAdaboostを用いてで学習したパラメータに基づく分類結果を示す。画像左の劣化度は人間が判断した結果、右の凡例の色(番号)がAdaBoostで分類された画像中の劣化度に対応している。
図43、図44に「劣化度抽出に用いるパラメータ決定(サポートベクターマシン)」で学習したパラメータに基づく分類結果を示す。比較のためにプロトタイプ実装は行わなかったが、ツールを用いて劣化度分類したサポートベクターマシンの結果を示す。画像左の劣化度は人間が判断した結果、右の凡例の色(番号)がサポートベクターマシンで分類された画像中の劣化度に対応している。
39 and 40 show the classification results based on the parameters determined by the subjective classification. The degree of deterioration on the left side of the image corresponds to the degree of deterioration in the image in which the color of the legend on the right is classified by the parameter determined by the subjective classification as a result of human judgment.
41 and 42 show the classification results based on the parameters learned using Adaboost. The degree of deterioration on the left of the image corresponds to the degree of deterioration in the image in which the color (number) of the legend on the right is classified by AdaBoost as a result of human judgment.
FIG. 43 and FIG. 44 show the classification results based on the parameters learned in “Determining the parameters used for extracting the deterioration level (support vector machine)”. Although the prototype implementation was not performed for the comparison, the result of the support vector machine classified by the degradation degree using the tool is shown. As a result of human judgment, the color (number) of the legend on the right corresponds to the degree of deterioration in the image classified by the support vector machine.

「領域抽出・分類結果(主観分類)」の結果と「領域抽出・分類結果(AdaBoost)」の結果について考察する。
例えば図39と図41の人間が劣化度IVと判断した画像(画像番号E、F)をみると、両者とも劣化領域はほぼ抽出できている。同じく人間が劣化度IVと判定した画像において、抽出された領域の劣化度分類に着目すると、主観分類による分類結果は劣化度V(赤く塗りつぶされた部分)と劣化度III(黄色く塗りつぶされた部分)が多く、劣化度IV(オレンジで塗りつぶされた部分)はほとんど見られない。一方AdaBoostによる分類結果は主観分類で劣化度Vと判定された部分が劣化度IVと判定され、人間の判断結果により近いものとなっている。しかしながら、人間が劣化度Vと判断した画像をみるとAdaBoostでの分類結果には劣化度Vと判定された部分ほとんどみられず、その多くが劣化度IVと判定されている。この原因のひとつとして、学習に用いたデータに劣化度Vのサンプルが少なかったこと(91サンプル中6サンプルが該当)が考えられる。
一方、サポートベクターマシンは学習データによる検証と同様、劣化度IIと劣化度IVに結果が集中している。
The results of “region extraction / classification result (subjective classification)” and “region extraction / classification result (AdaBoost)” will be considered.
For example, looking at the images (image numbers E and F) that the human being has judged as the degree of degradation IV in FIGS. 39 and 41, the degradation region can be almost extracted in both cases. Similarly, in an image that has been determined by a human as a degree of deterioration IV, focusing on the deterioration degree classification of the extracted region, the classification result based on the subjective classification is a deterioration degree V (a part painted in red) and a degree of deterioration III (a part filled in yellow) ) And a degree of deterioration IV (a portion painted in orange) is hardly seen. On the other hand, in the classification result by AdaBoost, the portion determined as the deterioration level V in the subjective classification is determined as the deterioration level IV, and is closer to the human determination result. However, when looking at an image that is determined to be a degradation level V by a human, almost no portion determined as the degradation level V is found in the classification result in AdaBoost, and most of them are determined as the degradation level IV. As one of the causes, it is conceivable that the data used for learning has a small number of samples of the deterioration degree V (six samples out of 91 samples are applicable).
On the other hand, the result of the support vector machine is concentrated on the degree of deterioration II and the degree of deterioration IV as in the case of the verification using the learning data.

図45(a)〜(c)に主観分類、AdaBoost、サポートベクターマシンの画像毎の劣化度分類結果をグラフ化したものを示す。グラフの横軸が(人間が判断した劣化度)−(画像番号)、縦軸が画像の撮影領域(周辺の黒枠を除いた物)に対する各劣化度の面積率である。
一見したところ人間が判断した劣化度と画像処理による劣化度分類にはあまり相関は見られないように思われる。たとえばAdaBoostの結果で見ると、劣化度IIの画像Iと劣化度Vの画像Gはグラフの傾向は似ているが、Gの画像でAdaBoostが劣化度IVと判断した領域は比較的実際の劣化部分に集中しているのに対し、Iの画像では画像周辺のCCDノイズを劣化部分と誤認識している。
「色補正(ローパスフィルター)」を施しても完全なCCDノイズは除去できないため、抽出・分類処理後に散在しているような孤立領域を除去するような処理を施すことである程度の改善は期待できるが、小さなスポット状の本来の劣化部分を除去しないための考慮が必要がある。
45 (a) to 45 (c) show graphs of degradation classification results for each image of subjective classification, AdaBoost, and support vector machine. The horizontal axis of the graph is (degradation level determined by humans) − (image number), and the vertical axis is the area ratio of each degradation level with respect to the imaged region of the image (thing excluding the surrounding black frame).
At first glance, it seems that there is not much correlation between the degree of degradation determined by humans and the degree of degradation by image processing. For example, in the AdaBoost result, the image I of the degree of degradation II and the image G of the degree of degradation V are similar in the tendency of the graph, but in the image of G, the area determined by the AdaBoost to be the degree of degradation IV is relatively actual degradation. In contrast to the concentration in the portion, the I image misrecognizes the CCD noise around the image as a deteriorated portion.
Even if "color correction (low-pass filter)" is applied, complete CCD noise cannot be removed, so a certain degree of improvement can be expected by applying processing that removes isolated areas that are scattered after extraction / classification processing. However, it is necessary to consider in order not to remove the small spot-like originally deteriorated portion.

鋼管内の領域抽出後、正確な劣化部分の面積を求める場合、「レンズ歪み補正」よりも平面への展開を図った方がより正確に結果を得られる。図46に平面展開例を示す。ここでは鋼管内部の画像を中心位置と有効範囲を指定することで平面展開する。中心位置と有効範囲の指定はマウスを用いて入力できるように実装した。
本手法を動画像へ適応する場合、カメラの中心軸方向が一定でないために1コマずつ手作業で入力することは現実的ではなく、自動的に鋼管中心位置を検出する手法が必要となる。本発明では優先度の関係で割愛したが、図47に鋼管中心部分の検出手法案を示す。ここでは画像処理で用いられるオプティカルフローの手法を用いる。
When the area of the deteriorated part is obtained accurately after extracting the region in the steel pipe, the result can be obtained more accurately by developing on the plane than by “lens distortion correction”. FIG. 46 shows a planar development example. Here, the image inside the steel pipe is expanded in a plane by designating the center position and effective range. The center position and effective range can be specified using the mouse.
When this method is applied to a moving image, since the direction of the central axis of the camera is not constant, it is not realistic to input manually one frame at a time, and a method for automatically detecting the steel pipe center position is required. Although omitted in the present invention because of priority, FIG. 47 shows a proposed method for detecting the center portion of the steel pipe. Here, an optical flow technique used in image processing is used.

鋼管中心部分の検出案:
1)ある時刻(t)の画像に対して、明るさやエッジの強さを基準として、特徴点となる部位を複数検出する(左画像の黄緑の円内)。
2)ある時刻後(Δt)の画像に対して、1)の特徴点毎の移動ベクトルを求める(ピンクの矢印)。
3)移動ベクトルを延長し(緑の矢印)、最も交差する部分が推定された鋼管中心部分となる。
Detection plan for steel pipe center:
1) For an image at a certain time (t), a plurality of parts serving as feature points are detected on the basis of brightness and edge strength (in the yellow-green circle of the left image).
2) A movement vector for each feature point of 1) is obtained for an image after a certain time (Δt) (pink arrow).
3) The movement vector is extended (green arrow), and the most intersecting part becomes the estimated steel pipe center part.

鋼管内部の撮影は基本的にビデオ画像として収録されている、ここまでの領域抽出処理は静止画像を対象としてきたが、ビデオの連続した画像に適応し、結果表示するプログラムを作成した。図48は、動画像再生プログラムの構成を示す図である。
ビデオ画像は一度連番のビットマップ形式に変換する。この変換には市販のツール等を用いた。変換された連番のビットマップをソース画像とし、前処理〜明度の均一化〜領域抽出の一連の処理結果をそれぞれのフォルダに再び連番のビットマップとして格納する。
表示プログラムでは、処理結果のフォルダを選択し(最大4フォルダ)フォルダ内の画像を順次再生することで、動画表示を行う。図49に動画像再生例の一例を示す。
サンプル撮影画像を手がかりに前処理検討を行った結果、いくつかの前処理が有効であることが判った。特に照明ムラの補正はカメラ照明の不均一さによる白さび等の抽出精度低下を防ぐ意味で有用であると考えられる。
The inside of the steel pipe is basically recorded as a video image, and the region extraction processing so far has been aimed at still images, but we have created a program that adapts to continuous images of video and displays the results. FIG. 48 is a diagram showing the configuration of a moving image playback program.
The video image is converted to a bitmap format with sequential numbers. A commercially available tool or the like was used for this conversion. The converted serial number bitmap is used as a source image, and a series of processing results of preprocessing, lightness leveling, and region extraction are stored again as serial number bitmaps in the respective folders.
In the display program, a processing result folder is selected (up to four folders), and images in the folder are sequentially reproduced to display a moving image. FIG. 49 shows an example of a moving image reproduction example.
As a result of examining the pre-processing using the sample photographed image as a clue, it was found that several pre-processing are effective. In particular, the correction of illumination unevenness is considered to be useful in terms of preventing a reduction in extraction accuracy such as white rust due to non-uniformity of camera illumination.

以上の結果、劣化部分抽出の予備検討では、従来のRGBやUCSの色空間に対してYIQ色空間に着目することで撮影条件に対して比較的安定した赤さび抽出が行えることが判った。また異なる撮影条件下で撮影された画像の明度を統一することで、YIQのI値と明度の組み合わせで劣化部分抽出の可能性が得られた。
また、劣化度毎のYIQのI値と明度のデータを採取し、これを主観分類により抽出パラメータを決定した手法とAdaBoostによる学習アルゴリズムの2つで、サンプル画像に対してある程度の劣化度抽出・分類が可能となった。
As a result, in the preliminary examination of the deteriorated portion extraction, it was found that red rust extraction can be performed relatively stably with respect to the shooting conditions by focusing on the YIQ color space with respect to the conventional RGB or UCS color space. Further, by unifying the brightness of images taken under different shooting conditions, the possibility of extracting a deteriorated part was obtained by combining the I value of YIQ and the brightness.
In addition, I value and brightness data of YIQ for each degree of degradation are collected, and this is a method of determining extraction parameters by subjective classification and a learning algorithm based on AdaBoost. Classification became possible.

図50は鋼管展開画像に対する劣化度判定結果を示す図である。鋼管全体を平面展開した画像を作成し、これに対する劣化領域を抽出することで、実際の劣化部分の面積や鋼管内全体の劣化状況を把握するため、以下の検討を行った。
1)鋼管中心位置を開口部の輝度とオプティカルフローを用いたカメラ位置推定結果情報を元に推定し、これを用いてコマ毎の画像を展開した画像を作成する。即ち、オプティカルフローによる特徴点を抽出し、フローベクトルを用いた中心位置の推定を行い、輝度に着目した開口部を推定し、フローベクトルと輝度を用いて中心位置を推定して、図50のような鋼管全体展開画像を作成して劣化領域を抽出する。
2)コマごとの展開画像をカメラの移動位置を元に張り合わせる。
FIG. 50 is a diagram showing the degradation degree determination result for the steel pipe development image. In order to grasp the actual area of the degradation part and the overall degradation status in the steel pipe by creating a flat image of the entire steel pipe and extracting the degradation area corresponding to this, the following examination was conducted.
1) Estimate the steel pipe center position based on the camera position estimation result information using the brightness of the opening and the optical flow, and use this to create an image in which the image for each frame is developed. That is, the feature point by the optical flow is extracted, the center position is estimated using the flow vector, the opening focused on the brightness is estimated, the center position is estimated using the flow vector and the brightness, and FIG. Such a steel pipe whole development image is created and a degradation area is extracted.
2) The developed images for each frame are pasted based on the movement position of the camera.

図51は異物領域抽出結果例を示す図であり、図51(a)、(b)とも左側が元画像、右側が領域抽出結果を表す図である。劣化処理対象外領域(営巣等の異物)を抽出するための手法の検討として、以下の検討を行った。
1)フーリエ変換を用いた周波数成分の抽出と傾向の検討
2)エッジ形状に着目した領域抽出と傾向の検討
3)テクスチャ特徴量を用いた領域抽出とプロトタイプによる試行
検討の結果、3)のテクスチャ特徴量を学習アルゴリズムとして用いて推定することで、比較的良好に劣化処理対象外領域を抽出することができた。
FIG. 51 is a diagram illustrating an example of a foreign substance region extraction result. In FIGS. 51A and 51B, the left side is an original image, and the right side is a diagram illustrating a region extraction result. The following studies were conducted as a method for extracting areas not subject to degradation processing (foreign substances such as nesting).
1) Extraction of frequency components using Fourier transform and examination of trends 2) Extraction of areas focusing on edge shapes and examination of trends 3) Extraction of areas using texture features and trial using prototype Results of examination 3) Texture By estimating the feature quantity as a learning algorithm, it was possible to extract the non-degradation target area relatively well.

図52(A)は劣化度判定結果の比較結果を示す図、(B)は鋼管展開画像に対する劣化度判定結果を示す図である。図52(A)より、(a)は元画像、(b)はI−明度による結果を示す図、(c)はI−明度とエッジ情報による結果を示す図である。   FIG. 52A is a diagram showing a comparison result of deterioration degree determination results, and FIG. 52B is a diagram showing a deterioration degree determination result for a steel pipe development image. From FIG. 52 (A), (a) is an original image, (b) is a diagram showing a result of I-lightness, and (c) is a diagram showing a result of I-lightness and edge information.

図53(a)は鋼管全体の凹凸推定結果(等高線表示)を示す図、図53(b)は鋼管全体の凹凸推定結果(3D表示)を示す図である。鋼管内劣化部位の凹凸を推定する手法の検討を行い、以下の手順で推定を行った。
1)同時複数の特徴点を追跡し、撮影位置の異なる画像間の特徴点の移動量(フローベクトル群)を計算する。
2)フローベクトル群から鋼管内のカメラ位置を推定する。
3)推定されたカメラ位置から再度特徴点の鋼管内の位置を推定することで特徴点の3次元座標を求める。
FIG. 53A is a diagram showing the unevenness estimation result (contour line display) of the entire steel pipe, and FIG. 53B is a diagram showing the unevenness estimation result (3D display) of the entire steel pipe. The method of estimating the unevenness of the deteriorated part in the steel pipe was examined, and the following procedure was used for estimation.
1) Simultaneously track a plurality of feature points and calculate the amount of movement (flow vector group) of feature points between images with different shooting positions.
2) Estimate the camera position in the steel pipe from the flow vector group.
3) The three-dimensional coordinates of the feature point are obtained by estimating the position of the feature point in the steel pipe again from the estimated camera position.

図50から図53までの検討の結果、鋼管全体の画像平面展開が可能となり、従来撮影された動画データでしか確認できなかった鋼管内全体の状況を一目で把握できるため、経年劣化等の比較が容易となることが想定される。また、劣化処理対象領域については、比較的良好な結果を得た。また、劣化度判定精度の向上では、テクスチャ解析情報を用いることで、色と明度情報を用いた劣化領域抽出の不得意な部分を補うことができた。更に、鋼管劣化度部位の凹凸推定については、限られた情報から、ある程度の推定は可能となったが、画像平面展開も含めて、これ以上の精度を求めるには撮影機器の改良を含めた付加情報が与えられることが好ましい。   As a result of the examination from FIG. 50 to FIG. 53, it is possible to develop an image plane of the entire steel pipe, and it is possible to grasp at a glance the overall situation inside the steel pipe that could only be confirmed with moving image data that has been captured in the past. Is assumed to be easy. In addition, a relatively good result was obtained for the degradation target area. In addition, in the improvement of the degradation degree determination accuracy, it was possible to compensate for the poor portion of the degradation area extraction using the color and brightness information by using the texture analysis information. Furthermore, the estimation of unevenness of the steel pipe degradation degree part was possible to some extent from limited information, but to obtain higher accuracy including image plane development, improvement of the imaging equipment was included. Preferably additional information is provided.

4 DB、5 入力部、6 出力部、7 バス、8 制御部、10 前処理手段、11 劣化部分予備抽出手段、12 劣化部分抽出分類手段、14 劣化領域検証評価手段、15 表示処理手段、100 鋼管内部腐食解析装置 4 DB, 5 input section, 6 output section, 7 bus, 8 control section, 10 preprocessing means, 11 deteriorated partial preliminary extraction means, 12 deteriorated partial extraction classification means, 14 deteriorated area verification evaluation means, 15 display processing means, 100 Steel pipe internal corrosion analyzer

Claims (4)

鋼管内画像を解析する鋼管内部腐食解析装置であって、
プティカルフローにより推定した前記鋼管の中心部分に基づいて、前記鋼管の中心位置を推定し、前記中心位置に基づいて前記画像をコマ毎に平面展開した展開画像を作成する展開画像作成手段と、
記展開画像をカメラの移動位置に基づいて張り合わせ、前記鋼管の全体の前記展開画像を作成する画像張り合せ手段と、を備え、
記鋼管の全体の前記展開画像に対する劣化領域を抽出することを特徴とする鋼管内部腐食解析装置。
A steel tube corrosion analysis system you analyze the image in the steel tube,
Based on the central portion of the steel pipe estimated by the O-flop optical flow to estimate the center position of the steel pipe, the developed image forming means for forming a developed image obtained by planar development of the image in each frame on the basis of the center position ,
Bonded based pre Symbol expand image to the moving position of the camera, and an image-clad combined means for creating the developed image of the whole of the steel pipe,
Before Symbol steel internal corrosion analysis apparatus characterized by and Turkey to extract the degradation region to the entire of the developed image of the steel pipe.
請求項1記載の鋼管内部腐食解析装置において、
前記画像の輝度より推定した前記鋼管の開口部と、前記中心部分に基づいて、前記中心位置を推定することを特徴とする鋼管内部腐食解析装置。
In the steel pipe internal corrosion analysis device according to claim 1,
The steel pipe internal corrosion analysis apparatus , wherein the center position is estimated based on the opening of the steel pipe estimated from the brightness of the image and the central portion .
展開画像作成手段画像張り合せ手段を備え、鋼管内画像を解析する鋼管内部腐食解析装置による鋼管内部腐食解析方法であって、
前記展開画像作成手段が、プティカルフローにより推定した前記鋼管の中心部分に基づいて、前記鋼管の中心位置を推定し、前記中心位置に基づいて前記画像をコマ毎に平面展開した展開画像を作成するステップと、
前記画像張り合せ手段が、前記展開画像をカメラの移動位置に基づいて張り合わせ、前記鋼管の全体の前記展開画像を作成するステップと、
記鋼管の全体の前記展開画像に対する劣化領域を抽出するステップと、
を有することを特徴とする鋼管内部腐食解析方法。
Expand and an image forming means and the image-clad combined unit, a steel internal corrosion analysis method by the steel tube corrosion analysis system you analyze the image in the steel tube,
The developed image creation means, based on the center portion of the steel pipe estimated by the O-flop optical flow to estimate the center position of the steel pipe, the expanded image obtained by planar development of the image in each frame on the basis of the center position A step to create,
A step wherein the image-clad combined unit, bonded based pre Symbol expand image to the moving position of the camera, to create the developed image of the whole of the steel pipe,
A step that to extract the degradation region to the entire of the developed image prior Symbol steel,
Steel tube corrosion analysis how to characterized in that have a.
請求項3記載の鋼管内部腐食解析方法において、
前記画像の輝度より推定した前記鋼管の開口部と、前記中心部分に基づいて、前記中心位置を推定するステップを有することを特徴とする鋼管内部腐食解析方法。
In the steel pipe internal corrosion analysis method according to claim 3,
The opening of the steel pipe which is estimated from the luminance of the image, on the basis of the central portion, the steel pipe corrosion analyzing how to characterized in that have a step of estimating the center position.
JP2014097545A 2010-05-31 2014-05-09 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method Active JP5764238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014097545A JP5764238B2 (en) 2010-05-31 2014-05-09 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010124959 2010-05-31
JP2010124959 2010-05-31
JP2014097545A JP5764238B2 (en) 2010-05-31 2014-05-09 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010274022A Division JP5647878B2 (en) 2010-05-31 2010-12-08 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method

Publications (2)

Publication Number Publication Date
JP2014178328A JP2014178328A (en) 2014-09-25
JP5764238B2 true JP5764238B2 (en) 2015-08-19

Family

ID=45600265

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010274022A Active JP5647878B2 (en) 2010-05-31 2010-12-08 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
JP2014097545A Active JP5764238B2 (en) 2010-05-31 2014-05-09 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010274022A Active JP5647878B2 (en) 2010-05-31 2010-12-08 Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method

Country Status (1)

Country Link
JP (2) JP5647878B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162465A1 (en) * 2019-02-04 2020-08-13 旭化成株式会社 Diagnostic system, diagnostic device, diagnostic method, and diagnostic program
KR102643699B1 (en) * 2022-10-18 2024-03-05 한국가스안전공사 System for risk measuring of pipeline and method thereof

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5844718B2 (en) * 2012-11-09 2016-01-20 本田技研工業株式会社 Image processing method, image processing apparatus, surface inspection system, and program
JP6201922B2 (en) * 2014-07-23 2017-09-27 マツダ株式会社 Rust detection device for vehicle, rust detection system for vehicle, and rust detection method for vehicle
JP2016052111A (en) 2014-09-02 2016-04-11 株式会社東芝 Impedance converter
WO2017081821A1 (en) 2015-11-13 2017-05-18 オリンパス株式会社 Method for estimating state of endoscope
RU167680U1 (en) * 2016-01-29 2017-01-10 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный университет путей сообщения" DEVICE FOR DETERMINING THE QUANTITATIVE COMPOSITION OF THE PRODUCTS OF CORROSION ARMATURE ON DIFFICULT ACCESSIBILITY SURFACES OF REINFORCED CONCRETE PRODUCTS
KR101928780B1 (en) * 2016-04-08 2019-03-15 한국전력공사 Analizing apparatus, measuring apparatus and computer readable recording medium to member deterioration
JP6034529B1 (en) * 2016-06-14 2016-11-30 九州電力株式会社 Surface condition diagnostic equipment
JP6798276B2 (en) * 2016-11-25 2020-12-09 Jfeエンジニアリング株式会社 Maintenance management system and deterioration judgment device for steel structures
KR101943426B1 (en) * 2017-02-20 2019-01-30 주식회사 한국지중정보 Method, apparatus, computer program and computer readable recording medium for generating a drawing of an inner wall condition of a conduit, method, apparatus, computer program and computer readable recording medium for inspecting an inner wall condition of a conduit
JP6881347B2 (en) * 2018-02-16 2021-06-02 新東工業株式会社 Evaluation system, evaluation device, evaluation method, evaluation program, and recording medium
JP2020067669A (en) * 2018-10-19 2020-04-30 株式会社ファブリカコミュニケーションズ Information processing apparatus, and program
WO2020203995A1 (en) * 2019-03-29 2020-10-08 出光興産株式会社 Lubricating oil degradation evaluation system and lubricating oil degradation evaluation method
WO2021182600A1 (en) * 2020-03-12 2021-09-16 Hoya株式会社 Information processing device, inspection system, program, and information processing method
WO2022074746A1 (en) * 2020-10-06 2022-04-14 日本電信電話株式会社 Deterioration detection apparatus, deterioration detection method, and program
JP7101235B2 (en) * 2020-12-17 2022-07-14 株式会社クボタ Inspection equipment and inspection method
JP7444137B2 (en) 2021-06-09 2024-03-06 Jfeスチール株式会社 Metal structure segmentation method
RU207785U1 (en) * 2021-07-20 2021-11-16 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный университет путей сообщения" Device for diagnosing the corrosion state of the inner surface of reinforced concrete supports of the contact network
WO2024053109A1 (en) * 2022-09-09 2024-03-14 日本電信電話株式会社 Deterioration detection model training device, deterioration detection device, and program
CN116500061B (en) * 2023-06-25 2023-09-29 北京英智数联科技有限公司 Non-invasive pipeline corrosion monitoring system, method and device
CN116645372B (en) * 2023-07-27 2023-10-10 汉克威(山东)智能制造有限公司 Intelligent detection method and system for appearance image of brake chamber

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2905232B2 (en) * 1989-10-13 1999-06-14 九州電力株式会社 Optical inspection equipment for piping
JP3141048B2 (en) * 1992-04-06 2001-03-05 オリンパス光学工業株式会社 Three-dimensional measuring method and three-dimensional measuring device
JP4007619B2 (en) * 1997-01-30 2007-11-14 イサム・リサーチ・デベロツプメント・カンパニー・オブ・ザ・ヘブルー・ユニバーシテイ・オブ・エルサレム Generalized panoramic mosaic
JP3013301B2 (en) * 1997-07-22 2000-02-28 日本電炉株式会社 Degradation evaluation method of steel surface using image processing
JP4052609B2 (en) * 1998-08-27 2008-02-27 株式会社東芝 Pattern recognition apparatus and method
JP3568871B2 (en) * 2000-03-16 2004-09-22 株式会社巴コーポレーション Degradation evaluation method for inspection of pipe inner surface corrosion
JP3608106B2 (en) * 2000-09-19 2005-01-05 日本電炉株式会社 Degradation evaluation system for steel surface using image processing
JP2003032674A (en) * 2001-07-16 2003-01-31 Emaki:Kk System for generating automatically continuous development still image video image of inner wall of tubular object
US7324137B2 (en) * 2004-01-29 2008-01-29 Naomichi Akizuki System for automatically generating continuous developed still image from video image of inner wall of tubular object
JP5190566B2 (en) * 2006-02-16 2013-04-24 株式会社アサノ大成基礎エンジニアリング Tunnel inner wall inspection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162465A1 (en) * 2019-02-04 2020-08-13 旭化成株式会社 Diagnostic system, diagnostic device, diagnostic method, and diagnostic program
KR102643699B1 (en) * 2022-10-18 2024-03-05 한국가스안전공사 System for risk measuring of pipeline and method thereof

Also Published As

Publication number Publication date
JP5647878B2 (en) 2015-01-07
JP2014178328A (en) 2014-09-25
JP2012013675A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP5764238B2 (en) Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
Ganesan et al. Segmentation and edge detection of color images using CIELAB color space and edge detectors
US7936377B2 (en) Method and system for optimizing an image for improved analysis of material and illumination image features
JP4997252B2 (en) How to identify the illumination area in an image
EP2104907B1 (en) Method and system for using image depth information
US8542917B2 (en) System and method for identifying complex tokens in an image
JPWO2008156147A1 (en) Method for creating paint color database, search method using the database, and system, program and recording medium thereof
JP5248213B2 (en) Corrosion degree evaluation method, apparatus and program
CN102859346B (en) For arranging the apparatus and method of optical check parameter
US8983183B2 (en) Spatially varying log-chromaticity normals for use in an image process
JP2016223815A (en) Deterioration diagnostic system and deterioration diagnostic method
KR101813223B1 (en) Method and apparatus for detecting and classifying surface defect of image
JP4242796B2 (en) Image recognition method and image recognition apparatus
JP3608106B2 (en) Degradation evaluation system for steel surface using image processing
CN115546141A (en) Small sample Mini LED defect detection method and system based on multi-dimensional measurement
JP2006067423A (en) Image quality quantitative evaluation method and its device
US10083516B2 (en) Method for segmenting a color image and digital microscope
US8842907B2 (en) Method for performing a multi-clustering merge for use in an image process
US8849018B2 (en) Log-chromaticity clustering pipeline for use in an image process
Guo et al. Color difference matrix index for tone-mapped images quality assessment
CN115018848B (en) Shale oil-containing grade evaluation method
US8811732B2 (en) Weighted entropy minimization for optimizing a log-chromaticity normal for use in an image process
JP2007218912A (en) Program and testing device
Bilal Machine learning-based evaluation of the damage using images on concrete infrastructure structures
CN115861259A (en) Lead frame surface defect detection method and device based on template matching

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150612

R150 Certificate of patent or registration of utility model

Ref document number: 5764238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250