JP7517641B2 - Structure inspection and repair support system - Google Patents

Structure inspection and repair support system Download PDF

Info

Publication number
JP7517641B2
JP7517641B2 JP2018216837A JP2018216837A JP7517641B2 JP 7517641 B2 JP7517641 B2 JP 7517641B2 JP 2018216837 A JP2018216837 A JP 2018216837A JP 2018216837 A JP2018216837 A JP 2018216837A JP 7517641 B2 JP7517641 B2 JP 7517641B2
Authority
JP
Japan
Prior art keywords
image
data
damaged
image data
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216837A
Other languages
Japanese (ja)
Other versions
JP2020085546A5 (en
JP2020085546A (en
Inventor
博和 野里
英徳 坂無
和樹 上原
俊樹 宮根
啓一郎 遠藤
佳文 永田
剛史 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Metropolitan Expressway Co Ltd
Shutoko Engineering Co Ltd
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Metropolitan Expressway Co Ltd
Shutoko Engineering Co Ltd
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, Metropolitan Expressway Co Ltd, Shutoko Engineering Co Ltd filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2018216837A priority Critical patent/JP7517641B2/en
Publication of JP2020085546A publication Critical patent/JP2020085546A/en
Publication of JP2020085546A5 publication Critical patent/JP2020085546A5/ja
Application granted granted Critical
Publication of JP7517641B2 publication Critical patent/JP7517641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、コンクリート構造物等の構造物の点検・補修をするための情報を提供する構造物の点検・補修支援システムに関するものである。 The present invention relates to a structure inspection and repair support system that provides information for inspecting and repairing structures such as concrete structures.

国内には高度成長期に建設された道路などのインフラが数多く存在し、高齢化した構造物が全体に占める割合は急速に増加している。高齢化した構造物を維持管理するためには、適切な点検及び補修が必要不可欠である。発見された損傷部分は、専門家による目視点検等により損傷ランクが判定され、補修方針が決定される。特に緊急補修が必要な損傷部分においては、迅速かつ正確な判定が必要不可欠である。しかしながら、現在は少子高齢化等による技術者不足が課題となっており、効率的な維持管理が求められている。 There are many roads and other infrastructure structures in Japan that were constructed during the period of high economic growth, and the proportion of aging structures in the total is rapidly increasing. Appropriate inspection and repair are essential to maintain and manage aging structures. When damaged areas are discovered, experts conduct visual inspections to determine the damage rank and decide on a repair policy. Rapid and accurate assessment is essential, especially for damaged areas that require urgent repair. However, there is currently an issue of a shortage of engineers due to factors such as a declining birthrate and aging population, and efficient maintenance and management is required.

このような事情から、特許第6347384号公報(特許文献1)には、橋梁点検で取得した変状画像などの点検データをシステムに登録すると、過去の点検データを検索し、類似の事案を提示するシステムが開示されている。具体的には、このシステムでは、損傷部分の変状情報に対する共起確率である共起性情報を記憶する共起性情報記憶部と、処理対象となる変状情報と予め受け付けた共起条件とに基づいて、共起性情報記憶部に記憶する共起性情報を参照することで、共起性による推薦順位のリストを生成し、処理対象となる変状情報における変状画像情報と、生成した共起性による推薦順位のリストにおける変状情報の変状画像情報との画像類似性の判定処理を実行することで画像類似性リストを生成し、共起性による推薦順位のリストと、画像類似性リストに基づいて処理対象となる変状情報に類似度の高い変状情報の推薦順位のリストを生成している。ここで共起性情報とは、事象yが起こるという条件の下で別の事象xが発生する共起確率P(x|y)を示す情報である。そしてこのシステムでは、処理対象となる、新たに登録された未確定の損傷部分の変状情報(クエリ変状情報)の選択を受け付ける。この選択は,ユーザによる選択操作の入力を受け付けることでもよいし、何らかの方法により自動的に選択を受け付けてもよいとされている。 In light of these circumstances, Japanese Patent No. 6347384 (Patent Document 1) discloses a system in which, when inspection data such as deformation images acquired during bridge inspections are registered in the system, past inspection data is searched for and similar cases are presented. Specifically, in this system, a co-occurrence information storage unit stores co-occurrence information, which is the probability of co-occurrence with deformation information of damaged parts, and a list of recommendation rankings based on the deformation information to be processed and the co-occurrence conditions received in advance is referenced to the co-occurrence information stored in the co-occurrence information storage unit to generate a list of recommendation rankings based on co-occurrence, and an image similarity list is generated by executing a process of determining the image similarity between the deformation image information in the deformation information to be processed and the deformation image information in the list of recommendation rankings based on the generated co-occurrence, and a list of recommendation rankings based on co-occurrence and the image similarity list of the deformation information that is highly similar to the deformation information to be processed is generated. Here, the co-occurrence information is information indicating the co-occurrence probability P(x|y) of another event x occurring under the condition that an event y occurs. This system then accepts the selection of the newly registered unconfirmed damage information (query abnormality information) to be processed. This selection may be made by accepting input of a selection operation by the user, or may be automatically accepted by some method.

また特許第5443055号公報(特許文献2)には、鉄筋コンクリート表面の劣化因子の濃度と、鉄筋コンクリートのかぶりと、鉄筋コンクリートの供用年数とに基づき、鉄筋コンクリートの劣化度を診断するコンクリート診断システムが開示されている。このシステムでは、予め撮影した診断対象となる鉄筋コンクリートの対象構造物の画像上に、診断対象となる領域を設定すると共に、その設定した領域をメッシュに分割し、分割した領域の各メッシュごとに、鉄筋コンクリート表面の劣化因子の濃度、及び鉄筋コンクリートのかぶりを入力して設定すると共に、鉄筋コンクリートの供用年数を入力して設定し、入力された値を基に、各メッシュごとに劣化度を求め、求めた各メッシュの劣化度の大きさに応じて、各メッシュを色分けして表示部に表示する。 Also, Japanese Patent No. 5443055 (Patent Document 2) discloses a concrete diagnosis system that diagnoses the degree of deterioration of reinforced concrete based on the concentration of deterioration factors on the surface of the reinforced concrete, the cover of the reinforced concrete, and the number of years of service of the reinforced concrete. In this system, an area to be diagnosed is set on a previously captured image of the target reinforced concrete structure to be diagnosed, and the set area is divided into meshes. For each mesh of the divided area, the concentration of deterioration factors on the surface of the reinforced concrete and the cover of the reinforced concrete are input and set, and the number of years of service of the reinforced concrete is input and set. The deterioration level is calculated for each mesh based on the input values, and each mesh is color-coded according to the degree of deterioration calculated for each mesh and displayed on the display unit.

さらに特許第6042313号公報(特許文献3)には、コンクリート構造物の画像から、コンクリート構造物の表面に生じた劣化部分を画像処理によって自動検出する劣化検出装置が開示されている。この従来の装置では、記コンクリート構造物の画像に基づいて、それぞれ異なる方向のエッジを検出することによりそれぞれ異なる劣化部分候補画素を抽出し、抽出した劣化部分候補画素の論理積を算出することによりノイズ除去画像を生成し、該ノイズ除去画像から劣化部分を検出する。 Furthermore, Japanese Patent No. 6042313 (Patent Document 3) discloses a deterioration detection device that automatically detects deteriorated parts on the surface of a concrete structure from an image of the concrete structure by image processing. This conventional device extracts different deteriorated part candidate pixels by detecting edges in different directions based on the image of the concrete structure, generates a noise-removed image by calculating the logical product of the extracted deteriorated part candidate pixels, and detects deteriorated parts from the noise-removed image.

特許第6347384号公報Patent No. 6347384 特許第5443055号公報Patent No. 5443055 特許第6042313号公報Patent No. 6042313

しかしながら、特許文献1の発明では、未確定の損傷部分の特定は、点検者が撮影した画像から点検者が行うことになるため未確定の損傷部分の特定に点検者の熟練度が要求される。また特許文献2の発明でも、損傷部分の特定は点検者が行う必要がある。特許文献3の発明では、コンクリート構造物の表面に生じた劣化部分を画像処理によって自動検出するが、この自動検出では、熟練者の知識が活用できない上、点検者が実際に検査をすべき劣化部分の検査領域(関心領域)を知ることができない。 However, in the invention of Patent Document 1, the undetermined damaged parts are identified by the inspector from the images he or she has taken, so the inspector must be highly skilled in identifying the undetermined damaged parts. Also in the invention of Patent Document 2, the inspector must identify the damaged parts. In the invention of Patent Document 3, deteriorated parts that have appeared on the surface of a concrete structure are automatically detected by image processing, but this automatic detection does not utilize the knowledge of an expert, and the inspector cannot know the inspection area (area of interest) of the deteriorated parts that he or she should actually inspect.

本発明の目的は、点検者が撮影した損傷部分を含む画像から、点検をすることが適切な検査範囲(関心領域)を自動抽出して表示することができる構造物の点検・補修支援システムを提供することにある。 The objective of the present invention is to provide a structure inspection and repair support system that can automatically extract and display an appropriate inspection area (area of interest) for inspection from an image including damaged areas captured by an inspector.

また本発明の他の目的は、抽出した検査領域(関心領域)の損傷部分の画像に類似した過去の損傷画像を画像特徴量から検索し、その結果を提示することで、損傷に対する今後の維持管理に適切な支援を可能とする構造物の点検・補修支援システムを提供することにある。 Another object of the present invention is to provide a structure inspection and repair support system that searches for past damage images similar to images of damaged areas in an extracted inspection area (area of interest) from image features and presents the results, thereby enabling appropriate support for future maintenance and management of the damage.

さらに本発明の他の目的は、形状特徴量と色彩特徴量を結合した画像特徴量を用いて、検索精度を高めることができる構造物の点検・補修支援システムを提供することにある。 Another object of the present invention is to provide a structure inspection and repair support system that can improve search accuracy by using image features that combine shape features and color features.

本発明の構造物の点検・補修支援システムは、画像データ取得部と、データ蓄積部と、関心領域決定部と、表示データ作成部を備えている。画像データ取得部は、点検対象のコンクリート構造物において損傷している損傷部分と該損傷部分の近傍とを撮影装置で撮影した1以上の対象損傷部分を含む画像データを取得する。データ蓄積部は、過去に点検を行って得た複数の損傷部分の画像データと、該複数の損傷部分の画像データに対応する検査範囲のデータを少なくとも含む複数の損傷部分の損傷データを蓄積する。そして関心領域決定部は、1以上の対象損傷部分を含む画像データを入力として、少なくとも過去に点検を行って得た複数の損傷部分を含む画像データ及び該複数の損傷部分を含む画像データに対応して、点検または補修作業の熟練者が決定した複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて、1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域として決定する。その上で、表示データ作成部は、1以上の対象損傷部分の画像の上に関心領域を表示した表示画像を画像表示装置の表示画面に表示する。 The structure inspection and repair support system of the present invention includes an image data acquisition unit, a data storage unit, a region of interest determination unit, and a display data creation unit. The image data acquisition unit acquires image data including one or more target damaged parts, obtained by photographing a damaged part in a concrete structure to be inspected and the vicinity of the damaged part with a photographing device. The data storage unit accumulates image data of the multiple damaged parts obtained by past inspections and damage data of the multiple damaged parts including at least data of the inspection range corresponding to the image data of the multiple damaged parts. The region of interest determination unit receives the image data including one or more target damaged parts as input, and determines the inspection range to be inspected by an inspector for one or more target damaged parts as a region of interest using a learning model created using image data including at least the multiple damaged parts obtained by past inspections and data including the inspection range of the multiple damaged parts determined by an expert in inspection or repair work corresponding to the image data including the multiple damaged parts as teacher data. Then, the display data creation unit displays a display image in which the region of interest is displayed on the image of one or more target damaged parts on the display screen of the image display device.

本発明によれば、点検または補修作業の熟練者が決定した複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域として決定するので、点検者に適切な点検範囲を自動で提示することができる。 According to the present invention, a learning model is created using data including the inspection ranges of multiple damaged areas determined by an expert in inspection or repair work as training data, and the inspection range that should be inspected by an inspector for one or more target damaged areas is determined as an area of interest, so that an appropriate inspection range can be automatically presented to the inspector.

関心領域決定部は、過去に点検を行って得た複数の損傷部分を含む画像データ及び、該複数の損傷部分を含む画像データに対応して、点検または補修作業の熟練者が決定した複数の損傷部分の検査範囲を含むデータを教師データとして、損傷部分及び該損傷部分の周囲における損傷の有無の確率を出力として推定するように構築された学習モデルと、対象損傷部分を含む画像データを入力として学習モデルから出力された対象損傷部分及び該対象損傷部分の周囲領域における損傷の有無の確率が、予め定めた値を超える部分を含む領域を関心領域として決定する確率領域決定部とを備えている。本発明によれば、学習モデルが損傷の有無の確率を出力し、損傷の有無の確率が、予め定めた値を超える部分を含む領域を関心領域として決定するので、高い精度で関心領域を決定できる。 The region of interest determination unit includes a learning model constructed to estimate the probability of the presence or absence of damage in and around the damaged portion as output using image data including multiple damaged portions obtained by past inspections and data including the inspection range of the multiple damaged portions determined by an expert in inspection or repair work corresponding to the image data including the multiple damaged portions as teacher data, and a probability region determination unit that determines, as the region of interest, a region including a portion where the probability of the presence or absence of damage in the target damaged portion and the surrounding region of the target damaged portion output from the learning model using image data including the target damaged portion as input, exceeds a predetermined value. According to the present invention, the learning model outputs the probability of the presence or absence of damage, and the region of interest is determined to be a region including a portion where the probability of the presence or absence of damage exceeds a predetermined value, so that the region of interest can be determined with high accuracy.

表示データ作成部は、関心領域の表示として、点検者が点検をすべき領域の輪郭形状を示す表示または輪郭を囲む矩形形状を示す表示を作成する。輪郭形状であれば、点検範囲が小さくて済む。また矩形状であれば、点検者の点検作業が容易になる。 The display data creation unit creates, as a display of the region of interest, a display showing the contour shape of the area to be inspected by the inspector or a display showing a rectangular shape surrounding the contour. If it is a contour shape, the inspection range can be made small. Also, if it is a rectangular shape, the inspector's inspection work will be easier.

関心領域決定部が決定した関心領域を点検者がマニュアル操作で補正したデータを検査範囲のデータとしてデータ蓄積部に蓄積する関心領域補正部をさらに備えていてもよい。このようにすると新規に点検した損傷部分の点検結果を補正して以後の点検に反映することが可能になる。 The system may further include a region of interest correction unit that stores data obtained by manually correcting the region of interest determined by the region of interest determination unit in the data storage unit as data on the inspection range by an inspector. In this way, it becomes possible to correct the inspection results of a newly inspected damaged area and reflect them in subsequent inspections.

1以上の対象損傷部分を含む画像データ及び複数の損傷部分を含む画像データから1以上の対象損傷部分を含む画像の画像特徴量及び複数の損傷部分を含む画像の画像特徴量を求める画像特徴量演算部と、画像特徴量演算部の演算結果から、1以上の対象損傷部分を含む画像に類似する複数の損傷部分を含む画像を複数選択する類似画像選択部をさらに備えていてもよい。そして、表示データ作成部は、類似画像選択部が選択した複数の損傷部分の画像を画像表示装置の表示画面に選択可能に表示する表示データを作成するのが好ましい。対象損傷部分の画像に類似する複数の損傷部分の画像を画像特徴量に基づいて選択可能に表示すると、画像特徴量に基づいて選択した過去の複数の損傷部分のデータの中から、点検者の経験を含めて対象損傷部分の修復に必要な過去の類似データを見つけることができる。この場合、データ蓄積部には、過去に点検を行って得た複数の損傷部分を含む画像データに対応して複数の損傷部分の補修履歴情報が蓄積されており、表示データ作成部は、表示画面に表示された複数の損傷部分を含む画像から選択された損傷部分の画像に対応する補修履歴情報を表示画面に表示する表示データを作成するのが好ましい。このようにすれば適切な補修履歴情報を点検者が得ることができる可能性が高くなる。またデータ蓄積部には、過去に点検を行って得た複数の損傷部分を含む画像データに対応して複数の損傷部分の損傷の程度を損傷クラスで表す損傷クラスデータが蓄積されており、表示データ作成部は、損傷クラスを前記複数の損傷部分の画像と一緒に表示画面に表示する表示データを作成するのが好ましい。このようにすると損傷クラスを目安として、点検者が対象損傷部分に近い過去の損傷部分の画像を選択することができる。 The image display device may further include an image feature amount calculation unit that calculates image feature amounts of an image including one or more target damaged parts and image feature amounts of an image including multiple damaged parts from image data including one or more target damaged parts and image data including multiple damaged parts, and a similar image selection unit that selects multiple images including multiple damaged parts similar to the image including one or more target damaged parts from the calculation result of the image feature amount calculation unit. The display data creation unit preferably creates display data that selectably displays the images of the multiple damaged parts selected by the similar image selection unit on the display screen of the image display device. When the images of the multiple damaged parts similar to the image of the target damaged part are selectably displayed based on the image feature amount, it is possible to find past similar data necessary for repairing the target damaged part, including the inspector's experience, from the data of the multiple past damaged parts selected based on the image feature amount. In this case, the data storage unit stores repair history information of the multiple damaged parts corresponding to image data including the multiple damaged parts obtained by performing inspection in the past, and the display data creation unit preferably creates display data that displays repair history information corresponding to the image of the damaged part selected from the image including the multiple damaged parts displayed on the display screen on the display screen. In this way, the inspector is more likely to obtain appropriate repair history information. The data storage unit preferably stores damage class data that represents the degree of damage of a plurality of damaged parts by a damage class corresponding to image data including the plurality of damaged parts obtained by past inspections, and the display data creation unit preferably creates display data that displays the damage class on the display screen together with the images of the plurality of damaged parts. In this way, the inspector can use the damage class as a guide to select an image of a past damaged part that is similar to the target damaged part.

画像特徴量演算部が演算する画像特徴量は、形状特徴量と色彩特徴量を結合したものである。 The image features calculated by the image feature calculation unit are a combination of shape features and color features.

対象損傷部分の画像データ及び複数の損傷部分の画像データがRGB画像データである場合、画像特徴量演算部は、RGB画像データのRGB色空間をL*a*b*表色系に変換し、L*a*b*表色系に変換したデータからL*a*b*成分のうち、a*b*成分のみを分離し、分離したa*b*成分を量子化モデルにより量子化し、量子化して得た量子化色画像について色領域内Iと色の境界Bの2種類に分類し、分類した色領域内Iと色の境界Bについてそれぞれ量子化された各色の出現頻度を色彩特徴量(量子化BIC特徴量)として抽出するのが好ましい。このようにして色彩特徴量を抽出すると、ある程度の認識できる明るさで撮影されていれば、画像の明るさの変化に依存しないで、データに基づいた色の違いに着目した特徴量を抽出することができる。したがって色彩特徴量により、例えば、撮影時が晴れであるか、曇りであるかなどの撮影条件に左右されることなく、画像データから特徴量を抽出することができる。 When the image data of the target damaged part and the image data of the multiple damaged parts are RGB image data, the image feature calculation unit converts the RGB color space of the RGB image data into the L*a*b* color system, separates only the a*b* component from the L*a*b* components from the data converted into the L*a*b* color system, quantizes the separated a*b* component using a quantization model, classifies the quantized color image obtained by quantization into two types, color area I and color boundary B, and preferably extracts the occurrence frequency of each quantized color for the classified color area I and color boundary B as a color feature (quantized BIC feature). When color features are extracted in this way, as long as the image is taken with a certain degree of recognizable brightness, it is possible to extract features that focus on color differences based on the data, regardless of changes in the brightness of the image. Therefore, the color features make it possible to extract features from image data without being affected by shooting conditions such as whether the image was taken on a sunny or cloudy day.

また画像特徴量演算部は、RGB画像データをグレースケール画像データに変換し、変換したグレースケール画像データからノイズを除去し、ノイズを除去したグレースケール画像データから輪郭を抽出し、輪郭を抽出したグレースケール画像データからHLAC特徴量を形状特徴量として抽出してもよい。このように形状特徴量を抽出すると、簡単に形状特徴量を抽出することができる。 The image feature calculation unit may also convert the RGB image data into grayscale image data, remove noise from the converted grayscale image data, extract contours from the noise-removed grayscale image data, and extract HLAC features as shape features from the contour-extracted grayscale image data. Extracting shape features in this manner makes it easy to extract shape features.

画像特徴量演算部は、前記形状特徴量と前記色彩特徴量を連結し、連結した特徴量を正規化して画像特徴量として出力するのが好ましい。正規化して画像特徴量を用いれば、画像の大きさと無関係に画像特徴量を利用することができる。 It is preferable that the image feature calculation unit concatenates the shape feature and the color feature, normalizes the concatenated feature, and outputs it as the image feature. If the normalized image feature is used, the image feature can be used regardless of the size of the image.

本発明の本発明の構造物の点検・補修支援システムの第1の実施の形態の構成を示すブロック図である。1 is a block diagram showing a configuration of a first embodiment of a structure inspection and repair support system according to the present invention; (A)乃至(D)は、損傷画像と過去に実際に点検を行った検査範囲を説明するために用いる図である。13A to 13D are diagrams used to explain damage images and inspection ranges that were actually inspected in the past. (A)及び(B)は、矩形以外の関心領域の形状を示す図である。13A and 13B are diagrams showing shapes of a region of interest other than a rectangle. データ蓄積部における損傷画像の蓄積処理の工程を示すフローチャートである。10 is a flowchart showing steps of a damage image storage process in a data storage unit. 関心領域決定部における処理の工程と、学習モデルを作成する処理の工程を示すフローチャートである。13 is a flowchart showing the processing steps in a region of interest determining unit and the processing steps for creating a learning model. 図5の学習処理のステップST23及びST24の詳細を示すフローチャートである。6 is a flowchart showing details of steps ST23 and ST24 of the learning process in FIG. 5 . 正解矩形画像と損傷画像検査範囲の例を示す図である。13A and 13B are diagrams showing examples of a correct rectangular image and a damage image inspection range. SSDにおける畳み込み演算処理の前半を示す図である。FIG. 13 is a diagram showing the first half of the convolution calculation process in an SSD. SSDにおける畳み込み演算処理の後半を示す図である。FIG. 13 is a diagram showing the latter half of the convolution calculation process in the SSD. SSDにおけるフィルタリストの各グリッド位置に対する異なるアスペクト比の説明に用いる図である。FIG. 13 is a diagram used to explain different aspect ratios for each grid position of a filter list in an SSD. 図5の推定処理のステップST13の詳細を示すフローチャートである。6 is a flowchart showing details of step ST13 of the estimation process in FIG. 5 . (A)は対象損傷画像、(B)は関心領域の例を示す図である。FIG. 1A is a diagram showing an example of a target damage image, and FIG. CNNベースのVGGモデルによる学習モデルを構成するための学習処理のフローチャートである。13 is a flowchart of a learning process for constructing a learning model using a CNN-based VGG model. VGGモデルからなる学習モデル構築するための損傷画像データ及び対応する損傷画像検査範囲を示す図である。A figure showing damage image data and the corresponding damage image inspection range for constructing a learning model consisting of a VGG model. CNNベースの学習モデルを用いた関心領域の推定のフローチャートである。1 is a flowchart of region of interest estimation using a CNN-based learning model. CNN演算で用いるネットワーク構造例を示す図である。FIG. 1 is a diagram illustrating an example of a network structure used in CNN calculation. CNN手法により関心領域を決定する過程を画像で示す図である。1 is a diagram showing, with images, the process of determining a region of interest using a CNN technique. 学習モデルとしてのSSDモデルとVGGモデルの比較を示す図である。FIG. 13 is a diagram showing a comparison between the SSD model and the VGG model as learning models. 本発明の第2の実施の形態の構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of a second embodiment of the present invention. (A)乃至(C)は、関心領域補正部の動作を説明するために用いる図である。5A to 5C are diagrams used to explain the operation of a region of interest correction unit. 本発明の第3の実施の形態の構成を示すブロック図である。FIG. 13 is a block diagram showing a configuration of a third embodiment of the present invention. 表示データ作成部における表示データ作成処理の工程を示すフローチャートである。10 is a flowchart showing steps of a display data creation process in a display data creation unit. 画像表示装置の表示画面の表示の一例を示す図である。FIG. 2 is a diagram showing an example of a display on a display screen of an image display device. (A)及び(B)は、損傷部分の画像補修履歴情報の例を説明するために用いる図である。13A and 13B are diagrams used to explain an example of image repair history information of a damaged portion. 画像特徴量演算部をソフトウエアで実現する場合のアルゴリズムの一例を示す図である。FIG. 13 is a diagram showing an example of an algorithm when the image feature amount calculation unit is realized by software. (A)は色量子化モデルを作成する工程を示す図であり、(B)は量子化BIC特徴量を決定するアルゴリズムを示す図である。FIG. 1A is a diagram showing a process for creating a color quantization model, and FIG. 1B is a diagram showing an algorithm for determining a quantized BIC feature. 色彩情報抽出の概念を示す図である。FIG. 1 is a diagram illustrating a concept of color information extraction. 代表色決定の概念を示す図である。FIG. 1 is a diagram illustrating a concept of determining a representative color. 色量子化された画像中のすべてのピクセルにおける色情報をI(色領域内)とB(色の境界)に分類する例の説明に用いる図である。1 is a diagram used to explain an example in which color information of all pixels in a color-quantized image is classified into I (within a color region) and B (color boundary). FIG. 量子化BIC特徴を算出する例を示す図である。FIG. 13 is a diagram illustrating an example of calculating quantized BIC features.

以下図面を参照して、本発明の構造物の点検・補修支援システムの実施の形態を詳細に説明する。 The following describes in detail an embodiment of the structure inspection and repair support system of the present invention with reference to the drawings.

[第1の実施の形態]
図1は、本発明の構造物の点検・補修支援システムの第1の実施の形態の構成を示すブロック図である。第1の実施の形態の構造物の点検・補修支援システム1は、画像データ取得部3と、データ蓄積部5と、関心領域決定部7と、表示データ作成部9と画像表示装置11を備えている。本実施の形態では、画像データ取得部3~表示データ作成部9までの主要部は、コンピュータにインストロールしたソフトウエアによってコンピュータの内部に実現されている。画像データ取得部3は、図2(A)に示すような検査対象のコンクリート構造物において損傷している損傷部分と該損傷部分の近傍とをデジタルカメラ等の撮影装置で撮影した1以上の対象損傷部分a1~a3を含む画像データを取得する。損傷部分は、コンクリート構造物から露出した鉄筋、コンクリートのひび割れや浮き、鋼構造物クラック等である。
[First embodiment]
FIG. 1 is a block diagram showing the configuration of a first embodiment of the structure inspection and repair support system of the present invention. The structure inspection and repair support system 1 of the first embodiment includes an image data acquisition unit 3, a data storage unit 5, a region of interest determination unit 7, a display data creation unit 9, and an image display device 11. In this embodiment, the main units from the image data acquisition unit 3 to the display data creation unit 9 are realized inside the computer by software installed in the computer. The image data acquisition unit 3 acquires image data including one or more target damaged parts a1 to a3, which are photographed by a photographing device such as a digital camera of a damaged part and the vicinity of the damaged part in an inspection target concrete structure as shown in FIG. 2(A). The damaged parts are rebars exposed from the concrete structure, cracks or lifts in the concrete, cracks in the steel structure, and the like.

画像データ取得部3の主要部は、コンピュータの入力ポートによって構成される。本実施の形態では、画像データ取得部3で取得した1以上の対象損傷部分を含む画像データは、関心領域決定部7に入力される。データ蓄積部5には、過去に点検を行って得た複数の損傷部分の画像データと、この複数の損傷部分の画像データに対応する検査範囲のデータを少なくとも含む複数の損傷部分の損傷データ(実際に点検を行った検査範囲、損傷場所、修復履歴、損傷ランキング等)が蓄積されている。図2(C)には過去に点検を行って得た損傷部分の画像データの一例を示している。図2(D)は、図2(C)の損傷画像に、過去に実際に点検を行った検査範囲D1を表示した画像データを示している。 The main part of the image data acquisition unit 3 is composed of a computer input port. In this embodiment, image data including one or more target damaged parts acquired by the image data acquisition unit 3 is input to the region of interest determination unit 7. The data storage unit 5 stores image data of multiple damaged parts obtained by past inspections and damage data of multiple damaged parts (inspection range actually inspected, damage location, repair history, damage ranking, etc.) including at least data of the inspection range corresponding to the image data of the multiple damaged parts. Figure 2 (C) shows an example of image data of a damaged part obtained by a past inspection. Figure 2 (D) shows image data in which the inspection range D1 actually inspected in the past is displayed on the damage image of Figure 2 (C).

図4は、データ蓄積部5における損傷画像の蓄積処理の工程を示すフローチャートである。ステップST1で過去の損傷画像データを読み込む。ステップST2では、実際に熟練者が点検または補修作業を行った点検範囲D1を損傷画像上に表示するための指定を行う。そしてステップST3で、データ蓄積部5内に構築した損傷画像データベースに損傷画像と点検範囲のデータを蓄積する。 Figure 4 is a flowchart showing the steps of the damage image accumulation process in the data accumulation unit 5. In step ST1, past damage image data is read. In step ST2, the inspection area D1 where an expert actually performed inspection or repair work is specified to be displayed on the damage image. Then, in step ST3, the damage image and inspection area data are accumulated in a damage image database constructed in the data accumulation unit 5.

関心領域決定部7は、1以上の対象損傷部分a1~a3を含む画像データを入力として、少なくとも過去に点検を行って得た複数の損傷部分を含む画像データ及び該複数の損傷部分を含む画像データに対応して、点検または補修作業の熟練者が過去に決定した複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて、1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域b1~b3[図2(B)参照]として決定する。表示データ作成部9は、対象損傷部分の画像の上に関心領域を表示した表示画像を画像表示装置11の表示画面に表示する表示データを作成する。なお本実施の形態では、表示データ作成部9が、表示データである画像データと点検すべき関心領域を新たなデータとしてデータ蓄積部5に蓄積する。 The region of interest determination unit 7 receives image data including one or more target damaged parts a1-a3 as input, and determines the inspection range that an inspector should inspect for one or more target damaged parts as regions of interest b1-b3 [see FIG. 2(B)] using a learning model created using image data including at least multiple damaged parts obtained by past inspections and data including inspection ranges of multiple damaged parts previously determined by an expert in inspection or repair work as teacher data corresponding to the image data including the multiple damaged parts. The display data creation unit 9 creates display data that displays a display image in which the region of interest is displayed on the image of the target damaged part on the display screen of the image display device 11. In this embodiment, the display data creation unit 9 stores the image data, which is the display data, and the region of interest to be inspected in the data storage unit 5 as new data.

図3(A)及び(B)に示すように画像表示装置11の表示画面に表示する関心領域b4及びb5は、矩形以外の形状であってもよい。関心領域は、点検時に点検者が損傷部分を判定する際に参照(または確認または視認)すべき領域の範囲で、点検経験の少ない技術者に対しては経験を補う有用な情報となり、点検経験の多い熟練の技術者に対しては過去のデータに基づいた客観的な指標となる。 As shown in Figures 3(A) and (B), the areas of interest b4 and b5 displayed on the display screen of the image display device 11 may have a shape other than a rectangle. The areas of interest are the range of the area that an inspector should refer to (or confirm or visually confirm) when determining damaged parts during an inspection, and provide useful information to compensate for the experience of technicians with little inspection experience, and provide an objective indicator based on past data for experienced technicians with a lot of inspection experience.

図5は、関心領域決定部7における処理の工程と、学習モデルを作成する処理の工程を示すフローチャートである。まずステップST11において、1以上の対象損傷部分a1~a3を含む画像データを読み込む。そしてステップST12で、関心領域の学習モデルを読み込み、ステップST13で関心領域を推定し、ステップST14で関心領域を決定する。具体的には、学習モデルにより画像内から損傷有無の確率を推定する。そして損傷有無の確率に応じて、閾値を超えているか否かに基づいて関心領域(検査領域)を決定する。これは学習モデルにより入力された対象画像内から関心領域箇所の尤度を算出していることになる。 Figure 5 is a flowchart showing the processing steps in the region of interest determination unit 7 and the processing steps for creating a learning model. First, in step ST11, image data including one or more target damaged parts a1 to a3 is read. Then, in step ST12, a learning model of the region of interest is read, in step ST13 the region of interest is estimated, and in step ST14 the region of interest is determined. Specifically, the learning model estimates the probability of the presence or absence of damage from within the image. Then, depending on the probability of the presence or absence of damage, a region of interest (inspection region) is determined based on whether or not it exceeds a threshold. This means that the likelihood of the region of interest location is calculated from within the target image input by the learning model.

学習モデルを作成する場合の処理では、ステップST21で複数の蓄積された過去の複数の損傷部分の画像データを読み出し、ステップST22で過去に点検を行って得た該複数の損傷部分を含む画像データに対応して、点検または補修作業の熟練者が過去に決定した複数の損傷部分の検査範囲を含むデータを教師データとして読み出す。そしてステップST23において学習処理を実行し、ステップST24で関心領域を推定するために用いる学習モデルを生成する。ステップST24では、関心領域決定用に設計した関心領域学習モデルの学習パラメータを決定する。 In the process of creating a learning model, in step ST21, multiple accumulated image data of multiple damaged parts from the past are read out, and in step ST22, data including the inspection range of the multiple damaged parts previously determined by an expert in inspection or repair work is read out as teacher data corresponding to the image data including the multiple damaged parts obtained by performing a previous inspection. Then, in step ST23, a learning process is executed, and in step ST24, a learning model to be used for estimating the region of interest is generated. In step ST24, learning parameters of the region of interest learning model designed for determining the region of interest are determined.

[学習モデルを用いた関心領域の決定]
関心領域決定用の学習モデルの生成と学習モデルを用いた関心領域の推定は、任意の手法を用いることが可能である。例えば、本実施の形態では、SSD(Single Shot multi-box Detector)による手法と、VGGによる手法を用いている。これらの手法については、下記の論文に詳細に説明されている。
[Determining Regions of Interest Using Learning Models]
Any method can be used to generate a learning model for determining a region of interest and estimate the region of interest using the learning model. For example, in this embodiment, a method using SSD (Single Shot multi-box Detector) and a method using VGG are used. These methods are described in detail in the following paper.

(SSDの文献) Liu, Wei, et al. "SSD: Single Shot MultiBox Detector." arXiv preprint arXiv:1512.02325 (2015).
(VGGの文献) K. Simonyan and A. Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recoginition. In Intl. Conf. on Learning Repre-sentations (ICLR), 2015.。
(SSD literature) Liu, Wei, et al. "SSD: Single Shot MultiBox Detector." arXiv preprint arXiv:1512.02325 (2015).
(VGG literature) K. Simonyan and A. Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recoginition. In Intl. Conf. on Learning Repre-sentations (ICLR), 2015.

関心領域決定部7の処理は、画像データ取得部3から読み込んだ、対象損傷部分及びその近傍を含む取得画像データに対し、関心領域推定モデル生成処理で生成した関心領域推定の学習モデルを用いて、関心領域の推定を行い、対象損傷部分及びその近傍を含む損傷画像内で、検査者が損傷部分を判定する際に参照(又は確認又は視認)すべき検査領域を決定する。 The processing of the region of interest determination unit 7 uses the learning model for region of interest estimation generated by the region of interest estimation model generation process to estimate a region of interest for the acquired image data including the target damaged part and its vicinity read from the image data acquisition unit 3, and determines the inspection region that should be referred to (or confirmed or visually recognized) by the inspector when determining the damaged part within the damage image including the target damaged part and its vicinity.

図6は図5の学習処理のステップST23の詳細を示すフローチャートである。この学習処理では、まず、読み込んだ複数の損傷画像データ及び対応する損傷画像検査範囲を用いて、正解矩形画像を生成する(ST231)。図7(A-1)及び(A-2)並びに図7(B-1)及び(B-2)に示すように、正解矩形画像は、データ蓄積部5で蓄積された損傷画像検査範囲を含む矩形領域を1、それ以外の領域を0とする2値画像となる。正解矩形画像は、図7(C-1)及び(C-2)並びに図7(D-1)及び(D-2)に示すように損傷画像検査範囲が矩形ではない場合は、その範囲を包含する矩形領域を1、それ以外の領域を0とする2値画像となる。 Figure 6 is a flow chart showing the details of step ST23 of the learning process in Figure 5. In this learning process, first, a correct rectangular image is generated (ST231) using the multiple damage image data and the corresponding damage image inspection range that have been read. As shown in Figures 7 (A-1) and (A-2) and Figures 7 (B-1) and (B-2), the correct rectangular image is a binary image in which the rectangular area including the damage image inspection range stored in the data storage unit 5 is set to 1 and the other areas are set to 0. If the damage image inspection range is not rectangular, the correct rectangular image is a binary image in which the rectangular area including the range is set to 1 and the other areas are set to 0, as shown in Figures 7 (C-1) and (C-2) and Figures 7 (D-1) and (D-2).

[SSDモデルによる学習モデルでの処理]
複数の損傷画像と対応した正解矩形画像のデータセットを学習用の教師データとして、SSD(Single Shot multi-box Detector)モデルを学習する。SSDモデルは、画像中から物体検出を目的とした深層学習モデルのひとつであり、一般物体検出において高速、高精度に動作する手法である。畳み込みニューラルネットワーク(Convolutional Neural Networks:CNN)を通し、その過程で得られる複数の異なるスケールを持つ特徴マップを生成する。これらの特徴マップにおけるそれぞれの位置について、アスペクト比を変化させながら対象物体との相対位置と尤度を算出する。
[Processing in learning model using SSD model]
A data set of multiple damage images and corresponding correct rectangular images is used as training data to train a Single Shot Multi-box Detector (SSD) model. The SSD model is one of the deep learning models aimed at object detection in images, and is a method that operates quickly and accurately in general object detection. A Convolutional Neural Network (CNN) is used to generate feature maps with multiple different scales obtained in the process. For each position in these feature maps, the relative position and likelihood with respect to the target object are calculated while changing the aspect ratio.

学習では、すべての教師データの入力画像(本実施例では損傷画像)に対し、SSDモデルにおいて畳み込み演算を繰り返し適用しながら出力される特徴マップについて、グリッド上に分割し、その各位置について異なるアスペクト比(縦横のサイズ比)の関心領域候補と、対応する正解矩形画像から計算された正解ボックスとの重複を計算する。重複が多くなるようにSSDモデルのパラメータを調整しながら学習を進め、所定回繰り返したときのSSDモデルを関心領域の推定のための学習モデルとする。 In learning, the feature map output by repeatedly applying convolution operations in the SSD model to all training data input images (damage images in this example) is divided onto a grid, and for each position, the overlap between candidate regions of interest with different aspect ratios (ratio of length to width) and the correct answer box calculated from the corresponding correct answer rectangular image is calculated. Learning proceeds while adjusting the parameters of the SSD model to increase the overlap, and the SSD model after a predetermined number of repetitions is used as the learning model for estimating the region of interest.

畳込み演算は図8及び図9の順に処理される。入力画像について、畳込み処理、バッチ正規化処理、活性化、最大値プーリングを順次適用する。図8における畳込み処理はconv[層番号1]_[層番号2(あれば)]_[フィルタ数]として表現しており、VGG Outputは図8における畳込み処理の出力結果を表す。(例えば、図8中においてconv1_16は16枚のフィルタを持つ1層目の畳込み層を表す)。図8で得た出力は、図9に示される処理に入力される。図9も図8と同様入力に対し畳込みを適用するが、各層における出力結果をフィルタリストfsに保存する。つまり、フィルタリストにおいては畳込み4層目、7層目、8層目、9層目、10層目、11層目から出力されるそれぞれの畳込み演算後フィルタ画像集合が格納される。これら各フィルタを図10のようにグリッド状に分割し、各グリッド位置について予め設定したアスペクト比に基づき関心領域有無の確率を推定する。 The convolution operation is processed in the order of Fig. 8 and Fig. 9. Convolution, batch normalization, activation, and maximum pooling are applied to the input image in sequence. The convolution operation in Fig. 8 is expressed as conv[layer number 1]_[layer number 2 (if any)]_[number of filters], and VGG Output represents the output result of the convolution operation in Fig. 8. (For example, in Fig. 8, conv1_16 represents the first convolution layer with 16 filters). The output obtained in Fig. 8 is input to the process shown in Fig. 9. In Fig. 9, convolution is applied to the input as in Fig. 8, but the output results in each layer are saved in the filter list fs. In other words, the filter list stores the sets of filter images after the convolution operation output from the 4th, 7th, 8th, 9th, 10th, and 11th convolution layers. Each of these filters is divided into a grid as shown in Fig. 10, and the probability of the presence or absence of a region of interest is estimated based on the aspect ratio set in advance for each grid position.

図11は、図5の推定処理のステップST13の詳細を示している。図11の推定処理は、損傷画像を推定用の学習モデルに入力し、学習モデル(SSDモデル)において畳み込み演算を繰り返し適用しながら出力される特徴マップについて、グリッド上に分割し、その各位置について異なるアスペクト比(縦横のサイズ比)の関心領域候補の尤度を算出する。指定された尤度の閾値を基に、閾値以上の尤度をもつ候補に絞り、関心領域とする。図12(A)に示すように、損傷部分が2箇所含まれる対象損傷画像に対し、画像表示装置11には図12(B)に示す2つの関心領域を推定した結果が表示される。図12(B)の推定結果は、尤度の閾値を0.5としたときの関心領域である。 Figure 11 shows details of step ST13 of the estimation process in Figure 5. In the estimation process in Figure 11, a damage image is input to a learning model for estimation, and a feature map output by repeatedly applying convolution operations in the learning model (SSD model) is divided into a grid, and the likelihood of candidate regions of interest with different aspect ratios (ratio of length to width) is calculated for each position. Based on a specified likelihood threshold, candidates with a likelihood equal to or greater than the threshold are narrowed down to be determined as the region of interest. As shown in Figure 12 (A), for a target damage image containing two damaged areas, the image display device 11 displays the results of estimating the two regions of interest shown in Figure 12 (B). The estimation result in Figure 12 (B) is the region of interest when the likelihood threshold is set to 0.5.

[VGGモデルによる学習モデルでの処理]
図13は畳み込みニューラルネットワーク(CNN)で構成されるVGGモデルによる学習モデルを構築するための学習処理のフローチャートである。このVGGモデルによる学習モデルの学習処理では、まず、読み込んだ複数の損傷画像データ及び対応する損傷画像検査範囲を用いて、正解画像を生成する(ST231´)。図14(A-1)及び(A-2)乃至図14(D-1)及び(D-2)に示すように、正解画像は、データ蓄積部で蓄積された損傷画像検査範囲を含む領域を1、それ以外の領域を0とする2値画像となる。正解画像は、損傷画像検査範囲が矩形ではない場合は、その範囲を包含する矩形領域を1、それ以外の領域を0とする2値画像となる。複数の損傷画像と対応した正解矩形画像のデータセットを学習用の教師データとして、VGGモデルを学習する(ST232´)。
[Processing in learning model using VGG model]
FIG. 13 is a flowchart of a learning process for constructing a learning model by a VGG model composed of a convolutional neural network (CNN). In the learning process of the learning model by the VGG model, first, a correct image is generated using the multiple damage image data and the corresponding damage image inspection range that have been read (ST231'). As shown in FIGS. 14 (A-1) and (A-2) to 14 (D-1) and (D-2), the correct image is a binary image in which the area including the damage image inspection range stored in the data storage unit is set to 1 and the other areas are set to 0. If the damage image inspection range is not rectangular, the correct image is a binary image in which the rectangular area including the range is set to 1 and the other areas are set to 0. The VGG model is learned by using a data set of correct rectangular images corresponding to multiple damage images as training data for learning (ST232').

CNNに基づく物体検出においては、全結合層までネットワーク処理を通し、出力として得られる画像を構成するピクセルに対応した高次元ベクトルを尤度マップとして再構成する。学習では、後述する図15のステップST31~ST34が行われて、すべての教師データの入力画像(本実施例では損傷画像)に対し、VGGモデルにおいて畳み込み処理とプーリング処理を順次適用し、最終層における全結合層の出力ベクトルを損傷部分の尤度マップとして正解画像との誤差に基づきネットワークのパラメータを学習する。 In object detection based on CNN, network processing is performed up to the fully connected layer, and high-dimensional vectors corresponding to the pixels that make up the image obtained as output are reconstructed as a likelihood map. In learning, steps ST31 to ST34 in FIG. 15 described later are performed, and convolution processing and pooling processing are sequentially applied in the VGG model to all input images of training data (damage images in this embodiment), and the output vector of the fully connected layer in the final layer is used as a likelihood map of the damaged part, and the network parameters are learned based on the error with the correct image.

図15は、学習モデル(VGGモデル)を用いた関心領域の推定のフローチャートである。このフローチャートではステップST31において、関心領域を抽出する画像を読み込む。そしてステップST32で、入力画像を正規化する。すなわち画像のサイズを256×256[px]に変更し、画素値を平均0、分散1となるよう標準化する。次にステップST33でVGGモデルによるCNN演算を実施する。CNN演算では、正規化した画像について、図16に示すVGGモデルのネットワーク構造を用いて畳込み処理、最大値プーリング処理を順次適用し、最終層において全結合層の出力を一次元配列として出力する。次にステップST34で、一次元配列された全結合層の出力を二次元に再構成する。すなわち、CNN演算において出力された一次元配列を画像状の二次元配列に再構成し、尤度マップとして出力する。次にステップST35で、二値化処理を実行する。この二値化処理では、尤度マップの各要素の値について、閾値を超えた場合は1、そうでない場合は0とする二値化処理を適用する。次にステップST36で、モルフォロジー処理を実行する。モルフォロジー処理では、二値化した尤度マップについて、収縮と膨張の処理を適用しノイズ除去、穴埋めを行う。最後にステップST37で、関心領域の抽出を行う。このステップでは、モルフォロジー処理を適用した尤度マップに対し、blob解析により1を示すピクセルが連結された領域を包含する矩形を関心領域として抽出する。図17は、VGGモデルにより関心領域を決定する過程を画像で示す。 Figure 15 is a flowchart of estimating a region of interest using a learning model (VGG model). In this flowchart, in step ST31, an image from which a region of interest is to be extracted is read. Then, in step ST32, the input image is normalized. That is, the size of the image is changed to 256 x 256 [px], and the pixel values are standardized so that the average is 0 and the variance is 1. Next, in step ST33, CNN calculation is performed using the VGG model. In the CNN calculation, convolution processing and maximum value pooling processing are sequentially applied to the normalized image using the network structure of the VGG model shown in Figure 16, and the output of the fully connected layer in the final layer is output as a one-dimensional array. Next, in step ST34, the one-dimensionally arranged output of the fully connected layer is reconstructed into two dimensions. That is, the one-dimensional array output in the CNN calculation is reconstructed into an image-like two-dimensional array and output as a likelihood map. Next, in step ST35, a binarization process is performed. In this binarization process, a binarization process is applied in which the value of each element of the likelihood map is set to 1 if it exceeds a threshold value, and 0 if it does not. Next, in step ST36, morphological processing is performed. In morphological processing, the binarized likelihood map is subjected to erosion and expansion processing to remove noise and fill holes. Finally, in step ST37, a region of interest is extracted. In this step, a rectangle that includes an area where pixels showing 1 are connected by blob analysis of the likelihood map to which morphological processing has been applied is extracted as the region of interest. Figure 17 shows images of the process of determining the region of interest using the VGG model.

図18は、学習モデルとしてのSSDモデルとVGGモデルの比較を示している。SSDモデルは、スケール依存性が少なく、精度が高い一方、処理速度が遅い。一方VGGモデルはシンプルなネットワーク構成のため、処理速度が速いが、推定精度はSSDモデルより劣る。例えば、経験の浅い技術者にとっては、時間は要したとしても関心領域推定精度が重要なためSSDモデルが適しているが、経験の多い熟練の技術者は、速度重視のVGGモデルによる結果を後述の関心領域補正部において後から補正すればよい。 Figure 18 shows a comparison of the SSD model and the VGG model as learning models. The SSD model has low scale dependency and high accuracy, but has a slow processing speed. On the other hand, the VGG model has a simple network configuration, so it has a fast processing speed, but its estimation accuracy is inferior to that of the SSD model. For example, for an inexperienced engineer, the SSD model is suitable because the accuracy of the region of interest estimation is important, even if it takes time, but for an experienced engineer, the results of the speed-oriented VGG model can be corrected later in the region of interest correction unit described below.

上記第1の実施の形態によれば、過去に点検または補修作業の熟練者が決定した複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域として決定するので、点検者に適切な点検範囲を自動で提示することができる。 According to the first embodiment, a learning model is created using training data including inspection ranges for multiple damaged areas previously determined by an expert in inspection or repair work, and the inspection range that should be inspected by an inspector for one or more target damaged areas is determined as an area of interest, so that an appropriate inspection range can be automatically presented to the inspector.

また本実施の形態によれば、関心領域決定部7で用いる学習モデルが損傷の有無の確率(尤度)を出力し、損傷の有無の確率が、予め定めた値を超える部分を含む領域を関心領域として決定するので、高い精度で関心領域を決定できる。 In addition, according to this embodiment, the learning model used in the region of interest determination unit 7 outputs the probability (likelihood) of the presence or absence of damage, and the region containing the portion where the probability of the presence or absence of damage exceeds a predetermined value is determined as the region of interest, so that the region of interest can be determined with high accuracy.

[第2の実施の形態]
図19は、本発明の第2の実施の形態の構成を示すブロック図である。図19には、第1の実施の形態の構成を示す図1に示した構成要素と同じ構成要素には、図1に付した符号と同じ符号を付して説明を省略する。本実施の形態では、関心領域決定部7が決定した関心領域を点検者がマニュアル操作で補正したデータを検査範囲のデータとしてデータ蓄積部5に蓄積する関心領域補正部13をさらに備えている。本実施の形態では、関心領域補正部13で補正しない場合でも、表示データ作成部9が作成したデータをデータ蓄積部5に蓄積する。図20(A)乃至(C)は、関心領域補正部13の動作を説明するために用いる図である。関心領域決定部7が、図20(A)に示すような関心領域b4及びb5を推定したときに、本実施の形態では、点検者が自分の実際の点検結果あら関心領域b5をもう少し広げるべきだと感じた場合には、図20(B)に示すように例えばカーソルの移動を利用して関心領域b5を関心領域b5´に補正することができる。この補正は、関心領域の大きさと位置の変更を可能にする。
[Second embodiment]
FIG. 19 is a block diagram showing the configuration of the second embodiment of the present invention. In FIG. 19, the same components as those shown in FIG. 1 showing the configuration of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. In this embodiment, the region of interest correction unit 13 is further provided, which stores data obtained by manually correcting the region of interest determined by the region of interest determination unit 7 by an inspector in the data storage unit 5 as data of the inspection range. In this embodiment, even if the region of interest correction unit 13 does not correct the region of interest, the data created by the display data creation unit 9 is stored in the data storage unit 5. FIGS. 20(A) to (C) are diagrams used to explain the operation of the region of interest correction unit 13. When the region of interest determination unit 7 estimates the regions of interest b4 and b5 as shown in FIG. 20(A), in this embodiment, if the inspector feels that the region of interest b5 should be expanded a little more based on his actual inspection results, the region of interest b5 can be corrected to a region of interest b5' by, for example, moving the cursor as shown in FIG. 20(B). This correction enables the size and position of the region of interest to be changed.

このようにすると新規に点検した損傷部分の点検結果を以後の点検に用いる学習用データとして反映することが可能になる。これにより、本システムが提示した関心領域の精度が悪くても、技術者の介入により精度を向上させることができる。 In this way, it becomes possible to reflect the inspection results of newly inspected damaged areas as learning data to be used in future inspections. As a result, even if the accuracy of the area of interest presented by this system is poor, the accuracy can be improved by the intervention of an engineer.

[第3の実施の形態]
図21は、本発明の第3の実施の形態の構成を示すブロック図である。図21には、第1の実施の形態の構成を示す図1に示した構成要素と同じ構成要素には、図1に付した符号と同じ符号を付して説明を省略する。本実施の形態では、1以上の対象損傷部分を含む画像データ及び複数の損傷部分を含む画像データから1以上の対象損傷部分を含む画像の画像特徴量及び複数の損傷部分を含む画像の画像特徴量を求める画像特徴量演算部15と、画像特徴量演算部15の演算結果から、1以上の対象損傷部分の画像に類似する複数の損傷部分を含む画像を複数選択する類似画像選択部17をさらに備えている。そして、表示データ作成部9は、対象損傷部分を含む画像の上に関心領域を表示した表示画像を画像表示装置11の表示画面に表示する表示データを作成することに加え、類似画像選択部17が選択した複数の損傷部分を含む画像を画像表示装置11の表示画面に選択可能に表示する表示データを作成する。図22は、表示データ作成部9における表示データ作成処理の工程(ステップST41~ST43)を示すフローチャートである。
[Third embodiment]
FIG. 21 is a block diagram showing the configuration of the third embodiment of the present invention. In FIG. 21, the same components as those shown in FIG. 1 showing the configuration of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. In this embodiment, the image feature amount calculation unit 15 obtains the image feature amount of an image including one or more target damaged parts and the image feature amount of an image including multiple damaged parts from image data including one or more target damaged parts and image data including multiple damaged parts, and further includes a similar image selection unit 17 that selects multiple images including multiple damaged parts similar to the image of one or more target damaged parts from the calculation result of the image feature amount calculation unit 15. The display data creation unit 9 creates display data for displaying a display image in which a region of interest is displayed on an image including a target damaged part on the display screen of the image display device 11, and also creates display data for selectably displaying an image including multiple damaged parts selected by the similar image selection unit 17 on the display screen of the image display device 11. FIG. 22 is a flowchart showing the steps (steps ST41 to ST43) of the display data creation process in the display data creation unit 9.

図23は、画像表示装置11の表示画面の表示の一例を示す図である。図23の表示例では、「撮影画像」の欄には、対象損傷部分を含む画像の上に、検出した関心領域が矩形の枠によって表示されている。そして「類似画像検索結果」の欄には、類似度の高い複数の損傷部分の画像が類似の高い順番で表示リストとして表示されており、さらに「付属情報」欄には損傷ランクと、損傷場所の名称が記載されている。本実施例では、類似する複数の損傷部分の画像を選択可能に4つ表示しており、画像を選択することにより、その損傷部分の画像補修履歴情報が表示画面に表示される。なお複数の損傷部分の画像は、必ずしも類似度の高い順番に表示する必要はない。図24(A)及び図24(B)は、それぞれ損傷部分の画像補修履歴情報の例である。図24(A)及び図24(B)において、損傷が「損傷画像1」の状態から「損傷画像2」の状態に進行したことが示されており、「補修画像」は「損傷画像2」の状態を補修した後の画像を示している。この情報を見ることにより、点検者は補修の必要性及び補修の方法を判断する資料を入手することが可能になる。これを実現するために、データ蓄積部5には、過去に点検を行って得た複数の損傷部分を含む画像データに対応して複数の損傷部分の補修履歴情報が蓄積されている。 FIG. 23 is a diagram showing an example of the display on the display screen of the image display device 11. In the display example of FIG. 23, the detected region of interest is displayed by a rectangular frame on the image including the target damaged part in the "photographed image" column. In the "similar image search result" column, images of multiple damaged parts with high similarity are displayed as a display list in order of similarity, and the "attached information" column further describes the damage rank and the name of the damaged location. In this embodiment, four images of multiple similar damaged parts are displayed in a selectable manner, and by selecting an image, image repair history information of the damaged part is displayed on the display screen. Note that the images of multiple damaged parts do not necessarily need to be displayed in order of similarity. FIGS. 24(A) and 24(B) are examples of image repair history information of damaged parts, respectively. In FIGS. 24(A) and 24(B), it is shown that the damage has progressed from the state of "damage image 1" to the state of "damage image 2", and the "repair image" shows an image after the state of "damage image 2" has been repaired. By looking at this information, the inspector can obtain materials for determining the necessity of repair and the repair method. To achieve this, the data storage unit 5 stores repair history information for a plurality of damaged portions in association with image data including the plurality of damaged portions obtained through past inspections.

またデータ蓄積部5には、過去に点検を行って得た複数の損傷部分の画像データに対応して複数の損傷部分の損傷の程度を損傷クラスで表す損傷クラスデータが蓄積されている。表示データ作成部9は、表示画面に表示された複数の損傷部分を含む画像から選択された損傷部分の画像に対応する補修履歴情報及び損傷クラスを表示画面に表示する表示データを作成する。また図23の表示画面中の「類似上位20画像のランク割合」欄には各クラスの割合が「ランク割合」として円グラフで表示されている。このようにすると損傷クラスを目安として、点検者が対象損傷部分に近い過去の損傷部分を含む画像を選択することができる。 The data storage unit 5 also stores damage class data that indicates the degree of damage of a plurality of damaged parts by damage class corresponding to image data of the plurality of damaged parts obtained by past inspection. The display data creation unit 9 creates display data that displays on the display screen the repair history information and damage class corresponding to an image of a damaged part selected from images including the plurality of damaged parts displayed on the display screen. In addition, the proportion of each class is displayed as a "rank proportion" in a pie chart in the "Rank Proportion of Top 20 Similar Images" column in the display screen of Fig. 23. In this way, the inspector can select an image including a past damaged part that is close to the target damaged part using the damage class as a guide.

本実施の形態のように、対象損傷部分の画像に類似する複数の損傷部分の画像を画像特徴量に基づいて選択可能に表示すると、画像特徴量に基づいて選択した過去の複数の損傷部分のデータの中から、点検者の経験を含めて対象損傷部分の修復の参考になる過去の類似データを見つけることができる。 As in this embodiment, when images of multiple damaged parts similar to the image of the target damaged part are displayed in a selectable manner based on image features, it is possible to find similar past data that can serve as a reference for repairing the target damaged part, including the inspector's experience, from the data of multiple past damaged parts selected based on the image features.

[画像特徴量演算部の説明]
図21の画像特徴量演算部15は、形状特徴量と色彩特徴量を結合したものを画像特徴量として演算する。
[Explanation of Image Feature Calculation Unit]
The image feature amount calculation unit 15 in FIG. 21 calculates the combination of the shape feature amount and the color feature amount as the image feature amount.

(画像前処理)
明るさ変動の影響を軽減するため、形状特徴量と色彩特徴量に対し、それぞれ次の前処理を施す。
(Image Pre-processing)
To reduce the effects of brightness fluctuations, the following preprocessing is performed on the shape features and color features.

形状特徴量を演算する前には、画像を勾配画像に変換し、隣接画素間の相対値とすることで明るさの変動における画素値の絶対量の変化の影響を排除する。勾配画像は、まず、ガウシアンフィルタによりノイズ除去を適用し、その画像にラプラシアンオペレータを適用することで作成する。この勾配画像から形状特徴を抽出することで、明るさの変動に頑健な形状特徴が得られる。 Before calculating the shape features, the image is converted into a gradient image and the relative values between adjacent pixels are used to eliminate the effects of changes in the absolute amount of pixel values due to fluctuations in brightness. The gradient image is created by first applying noise removal using a Gaussian filter and then applying a Laplacian operator to the image. Shape features are extracted from this gradient image, resulting in shape features that are robust to fluctuations in brightness.

色彩特徴量を演算する前には、画像に対して色空間変換を適用し、明るさと色成分に分離し、明るさ成分をすて、色成分のみから特徴を抽出することで明るさの変動に頑健な色彩特徴を得られる。色空間の変換は、RGBの3チャンネルから構成される画像を、L*a*b*表色系により表現される3チャンネルに変更する。このとき、L*成分は明るさを表し、a*b*成分が色みを表す。 Before calculating color features, a color space conversion is applied to the image, separating it into brightness and color components, discarding the brightness component, and extracting features from only the color components, resulting in color features that are robust to variations in brightness. Color space conversion changes an image composed of three RGB channels into three channels expressed by the L*a*b* color system. In this case, the L* component represents brightness, and the a*b* component represents color.

角度対応については、損傷領域の方向は一意に定まらないため、角度の変動に対して頑健となる特徴を用いる必要がある。形状特徴に関しては、撮影対象の回転を吸収する後処理を特徴抽出後に適用する。色彩特徴に関しては、画像全体から色の出現頻度を算出するため、回転方向による特徴値の変動はないことから、特別な処理は施さない。 As for angle correspondence, since the direction of the damaged area is not uniquely determined, it is necessary to use features that are robust to changes in angle. As for shape features, post-processing that absorbs the rotation of the subject is applied after feature extraction. As for color features, since the frequency of color appearance is calculated from the entire image, there is no change in feature values due to the direction of rotation, so no special processing is applied.

サイズ対応については、損傷画像を撮影したときの損傷部分に対する撮影者の距離、及び損傷の絶対的な大きさの違いにより、画像内に撮像される損傷部分のサイズが異なることが想定される。大きさの異なるそれぞれの損傷を同様の条件で扱うため、特徴量の正規化を特徴抽出後に適用する。本実施の形態で適用した形状特徴及び色彩特徴は統計量として算出されるため、画像の全ピクセル数で割ることで正規化できる。 Regarding size compatibility, it is expected that the size of the damaged part captured in the image will differ depending on the distance of the photographer from the damaged part when the damage image is captured, and the absolute size of the damage. In order to treat each damage of different sizes under similar conditions, feature normalization is applied after feature extraction. The shape and color features applied in this embodiment are calculated as statistics, so they can be normalized by dividing by the total number of pixels in the image.

[画像特徴量演算部の詳細]
図25は、画像特徴量演算部15をソフトウエアで実現する場合のアルゴリズムの一例を示している。図25の例では、対象損傷部分を含む画像データ及び複数の損傷部分を含む画像データが、RGB画像データとして切り出される(ステップST51)。まずステップST52A~ST55Aにより、形状特徴量の抽出を行う。ステップST52Aでは、RGB画像をグレースケール画像に変換する。そしてステップST53Aでは、グレースケール画像に変換された画像からガウシアンフィルタによりノイズを除去する。そしてステップST54Aでは、ラプラシアンフィルタにより、エッジ(輪郭)抽出をする。最後にステップST55Aでは、HLAC特徴量抽出を行う。HLAC特徴とは、周知の高次局所自己相関特徴(HLAC: Higher-order Local AutoCorrelation)である。HLAC特徴量抽出では、勾配画像に対し、35種類のHLACマスクパターンを適用し、35次元の形状特徴量を算出する。特徴量算出後、各形状について45°回転に対して同じ形状となるマスクパターンについて統合し、回転・反転不変特徴として構成する。
[Details of image feature amount calculation unit]
FIG. 25 shows an example of an algorithm when the image feature amount calculation unit 15 is realized by software. In the example of FIG. 25, image data including a target damaged part and image data including a plurality of damaged parts are cut out as RGB image data (step ST51). First, shape feature amount extraction is performed in steps ST52A to ST55A. In step ST52A, the RGB image is converted into a grayscale image. Then, in step ST53A, noise is removed from the image converted into the grayscale image by a Gaussian filter. Then, in step ST54A, edges (contours) are extracted by a Laplacian filter. Finally, in step ST55A, HLAC feature amount extraction is performed. The HLAC feature amount is a well-known higher-order local autocorrelation feature (HLAC). In the HLAC feature amount extraction, 35 types of HLAC mask patterns are applied to the gradient image, and 35-dimensional shape feature amount is calculated. After calculating the feature amount, the mask patterns that give the same shape when rotated by 45° for each shape are integrated to form rotation and inversion invariant features.

次に、画像特徴量演算部15は、ステップST52B~54Bにより、色彩特徴量の抽出を行う。ステップST52Bでは、RGB画像データのRGB色空間をL*a*b*表色系に変換する。次にステップST53Bで、L*a*b*表色系に変換したデータからL*a*b*成分のうち、a*b*成分のみを分離する。そしてステップST54Bで、分離したa*b*成分を量子化モデルにより量子化する。量子化して得た量子化色画像について色領域内Iと色の境界Bの2種類に分類し、分類した色領域内Iと色の境界Bについてそれぞれ量子化された各色の出現頻度を色彩特徴量(量子化BIC特徴量)として抽出する。 Next, the image feature calculation unit 15 extracts color features in steps ST52B to ST54B. In step ST52B, the RGB color space of the RGB image data is converted to the L*a*b* color system. Next, in step ST53B, only the a*b* component is separated from the L*a*b* components from the data converted to the L*a*b* color system. Then, in step ST54B, the separated a*b* component is quantized using a quantization model. The quantized color image obtained by quantization is classified into two types, color area I and color boundary B, and the occurrence frequency of each quantized color for the classified color area I and color boundary B is extracted as a color feature (quantized BIC feature).

ここで量子化BIC特徴量は図26(A)及び(B)の流れにより算出する。図中の各ステップは次の通りである。ステップST60で、予めデータ蓄積部5の画像データベース中の画像群から色量子化モデルを作成する。 The quantized BIC feature is calculated according to the flow shown in Figures 26(A) and (B). The steps in the figure are as follows. In step ST60, a color quantization model is created in advance from a group of images in the image database of the data storage unit 5.

[色量子化モデルの作成]
色量子化モデルは図26(A)の手順により作成する。なお図27は色彩情報抽出の概念を示す図であり、図28は、代表色決定の概念を示す図である。まずステップST60Aで、画像データベース中から複数枚の画像群を読み込む。次にステップ60Bで、図27に示すように、入力されたすべての画像について、RGB色空間からL*a*b*色空間への変換を行う。次にステップST60Cで、図27に示すように、色彩情報の抽出を行う。すなわちL*a*b*で表現された画像群について、a*b*の色情報だけを抽出する。次にステップ60Dで、色量子化モデルを算出して、ステップST60Eで色量子化モデルを出力する。図28に示すように、複数の損傷画像から色点群を取得する。すなわちa*b*の色情報となった画像群から、ランダムにn点(例えば10,000点)を選択する。「点」はa*b*から構成される二次元ベクトルであり、色を表す。そしてこれから色量子化モデルを作成する。すなわちランダムに選択したn点について、k-meansなどのクラスタリング手法により代表色を決定する。なおkの値は32などで量子化する。図28は、代表色(k=3)の例である。
[Creating a Color Quantization Model]
The color quantization model is created according to the procedure shown in FIG. 26(A). FIG. 27 is a diagram showing the concept of color information extraction, and FIG. 28 is a diagram showing the concept of representative color determination. First, in step ST60A, a group of multiple images is read from the image database. Next, in step 60B, as shown in FIG. 27, conversion from RGB color space to L*a*b* color space is performed for all input images. Next, in step ST60C, as shown in FIG. 27, extraction of color information is performed. That is, only color information of a*b* is extracted from the group of images expressed in L*a*b*. Next, in step 60D, a color quantization model is calculated, and in step ST60E, the color quantization model is output. As shown in FIG. 28, a group of color points is obtained from multiple damage images. That is, n points (for example, 10,000 points) are randomly selected from the group of images with color information of a*b*. A "point" is a two-dimensional vector composed of a*b* and represents a color. From this, a color quantization model is created. That is, for n randomly selected points, a representative color is determined by a clustering method such as k-means. The value of k is quantized to 32, for example. Fig. 28 shows an example of a representative color (k=3).

[量子化BIC特徴の算出]
ステップST61では、ステップ53Bで色彩情報を分離して得た色成分(a*b*成分)画像について、前述の色量子化モデルに基づき色成分を量子化する。次にステップST63で、図29に示すように、色量子化された画像中のすべてのピクセルにおける色情報をI(色領域内)とB(色の境界)に分類する。この例では3色の代表色の色量子化モデルを用いている。
[Calculation of quantized BIC features]
In step ST61, the color components (a*b* components) image obtained by separating the color information in step ST53B are quantized based on the color quantization model described above. Next, in step ST63, the color information of all pixels in the color quantized image is classified into I (within the color area) and B (color boundary), as shown in Fig. 29. In this example, a color quantization model of three representative colors is used.

分類基準は次の通りである。 The classification criteria are as follows:

・上下左右4近傍が同じ色であればIとする。 - If the four neighboring areas above, below, left and right are the same color, it is I.

・4近傍中一つでも異なる色が含まれていればBとする。 If even one of the four neighborhoods contains a different color, classify it as B.

図29の一番右側の図が、上記分類基準で分類した結果の一例である。 The rightmost figure in Figure 29 is an example of the results of classification using the above classification criteria.

そしてステップST64で、量子化BIC特徴を算出する。すなわち図30に示すように、分類したIとBそれぞれについて量子化された色の出現頻度を算出し、ステップST65で量子化BIC特徴ベクトルとして出力する。 Then, in step ST64, the quantized BIC feature is calculated. That is, as shown in FIG. 30, the occurrence frequency of the quantized colors for each of the classifications I and B is calculated, and in step ST65, it is output as a quantized BIC feature vector.

このようにして求めた量子化BIC特徴ベクトルを色彩特徴量とすると、ある程度の認識できる明るさで撮影されていれば、画像の明るさの変化に依存しないで、データに基づいた色の違いに着目した特徴量を抽出することができる。 If the quantized BIC feature vector obtained in this way is used as a color feature, then as long as the image was taken with a certain degree of brightness that can be recognized, it is possible to extract a feature that focuses on color differences based on the data, regardless of changes in the brightness of the image.

なおBIC特徴については、下記の文献でも紹介されている。
「R. Stehling, et al. “A compact and efficient image retrieval approach based on border/interior pixel classification”, Proceedings of the 11th international conference on information and knowledge management」.。
The BIC feature is also introduced in the following literature.
“R. Stehling, et al. “A compact and efficient image retrieval approach based on border/interior pixel classification”, Proceedings of the 11th international conference on information and knowledge management”.

図25に示すように、画像特徴量演算部15では、ステップST56で形状特徴量と色彩特徴量を連結し、ステップST57で連結した特徴量を正規化して、ステップST58で画像特徴量として出力する。正規化した画像特徴量を用いれば、画像の大きさと無関係に画像特徴量を利用することができる。 As shown in FIG. 25, the image feature calculation unit 15 concatenates the shape feature and the color feature in step ST56, normalizes the concatenated feature in step ST57, and outputs it as an image feature in step ST58. By using the normalized image feature, the image feature can be used regardless of the size of the image.

[類似画像選択部及び表示データ作成部の説明]
類似画像選択部17では、特徴量ベースの類似画像検索を行う。類似画像の選択は、例えば、検索対象画像の画像特徴量と、データベース内の画像特徴量とのユークリッド距離を比較し、距離が小さい上位n枚について検索候補を提示する。そして類似画像検索結果を読込んで、n枚の検索候補について、類似画像リスト、補修情報リスト、損傷ランクリスト生成する。
[Explanation of Similar Image Selection Unit and Display Data Creation Unit]
The similar image selection unit 17 performs a feature-based similar image search. For example, the Euclidean distance between the image feature of the search target image and the image feature in the database is compared, and the top n images with the shortest distance are presented as search candidates. The similar image search results are then read, and a similar image list, repair information list, and damage rank list are generated for the n search candidates.

そして表示データ作成部9は、検索結果画像に対する付随情報も画像表示装置に表示する。表示データ作成部9は、検索結果画像のランクを割合で表示する検索上位のランク割合表示や、各ランクについて、それぞれ検索結果を表示する検索上位のランク別集計表示をしてもよい。また表示データ作成部9は、データベースの補修履歴等の情報提示や、DB付属情報、補修カルテ(処置、予後など)各検索結果に対して、損傷の詳細情報や補修情報について表示するようにしてもよい。 The display data creation unit 9 also displays, on the image display device, information associated with the search result images. The display data creation unit 9 may display the top search result rank ratios, which display the ranks of the search result images as a percentage, or may display the top search result rank tally, which displays the search results for each rank. The display data creation unit 9 may also present information such as the repair history of the database, DB ancillary information, and repair charts (treatment, prognosis, etc.), and may display detailed information on damage and repair information for each search result.

本発明によれば、過去に点検または補修作業の熟練者が決定した複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域として決定するので、点検者に適切な点検範囲を自動で提示することができる。 According to the present invention, a learning model is created using training data including inspection ranges for multiple damaged areas previously determined by an expert in inspection or repair work, and the inspection range that should be inspected by an inspector for one or more target damaged areas is determined as an area of interest, so that an appropriate inspection range can be automatically presented to the inspector.

1 構造物の点検・補修支援システム
3 画像データ取得部
5 データ蓄積部
7 関心領域決定部
9 表示データ作成部
11 画像表示装置
13 関心領域補正部
15 画像特徴量演算部
REFERENCE SIGNS LIST 1 Structure inspection and repair support system 3 Image data acquisition unit 5 Data storage unit 7 Region of interest determination unit 9 Display data creation unit 11 Image display device 13 Region of interest correction unit 15 Image feature amount calculation unit

Claims (7)

点検対象のコンクリート構造物において損傷している損傷部分と該損傷部分の近傍とを撮影装置で撮影した1以上の対象損傷部分を含む画像データを取得する画像データ取得部と、
過去に点検を行って得た複数の損傷部分の画像データと、該複数の損傷部分の画像データに対応する検査範囲のデータを少なくとも含む前記複数の損傷部分の損傷データを蓄積するデータ蓄積部と、
前記1以上の対象損傷部分を含む前記画像データを入力として、少なくとも過去に点検を行って得た複数の損傷部分を含む画像データ及び該複数の損傷部分を含む画像データに対応して、点検または補修作業の熟練者が決定した前記複数の損傷部分の検査範囲を含むデータを教師データとして作成した学習モデルを用いて、前記1以上の対象損傷部分について点検者が点検をすべき検査範囲を関心領域として決定する関心領域決定部と、
前記1以上の対象損傷部分を含む画像の上に前記関心領域を表示した表示画像を画像表示装置の表示画面に表示する表示データを作成する表示データ作成部と、
前記関心領域決定部が決定した前記関心領域を点検者がマニュアル操作で補正したデータを前記検査範囲のデータとして前記データ蓄積部に蓄積する関心領域補正部と、
前記1以上の対象損傷部分を含む画像データ及び前記複数の損傷部分を含む画像データから前記1以上の対象損傷部分を含む画像の画像特徴量及び前記複数の損傷部分を含む画像の画像特徴量を求める画像特徴量演算部と、
前記画像特徴量演算部の演算結果から、前記1以上の対象損傷部分を含む画像に類似する前記複数の損傷部分を含む画像を複数選択する類似画像選択部を備え、
前記関心領域決定部は、過去に点検を行って得た前記複数の損傷部分を含む画像データ及び、該複数の損傷部分を含む画像データに対応して、前記点検または補修作業の熟練者が決定した前記複数の損傷部分の検査範囲を含むデータを教師データとして、前記損傷部分及び該損傷部分の周囲における損傷の有無の確率を出力として推定するように構築された前記学習モデルを備え、前記対象損傷部分を含む画像データを入力として前記学習モデルから出力された前記対象損傷部分及び該対象損傷部分の周囲領域における前記損傷の有無の確率が、予め定めた値を超える部分を含む領域を前記関心領域として決定し、
前記表示データ作成部は、前記類似画像選択部が選択した前記複数の損傷部分を含む画像を前記画像表示装置の前記表示画面に選択可能に表示する表示データを作成し、
前記データ蓄積部には、過去に点検を行って得た前記複数の損傷部分を含む画像データに対応して前記複数の損傷部分の補修履歴情報が蓄積されており、
前記表示データ作成部は、前記表示画面に表示された前記複数の損傷部分を含む画像から選択された前記損傷部分を含む画像に対応する補修履歴情報を前記表示画面に表示する表示データを作成することを特徴とする構造物の点検・補修支援システム。
an image data acquisition unit that acquires image data including one or more target damaged portions obtained by photographing a damaged portion and the vicinity of the damaged portion in a concrete structure to be inspected with an imaging device;
a data storage unit that stores image data of a plurality of damaged parts obtained by performing past inspections and damage data of the plurality of damaged parts including at least data of an inspection range corresponding to the image data of the plurality of damaged parts;
a region of interest determination unit that receives the image data including the one or more target damaged parts as an input, and determines an inspection range that an inspector should inspect for the one or more target damaged parts as a region of interest by using a learning model created using image data including at least the multiple damaged parts obtained by performing an inspection in the past and data including the multiple damaged parts determined by an expert in inspection or repair work in response to the image data including the multiple damaged parts as teacher data;
a display data generating unit that generates display data for displaying a display image, in which the region of interest is displayed on an image including the one or more target damaged portions, on a display screen of an image display device;
a region of interest correction unit that stores data obtained by manually correcting the region of interest determined by the region of interest determination unit in the data storage unit as data of the inspection range;
an image feature amount calculation unit that calculates image feature amounts of an image including the one or more target damaged portions and an image feature amount of an image including the multiple damaged portions from image data including the one or more target damaged portions and image data including the multiple damaged portions;
A similar image selection unit that selects a plurality of images including the plurality of damaged portions similar to the image including the one or more target damaged portions from the calculation result of the image feature amount calculation unit,
The region of interest determination unit is provided with the learning model constructed to estimate, as an output, a probability of the presence or absence of damage in the damaged portion and around the damaged portion, using image data including the multiple damaged portions obtained by performing an inspection in the past and data including an inspection range of the multiple damaged portions determined by an expert in the inspection or repair work in response to the image data including the multiple damaged portions as teacher data, and determines, as the region of interest, a region including a portion where the probability of the presence or absence of damage in the target damaged portion and the surrounding region of the target damaged portion output from the learning model using image data including the target damaged portion as input exceeds a predetermined value;
the display data creation unit creates display data for selectably displaying the images including the plurality of damaged portions selected by the similar image selection unit on the display screen of the image display device;
The data storage unit stores repair history information of the plurality of damaged parts corresponding to image data including the plurality of damaged parts obtained by performing inspections in the past,
The display data creation unit creates display data for displaying on the display screen repair history information corresponding to an image including the damaged portion selected from the multiple images including the damaged portions displayed on the display screen.
前記表示データ作成部は、前記関心領域の表示として、前記点検者が点検をすべき領域の輪郭形状を示す表示または前記輪郭を囲む矩形形状を示す表示を作成する請求項1に記載の構造物の点検・補修支援システム。 The structure inspection and repair support system according to claim 1, wherein the display data creation unit creates, as the display of the area of interest, a display showing the outline shape of the area to be inspected by the inspector or a display showing the rectangular shape surrounding the outline. 前記画像特徴量演算部が演算する前記画像特徴量は、形状特徴量と色彩特徴量を結合したものである請求項1に記載の構造物の点検・補修支援システム。 The structure inspection and repair support system according to claim 1, wherein the image feature calculated by the image feature calculation unit is a combination of shape feature and color feature. 前記対象損傷部分の画像データ及び前記複数の損傷部分の画像データはRGB画像データであり、
前記画像特徴量演算部は、
前記RGB画像データのRGB色空間をL*a*b*表色系に変換し、
前記L*a*b*表色系に変換したデータからL*a*b*成分のうち、a*b*成分のみを分離し、
分離した前記a*b*成分を量子化モデルにより量子化し、
量子化して得た量子化色画像中のピクセルにおける色情報を色領域内Iと色の境界Bの2種類に分類し、
分類した前記色領域内Iと前記色の境界Bについてそれぞれ量子化された各色の出現頻度を前記色彩特徴量として抽出することを特徴とする請求項3に記載の構造物の点検・補修支援システム。
the image data of the target damaged portion and the image data of the plurality of damaged portions are RGB image data;
The image feature amount calculation unit
converting the RGB color space of the RGB image data into an L*a*b* color system;
From the data converted into the L*a*b* color system, only the a*b* component is separated from the L*a*b* components;
The separated a*b* components are quantized using a quantization model;
The color information of the pixels in the quantized color image obtained by quantization is classified into two types: color area I and color boundary B.
4. The structure inspection and repair support system according to claim 3, wherein the quantized occurrence frequency of each color within the classified color region I and the color boundary B is extracted as the color feature.
前記画像特徴量演算部は、
前記RGB画像データをグレースケール画像データに変換し、
変換したグレースケール画像データからノイズを除去し、
ノイズを除去したグレースケール画像データから輪郭を抽出し、
輪郭を抽出したグレースケール画像データからHLAC特徴量を前記形状特徴量として抽出することを特徴とする請求項4に記載の構造物の点検・補修支援システム。
The image feature amount calculation unit
converting the RGB image data into grayscale image data;
Remove noise from the converted grayscale image data;
Extract the contours from the noise-removed grayscale image data,
5. The structure inspection and repair support system according to claim 4, wherein HLAC features are extracted as said shape features from the grayscale image data from which contours have been extracted.
前記画像特徴量演算部は、前記形状特徴量と前記色彩特徴量を連結し、連結した特徴量を正規化して前記画像特徴量として出力することを特徴とする請求項5に記載の構造物の点検・補修支援システム。 The structure inspection and repair support system according to claim 5, characterized in that the image feature calculation unit concatenates the shape feature and the color feature, normalizes the concatenated feature, and outputs it as the image feature. 前記データ蓄積部には、過去に点検を行って得た前記複数の損傷部分の画像データに対応して前記複数の損傷部分の損傷の程度を損傷クラスで表す損傷クラスデータが蓄積されており、
前記表示データ作成部は、前記損傷クラスを前記複数の損傷部分の画像と一緒に前記表示画面に表示する表示データを作成することを特徴とする請求項1に記載の構造物の点検・補修支援システム。
The data storage unit stores damage class data representing the degree of damage of the plurality of damaged parts by a damage class corresponding to image data of the plurality of damaged parts obtained by performing a past inspection,
The structure inspection and repair support system according to claim 1, characterized in that the display data creation unit creates display data that displays the damage class on the display screen together with images of the multiple damaged portions.
JP2018216837A 2018-11-19 Structure inspection and repair support system Active JP7517641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216837A JP7517641B2 (en) 2018-11-19 Structure inspection and repair support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216837A JP7517641B2 (en) 2018-11-19 Structure inspection and repair support system

Publications (3)

Publication Number Publication Date
JP2020085546A JP2020085546A (en) 2020-06-04
JP2020085546A5 JP2020085546A5 (en) 2021-11-25
JP7517641B2 true JP7517641B2 (en) 2024-07-17

Family

ID=

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (en) 1999-11-29 2001-06-08 Hitachi Ltd Method and device for sorting defective image and manufacturing method of semiconductor device using them
JP2002236100A (en) 2001-02-09 2002-08-23 Hitachi Ltd Method and apparatus for nondestructive inspection
JP2007527993A (en) 2004-02-18 2007-10-04 イスラ ヴィズィオーン ジュステーム アーゲー Inspection path setting and inspection area determination method
JP2013167596A (en) 2012-02-17 2013-08-29 Honda Motor Co Ltd Defect inspection device, defect inspection method, and program
JP2014115920A (en) 2012-12-12 2014-06-26 Casio Comput Co Ltd Multi-class identifier, method, and program
JP2014197342A (en) 2013-03-29 2014-10-16 日本電気株式会社 Object position detection device, object position detection method and program
JP2016045662A (en) 2014-08-21 2016-04-04 富士フイルム株式会社 Similar image retrieval device, operation method of similar image retrieval device and similar image retrieval program
JP2016126769A (en) 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
JP2016142601A (en) 2015-01-30 2016-08-08 前田建設工業株式会社 Construction quality evaluation program, construction quality evaluation method, and construction quality evaluation device
JP2017033469A (en) 2015-08-05 2017-02-09 キヤノン株式会社 Image identification method, image identification device and program
JP2018004541A (en) 2016-07-06 2018-01-11 キヤノン株式会社 Information processing device, information processing method and program
WO2018055014A1 (en) 2016-09-23 2018-03-29 Ventana Medical Systems, Inc. Methods and systems for scoring extracellular matrix biomarkers in tumor samples
JP2018120300A (en) 2017-01-23 2018-08-02 株式会社リコー Information processing apparatus, information processing method, and program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (en) 1999-11-29 2001-06-08 Hitachi Ltd Method and device for sorting defective image and manufacturing method of semiconductor device using them
JP2002236100A (en) 2001-02-09 2002-08-23 Hitachi Ltd Method and apparatus for nondestructive inspection
JP2007527993A (en) 2004-02-18 2007-10-04 イスラ ヴィズィオーン ジュステーム アーゲー Inspection path setting and inspection area determination method
JP2013167596A (en) 2012-02-17 2013-08-29 Honda Motor Co Ltd Defect inspection device, defect inspection method, and program
JP2014115920A (en) 2012-12-12 2014-06-26 Casio Comput Co Ltd Multi-class identifier, method, and program
JP2014197342A (en) 2013-03-29 2014-10-16 日本電気株式会社 Object position detection device, object position detection method and program
JP2016045662A (en) 2014-08-21 2016-04-04 富士フイルム株式会社 Similar image retrieval device, operation method of similar image retrieval device and similar image retrieval program
JP2016126769A (en) 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
JP2016142601A (en) 2015-01-30 2016-08-08 前田建設工業株式会社 Construction quality evaluation program, construction quality evaluation method, and construction quality evaluation device
JP2017033469A (en) 2015-08-05 2017-02-09 キヤノン株式会社 Image identification method, image identification device and program
JP2018004541A (en) 2016-07-06 2018-01-11 キヤノン株式会社 Information processing device, information processing method and program
WO2018055014A1 (en) 2016-09-23 2018-03-29 Ventana Medical Systems, Inc. Methods and systems for scoring extracellular matrix biomarkers in tumor samples
JP2018120300A (en) 2017-01-23 2018-08-02 株式会社リコー Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
CN111027547B (en) Automatic detection method for multi-scale polymorphic target in two-dimensional image
CN111696094B (en) Immunohistochemical PD-L1 membrane staining pathological section image processing method, device and equipment
EP3739513A1 (en) Surface defect identification method and apparatus
JP2024509411A (en) Defect detection method, device and system
US11657491B2 (en) Learning data collection apparatus, learning data collection method, and program
CN108961180B (en) Infrared image enhancement method and system
CN111462076A (en) Method and system for detecting fuzzy area of full-slice digital pathological image
CN112102229A (en) Intelligent industrial CT detection defect identification method based on deep learning
CN112819748B (en) Training method and device for strip steel surface defect recognition model
CN112766110A (en) Training method of object defect recognition model, object defect recognition method and device
CN111382785A (en) GAN network model and method for realizing automatic cleaning and auxiliary marking of sample
CN111242899B (en) Image-based flaw detection method and computer-readable storage medium
CN114581456B (en) Multi-image segmentation model construction method, image detection method and device
CN116012291A (en) Industrial part image defect detection method and system, electronic equipment and storage medium
CN114972759A (en) Remote sensing image semantic segmentation method based on hierarchical contour cost function
CN111598854A (en) Complex texture small defect segmentation method based on rich robust convolution characteristic model
CN117132827A (en) Hot rolled steel strip surface defect detection method based on improved YOLOv5s network
CN115239672A (en) Defect detection method and device, equipment and storage medium
CN111723852A (en) Robust training method for target detection network
CN114004858A (en) Method and device for identifying aviation cable surface code based on machine vision
JP7517641B2 (en) Structure inspection and repair support system
CN111179278A (en) Image detection method, device, equipment and storage medium
CN113763384B (en) Defect detection method and defect detection device in industrial quality inspection
CN115601293A (en) Object detection method and device, electronic equipment and readable storage medium
JP2020085546A (en) System for supporting inspection and repair of structure