JP2019120693A - Method for detecting damage to exterior materials - Google Patents

Method for detecting damage to exterior materials Download PDF

Info

Publication number
JP2019120693A
JP2019120693A JP2018240856A JP2018240856A JP2019120693A JP 2019120693 A JP2019120693 A JP 2019120693A JP 2018240856 A JP2018240856 A JP 2018240856A JP 2018240856 A JP2018240856 A JP 2018240856A JP 2019120693 A JP2019120693 A JP 2019120693A
Authority
JP
Japan
Prior art keywords
image
linear portion
exterior material
filter
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018240856A
Other languages
Japanese (ja)
Other versions
JP7148387B2 (en
Inventor
淳司 大澤
Junji Osawa
淳司 大澤
拓久 山田
Hirohisa Yamada
拓久 山田
雅之 今仲
Masayuki Imanaka
雅之 今仲
謙吾 石丸
Kengo Ishimaru
謙吾 石丸
怡伶 林
Iling Lin
怡伶 林
嵩之 湯淺
Takayuki Yuasa
嵩之 湯淺
七岡 寛
Hiroshi Nanaoka
寛 七岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Publication of JP2019120693A publication Critical patent/JP2019120693A/en
Application granted granted Critical
Publication of JP7148387B2 publication Critical patent/JP7148387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide a damage detection method of exterior materials that can detect damages to accurately identify the damage site of exterior materials in a simpler work.SOLUTION: Frequency analysis of color values is performed, the cycle and phase of the change in color values along the intersecting direction is calculated, an occurrence pattern of a first linear portion 11 is estimated based on the period and phase, the first linear portion 11 is removed from the image A4 on the basis of an estimated occurrence pattern with respect to the image A4 which has been differentially processed, and the damage site 13 of the roof 10 is identified from the image A5 that removes the first linear portion 11 by imaging the exterior material, and differentially processing it with respect to the image A3 converted to grayscale for each pixel in accordance with the change in white color from black in the quantified color value for the color values of the pixel group arranged along the direction intersecting the first linear portion 11, by performing the Fourier transformation.SELECTED DRAWING: Figure 2

Description

本発明は、外装材の損傷部位を検出する損傷検出方法に係り、特に、等間隔に配向された複数の線状部分を有した外装材の損傷検出方法に関する。   The present invention relates to a damage detection method for detecting a damaged portion of an outer covering material, and more particularly to a damage detection method for an outer covering material having a plurality of linear portions oriented at equal intervals.

従来から、外装材を撮像装置で撮像して、外装材の損傷を検出することがなされている。たとえば、特許文献1には、外装材として、道路を舗装する舗装道路の損傷を検出する方法が提案されている。この損傷検出方法では、遺伝的プログラミングによる並列型画像フィルタ自動生成システムにサイズ依存型交叉を導入して複数の実舗装画像からクラックの抽出が困難と思われる箇所をフィルタ構築の訓練データに選定採用することで、様々なタイプの画像からクラックの抽出用画像フィルタを自動的に構築している。この抽出用画像フィルタを、評価対象舗装領域の画像全体を格子状に分割した個々のブロックに適用して、評価対象舗装領域の評価している。   2. Description of the Related Art Conventionally, the exterior material is imaged by an imaging device to detect damage to the exterior material. For example, Patent Document 1 proposes a method of detecting damage to a paved road paving the road as an exterior material. In this damage detection method, size-dependent crossover is introduced into a parallel image filter automatic generation system by genetic programming, and a place where extraction of a crack seems to be difficult from multiple actual pavement images is selected and adopted as training data for filter construction By doing this, an image filter for extracting cracks is automatically constructed from various types of images. This extraction image filter is applied to individual blocks obtained by dividing the entire image of the evaluation target pavement area into grids, to evaluate the evaluation target pavement area.

特開2011−179874号公報JP, 2011-179874, A

しかしながら、たとえば、特許文献1に示す方法で、すべての外装材の損傷をしようとした場合、抽出用画像フィルタを構築するための訓練データを、様々な種類の損傷データで取得しなければならない。そして、外装材の損傷を正確に検出するには、膨大な損傷データを取得しなければならず、過大な作業を行わなければならなかった。   However, for example, when it is intended to damage all the exterior materials by the method shown in Patent Document 1, training data for constructing an image filter for extraction must be acquired as various types of damage data. And in order to detect the damage of the exterior material correctly, it was necessary to acquire a huge amount of damage data, and it had to carry out an excessive work.

本発明は、このような点に鑑みてなされたものであり、より簡単な作業で、外装材の損傷部位を正確に特定して、これを検出することができる外装材の損傷検出方法を提供することにある。   The present invention has been made in view of such a point, and provides a method of detecting damage to an exterior material which can accurately identify and detect a damaged part of the exterior material with a simpler operation. It is to do.

発明者らは、鋭意検討を重ねた結果、特定のパターンを有した外装材に対して、このパターンを撮像した画像から除去すれば、外装材の損傷部位を簡単に検出することができると考えた。   As a result of intensive investigations, the inventors believe that if the exterior material having a specific pattern is removed from the image obtained by imaging this pattern, the damaged portion of the exterior material can be easily detected. The

本発明は、このような考えに基づくものであり、第1の発明に係る外装材の損傷検出方法は、等間隔に配向された複数の線状部分を有した外装材の損傷部位を検出する損傷検出方法であって、前記外装材を撮像する工程と、撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、前記線状部分に沿った方向のエッジが強調されるように、微分処理を行う工程と、前記微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、前記線状部分と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、前記色数値の周波数解析を行い、前記交差する方向に沿った前記色数値の変化の周期と位相を算出する工程と、前記ピクセル群ごとの前記周期と前記位相に基づいて、逆フーリエ変換を行うことにより、前記微分処理を行った画像に応じたフィルタ画像を構築する工程と、前記フィルタ画像を、前記微分処理を行った画像に重ね合わせることにより、前記外装材の損傷部位を特定する工程と、を備えることを特徴とする。   The present invention is based on such an idea, and the method of detecting damage to the package according to the first invention detects a damaged portion of the package having a plurality of linear portions oriented at equal intervals. A damage detection method comprising: imaging the exterior material; converting an imaged image to grayscale; and emphasizing an edge in a direction along the linear portion with respect to the image converted to grayscale. The step of performing differential processing, and the linear portion of the numerical value represented by the numerical value corresponding to the change in color from black to white for each pixel with respect to the image subjected to the differential processing. Frequency analysis of the color values is performed by performing Fourier transform on the color values of the pixel group arranged along the crossing direction, and a period of change of the color values along the crossing direction Step of calculating phase A step of constructing a filter image according to the image subjected to the differential processing by performing an inverse Fourier transform based on the period and the phase for each of the pixel groups; and performing the differential processing on the filter image And C. identifying the damaged portion of the exterior material by superimposing on the image.

第1の発明によれば、まず、外装材を撮像装置で撮像し、撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、線状部分に沿った方向のエッジが強調されるように、微分処理を行う。これにより、グレースケールへの変換後、微分処理を行った外装材の画像に対して、線状部分の画像と、この線状部分に沿って延在した損傷部位の画像と、この方向に所定の幅を有した損傷部位の画像と、を強調することができる。   According to the first aspect, first, the exterior material is imaged by the imaging device, the imaged image is converted into gray scale, and an edge in a direction along the linear portion of the image converted into gray scale is Perform differential processing as emphasized. As a result, with respect to the image of the exterior material subjected to differentiation processing after conversion to gray scale, the image of the linear portion, the image of the damaged portion extending along the linear portion, and the predetermined direction in this direction And an image of the injury site having a width of

次に、微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、強調された線状部分の画像と損傷部位の画像とを構成するピクセルに割り当てられた色数値は、他の部分に対応したピクセルに割り当てられた色数値に比べて、大きく異なる値となる。なお、この微分処理を行った画像に対して、必要に応じて、二値化処理を行ってもよい。   Next, with respect to the image subjected to the differential processing, the image of the highlighted line portion and the image of the damaged portion in the color value quantified according to the change of the color from black to white for each pixel The color values assigned to the pixels that make up T.sub.1 become significantly different values compared to the color values assigned to the pixels corresponding to the other parts. Note that binarization processing may be performed on the image subjected to the differentiation processing as necessary.

次に、前記線状部分と交差する方向に沿って配列されている各ピクセル群の色数値に対して、フーリエ変換を行うことにより、色数値の周波数解析を行い、交差する方向に沿った色数値の変化の周期と位相を算出する。フーリエ変換により周波数解析を行った色数値の変化の周期と位相は、等間隔に配向された複数の線状部分の配列周期の情報と線状部分の位置の情報に相当する。   Next, frequency analysis of the color values is performed by performing Fourier transform on the color values of each pixel group arranged along the direction crossing the linear portion, and the color along the direction of crossing Calculate the period and phase of change of numerical value. The period and the phase of the change of the color value subjected to the frequency analysis by the Fourier transform correspond to the information of the arrangement period of the plurality of linear portions oriented at equal intervals and the information of the position of the linear portion.

次に、前記ピクセル群ごとの色数値の変化の周期と位相に基づいて、逆フーリエ変換を行うことにより、微分処理を行った画像に応じたフィルタ画像を構築する。なお、このフィルタ画像に対して、必要に応じて、二値化処理を行ってもよい。   Next, the inverse Fourier transform is performed based on the period and the phase of the change of the color numerical value for each group of pixels to construct a filter image according to the image subjected to the differential processing. In addition, you may perform a binarization process with respect to this filter image as needed.

得られたフィルタ画像は、線状部分の群を構成する線状部分の配列周期の情報と、各線状部分の群の位置の情報を含む画像であるため、次の工程で、フィルタ画像に対して、微分処理を行った画像を重ね合わせて、線状部分を、微分処理を行った画像から除去する。この線状部分を除去した画像には、外装材の損傷部位が残るため、この画像から損傷部位を特定することができる。   The obtained filter image is an image including information on the arrangement period of the linear portions constituting the group of linear portions and information on the position of the group of each linear portion. Then, the image subjected to differential processing is superimposed, and the linear portion is removed from the image subjected to differential processing. In the image from which the linear portion has been removed, since the damaged portion of the exterior material remains, the damaged portion can be identified from this image.

より好ましい態様としては、前記線状部分は、等間隔に配向された複数の第1の線状部分と、隣接する第1の線状部分の間に、前記各第1の線状部同士を繋ぐように、等間隔に複数の第2の線状部分と、を有しており、前記第1の線状部分に沿って配列された複数の第2の線状部分の群と、これに隣接する複数の第2の線状部分の群とは、前記第1の線状部分に沿った方向にオフセットして千鳥状に配置されており、前記微分処理を行う工程において、前記グレースケールに変換した画像に対して、前記第1および第2の線状部分のうちいずれか一方の線状部分に沿った方向のエッジが強調され、他方の線状部分が画像から消えるように、微分処理を行い、前記色数値の変化の周期と位相を算出する工程において、前記他方の線状部分に沿った前記色数値の変化の周期と位相を算出する。   As a more preferable aspect, the linear portions are each formed between the plurality of first linear portions oriented at equal intervals and the adjacent first linear portions. And a group of a plurality of second linear portions arranged along the first linear portion and having a plurality of second linear portions at equal intervals so as to connect them; Adjacent groups of second linear portions are arranged in a staggered manner offset in a direction along the first linear portions, and in the step of performing the differential processing, the gray scale is used. The converted image is differentiated so that an edge in a direction along one of the first and second linear portions is emphasized and the other linear portion disappears from the image. In the step of calculating the period and phase of the change of the color value, the second linear portion Calculating the period and the phase change of said color numerical values.

この態様によれば、微分処理において、グレースケールに変換した画像に対して、第1および第2の線状部分のうちいずれか一方の線状部分に沿った方向のエッジが強調され、他方の線状部分が画像から消えるように、微分処理を行う。たとえば、一方の線状部分を第2の線状部分とし、他方の線状部分を第1の線状部分とした場合、第2の線状部分に沿った方向のエッジが強調され、第1の線状部分が画像から消えるように、微分処理を行う。これにより、グレースケールへの変換後、微分処理を行った外装材の画像(第1微分処理画像)に対して、第2の線状部分の画像の部分と、第2の線状部分に沿って延在した損傷部位の画像の部分と、この方向に所定の幅を有した損傷部位の画像の部分と、を強調することができる。   According to this aspect, in the differential processing, an edge in a direction along any one of the first and second linear portions is enhanced with respect to the image converted into gray scale, Differential processing is performed so that the linear portion disappears from the image. For example, when one linear portion is a second linear portion and the other linear portion is a first linear portion, an edge in a direction along the second linear portion is emphasized, and the first linear portion is emphasized. The differentiation process is performed so that the linear portion of the image disappears from the image. As a result, with respect to the image of the exterior material subjected to differentiation processing after conversion to gray scale (first differentially processed image), along the portion of the image of the second linear portion and the second linear portion It is possible to highlight the part of the image of the damaged site which has been extended and the part of the image of the damaged site which has a predetermined width in this direction.

次に、撮像された画像の第1の線状部分に沿って配列されている各ピクセル群の色数値に対して、フーリエ変換を行うことにより、色数値の周波数解析を行い、第1の線状部分に沿った色数値の変化の周期と位相を算出する。フーリエ変換により周波数解析を行った色数値の変化の周期と位相は、等間隔に配向された複数の線状部分の群を構成する複数の第2の線状部分の配列周期の情報と、各第2の線状部分の群の位置の情報に相当する。なお、第2の線状部分の群はオフセットしているため、上述した位相からこれらの正確な位置情報はわからない。   Next, frequency analysis of the color values is performed by performing Fourier transform on the color values of the pixel groups arranged along the first linear portion of the captured image, and the first line is generated. Calculate the period and phase of the change of the color value along the shape part. The period and phase of the change in color value subjected to frequency analysis by Fourier transform are information of the arrangement period of the plurality of second linear portions constituting the group of the plurality of linear portions oriented at equal intervals, and each It corresponds to the information of the position of the group of the second linear portion. In addition, since the group of 2nd linear parts is offset, these exact positional information can not be known from the phase mentioned above.

したがって、算出されたこれらの周期と位相に基づいて、第2の線状部分の出現パターンを簡単に推定することができないため、次の工程において、色数値の変化の周期と位相に基づいた一部の情報に対して、逆フーリエ変換を行うことにより、微分処理を行った画像に応じたフィルタ画像(第1フィルタ画像)を構築する。なお、このフィルタ画像に対して、必要に応じて、二値化処理を行ってもよい。   Therefore, since the appearance pattern of the second linear portion can not be easily estimated on the basis of the calculated period and phase, in the next step, it is preferable to By performing inverse Fourier transform on the information of the part, a filter image (first filter image) corresponding to the image subjected to the differentiation process is constructed. In addition, you may perform a binarization process with respect to this filter image as needed.

得られたフィルタ画像は、第2の線状部分の群を構成する第2の線状部分の配列周期の情報と、各第2の線状部分の群の位置の情報を含む画像であるため、次の工程で、フィルタ画像に対して、微分処理を行った画像(第1微分処理画像)を重ね合わせて、第2の線状部分を、微分処理を行った画像(第1微分処理画像)から除去する。この第2の線状部分を除去した画像には、外装材の損傷部位が残るため、この画像から損傷部位を特定することができる。   The obtained filter image is an image including information on the arrangement period of the second linear portions constituting the group of the second linear portions and information on the position of the groups of the respective second linear portions. In the next step, an image (first differentially-processed image) obtained by differentially processing the filter image is superimposed, and an image (first differentially-processed image) obtained by differentially processing the second linear portion Remove from In the image from which the second linear portion has been removed, since the damaged portion of the exterior material remains, the damaged portion can be identified from this image.

同様に、一方の線状部分を第1の線状部分とし、他方の線状部分を第2の線状部分とし、上述した微分処理を行い、第1の線状部分に沿った方向のエッジが強調され、第2の線状部分が画像から消えるように、微分処理を行ってもよい。この微分処理した画像(第2微分処理画像)から、フーリエ変換により色数値の変化の周期と位相を算出した後、逆フーリエ変換を行うことにより、この微分処理を行った画像に応じたフィルタ画像(第2フィルタ画像)を構築し、このフィルタ画像から外装材の損傷部位を特定してもよい。   Similarly, one linear portion is a first linear portion, and the other linear portion is a second linear portion, and the above-described differentiation process is performed, and an edge in a direction along the first linear portion. , And the second linear portion may be eliminated from the image. A period and a phase of change in color value are calculated by Fourier transform from the image subjected to differential processing (second differentially processed image), and then inverse Fourier transform is performed to obtain a filtered image according to the image subjected to the differential processing. A (second filter image) may be constructed, and the damaged portion of the exterior material may be identified from this filter image.

さらに、上述した第1微分処理画像と第2微分処理画像を合成した合成微分処理画像と、上述した第1フィルタ画像と第2フィルタ画像を合成した合成フィルタ画像を作成し、合成フィルタ画像に対して、合成微分処理画像を重ね合わせて、外装材の損傷部位を特定してもよい。   Furthermore, a synthetic differentially processed image obtained by synthesizing the first differentially processed image and the second differentially processed image, and a synthetic filter image obtained by synthesizing the first filter image and the second filter image described above are created, and the synthetic filtered image is generated. The synthetic differentially processed image may be superimposed to identify the damaged portion of the exterior material.

さらに、上述したフィルタ画像を修正してもよい。具体的な好ましい態様として、撮像した前記外装材の画像に対して、前記一方の線状部分に沿った直線をハフ変換により検出し、検出した前記直線からなる画像を作成する工程と、前記検出した直線の画像に基づいて、前記構築されたフィルタ画像を修正する工程と、をさらに含む。   Furthermore, the filter image described above may be corrected. As a specific preferable aspect, a straight line along the one linear portion is detected by Hough transformation with respect to the captured image of the exterior material, and an image composed of the detected straight line is generated; And correcting the constructed filter image based on the image of the straight line.

周波数解析で算出したフィルタ画像は、一方の線状部分に沿った線の本数およびその線の間隔を正確に表すことができ、ハフ変換による直線検出では、一方の線状部分に沿った直線の位置を正確に検出することができる。したがって、この検出した直線の画像により、微分処理した画像の一方の線状部分が消えるように、フィルタ画像を修正すれば、より精度良く、外装材の損傷部位を特定することができる。   The filter image calculated by the frequency analysis can accurately represent the number of lines along one of the linear portions and the spacing of the lines, and in straight line detection by the Hough transform, the straight lines along one of the linear portions The position can be detected accurately. Therefore, if the filter image is corrected so that one linear portion of the differentially processed image disappears from the image of the detected straight line, the damaged portion of the exterior material can be identified more accurately.

より好ましい態様としては、前記微分処理を行う工程の前に、撮像した前記外装材の撮像画像から画像を抽出し、前記微分処理を行う工程において、抽出した抽出画像と前記撮像画像に対して前記微分処理を行い、前記微分処理を行った抽出画像に隣接する領域に、前記微分処理を行った抽出画像を複製することで、前記抽出画像を拡張した拡張画像を作成し、作成した前記拡張画像に対して、前記色数値の変化の周期と位相を算出する工程と前記フィルタ画像を構築する工程とを行って、前記フィルタ画像として、前記拡張画像に対応した拡張フィルタ画像を構築し、前記外装材の損傷部位を特定する工程において、前記拡張フィルタ画像を、前記微分処理を行った撮像画像に重ね合わせることにより、前記抽出画像を抽出した領域およびこれに隣接する領域の前記外装材の損傷部位を特定する。   As a more preferable aspect, before the step of performing the differentiation process, an image is extracted from the captured image of the exterior material taken, and in the step of performing the differentiation process, the extracted image and the captured image are extracted with respect to the extracted image The extended image obtained by extending the extracted image is created by performing the differential process and copying the extracted image subjected to the differential process in a region adjacent to the extracted image subjected to the differential process, and the created extended image created And the step of calculating the period and phase of change of the color value and the step of constructing the filter image to construct an extended filter image corresponding to the expanded image as the filter image; In the step of identifying the damaged part of the material, the area from which the extracted image is extracted by superimposing the expanded filter image on the captured image subjected to the differentiation process, and Specifying a damaged site of the outer member adjacent areas Les.

この態様によれば、新たなフィルタ画像を構築することなく、拡張フィルタ画像により、抽出画像を抽出した領域およびこれに隣接する領域の損傷部位をより簡単に特定することができる。ここで、抽出した画像が矩形状であり、これに隣接する画像が、矩形状とは異なる形状で抽出した画像と同じ間隔で線状部分を含む場合には、隣接する画像を含めてフィルタ画像を構築すると、外装材の損傷部位の特定の精度が低下することがある。しかしながら、この態様によれば、損傷部位の特定の精度の高い画像をベースに拡張フィルタ画像を構築したので、線状部分が形成された矩形状とは異なる形状の領域に対して、その領域の外装材の損傷部位をより正確に特定することができる。   According to this aspect, it is possible to more easily identify the damaged area of the area from which the extracted image is extracted and the area adjacent thereto by the expansion filter image without constructing a new filter image. Here, in the case where the extracted image is rectangular and the image adjacent thereto includes linear portions at the same intervals as the image extracted in a shape different from the rectangular shape, the filter image including the adjacent image Construction may reduce the accuracy of identifying the site of damage to the sheathing material. However, according to this aspect, since the expansion filter image is constructed based on the image with high accuracy of identification of the damaged site, the area of the area different from the rectangular shape in which the linear portion is formed can be obtained. It is possible to more accurately identify the damaged site of the exterior material.

より好ましい態様としては、前記微分処理を行った後、かつ、前記拡張画像を作成する前に、前記微分処理を行った抽出画像と、前記微分処理を行った撮像画像とを、前記外装材の表面の法線方向から撮像し、前記微分処理を行った画像となるように補正し、補正した前記抽出画像から前記拡張フィルタ画像を構築し、前記拡張フィルタ画像を、補正した前記撮像画像に重ね合わせることにより、前記抽出画像を抽出した領域およびこれに隣接する領域の前記外装材の損傷部位を特定する。   As a more preferable aspect, after performing the differentiation process and before creating the expanded image, an extracted image subjected to the differentiation process and a captured image subjected to the differentiation process are included in the exterior material. The expansion filter image is constructed from the extracted image corrected by imaging from the normal direction of the surface to be an image subjected to the differentiation process, and the expansion filter image is superimposed on the corrected captured image By combining, the damage site | part of the said exterior material of the area | region which extracted the said extraction image, and the area | region adjacent to this is specified.

この態様によれば、外装材の表面の法線方向(外装材の表面の正面)から撮像したように、微分処理を行った抽出画像と、微分処理を行った撮像画像とを、予め補正する。この補正後の画像を用いて外装材の損傷部位を特定するので、撮像条件により生じる遠近による画像のゆがみによる損傷部位の誤検出を回避することができる。   According to this aspect, as the image is taken from the normal direction of the surface of the exterior material (the front of the surface of the exterior material), the extracted image subjected to the differentiation process and the imaged image subjected to the differentiation process are corrected in advance . Since the damaged part of the exterior material is identified using the image after this correction, it is possible to avoid the erroneous detection of the damaged part due to the distortion of the image due to the distance from the imaging condition.

なお、これらの形態では、フィルタ画像を構築する前に、抽出画像を複製することにより、拡張フィルタ画像を作成したが、たとえば、フィルタ画像を構築した後、このフィルタ画像を複製して拡張した拡張フィルタ画像を構築してもよい。   In these embodiments, the expansion filter image is created by copying the extraction image before constructing the filter image. For example, after the filter image is constructed, this filter image is copied and expanded A filtered image may be constructed.

このような好ましい態様として、前記微分処理を行う工程の前に、撮像した前記外装材の撮像画像から画像を抽出し、抽出した抽出画像に対して、前記微分処理を行う工程から前記フィルタ画像を構築する工程までを実施して、前記フィルタ画像を構築し、前記外装材の損傷部位を特定する工程において、構築した前記フィルタ画像を、前記微分処理を行った抽出画像およびそれ以外の微分処理を行った撮像画像の領域(たとえば抽出画像に隣接した領域)に適用することで、前記外装材の損傷部位を特定してもよい。   As such a preferable aspect, before the step of performing the differentiation process, an image is extracted from the captured image of the exterior material taken, and the filter image is extracted from the step of performing the differentiation process on the extracted extracted image. The step of constructing up to the step of constructing, the step of constructing the filter image, and the step of identifying the damaged part of the exterior material, the extracted image subjected to the differentiation processing and the differentiation processing other than that are performed The damaged portion of the exterior material may be specified by applying it to the area of the taken image (for example, the area adjacent to the extracted image).

この場合には、前記微分処理を行った抽出画像と、前記微分処理を行った撮像画像とを、前記外装材の表面の法線方向から撮像し前記微分処理を行った画像となるように、補正し、補正した前記抽出画像に対して前記フィルタ画像を構築し、構築した前記フィルタ画像を、補正した前記抽出画像およびそれ以外の前記微分処理を行った撮像画像の領域に適用することで、前記外装材の損傷部位を特定することが好ましい。   In this case, the extracted image subjected to the differentiation process and the captured image subjected to the differentiation process are imaged from the normal direction of the surface of the outer covering material to obtain the image subjected to the differentiation process, The filter image is constructed with respect to the corrected and corrected extracted image, and the constructed filter image is applied to the region of the captured image which has been subjected to the correction process and the other differential processing. It is preferable to identify the damaged part of the exterior material.

第2の発明に係る外装材の損傷検出方法は、等間隔に配向された複数の線状部分を有した外装材の損傷部位を検出する損傷検出方法であって、前記外装材を撮像装置で撮像する工程と、撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、前記線状部分に沿った方向のエッジが強調されるように、微分処理を行う工程と、前記微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、前記線状部分と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、前記色数値の周波数解析を行い、前記交差する方向に沿った前記色数値の変化の周期と位相を算出する工程と、前記周期と前記位相に基づいて、前記線状部分の出現パターンを推定し、前記出現パターンに基づいて、前記微分処理を行った画像に対して、前記線状部分を前記画像から除去する工程と、前記線状部分を除去した画像から、前記外装材の損傷部位を特定する工程と、を備えることを特徴とする。   A method of detecting damage to an exterior material according to a second aspect of the present invention is a damage detection method for detecting a damaged portion of the exterior material having a plurality of linear portions oriented at equal intervals, and using the imaging material as the exterior material. Performing imaging, converting the imaged image into grayscale, and performing differential processing on the image converted into grayscale so that an edge in a direction along the linear portion is emphasized. Pixels arranged in a direction intersecting with the linear portion in a numerical color value digitized according to a change in color from black to white for the image subjected to the differential processing Performing a frequency analysis of the color values by performing Fourier transform on the color values of the group, and calculating a period and a phase of change of the color values along the intersecting direction; the period and the step Based on the phase A step of removing the linear portion from the image, wherein an appearance pattern of the linear portion is estimated, and the image subjected to the differential processing based on the appearance pattern; an image obtained by removing the linear portion And a step of identifying a damaged portion of the outer covering material.

第2の発明によれば、まず、外装材を撮像装置で撮像し、撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、線状部分に沿った方向のエッジが強調されるように、微分処理を行う。これにより、グレースケールへの変換後、微分処理を行った外装材の画像に対して、線状部分の画像と、この線状部分に沿って延在した損傷部位の画像と、この方向に所定の幅を有した損傷部位の画像と、を強調することができる。   According to the second aspect, first, the exterior material is imaged by the imaging device, the imaged image is converted to grayscale, and an edge in a direction along the linear portion is converted to the grayscale converted image. Perform differential processing as emphasized. As a result, with respect to the image of the exterior material subjected to differentiation processing after conversion to gray scale, the image of the linear portion, the image of the damaged portion extending along the linear portion, and the predetermined direction in this direction And an image of the injury site having a width of

次に、微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、強調された線状部分の画像と損傷部位の画像とを構成するピクセルに割り当てられた色数値は、他の部分に対応したピクセルに割り当てられた色数値に比べて、大きく異なる値となる。なお、この微分処理を行った画像に対して、必要に応じて、二値化処理を行ってもよい。   Next, with respect to the image subjected to the differential processing, the image of the highlighted line portion and the image of the damaged portion in the color value quantified according to the change of the color from black to white for each pixel The color values assigned to the pixels that make up T.sub.1 become significantly different values compared to the color values assigned to the pixels corresponding to the other parts. Note that binarization processing may be performed on the image subjected to the differentiation processing as necessary.

次に、前記線状部分と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、色数値の周波数解析を行い、交差する方向に沿った色数値の変化の周期と位相を算出する。フーリエ変換により周波数解析を行った色数値の変化の周期と位相は、等間隔に配向された複数の線状部分の配列周期の情報と線状部分の位置の情報に相当する。   Next, frequency analysis of the color values is performed by performing Fourier transform on the color values of the pixel group arranged along the direction crossing the linear portion, and the color values along the direction of crossing Calculate the period and phase of change of The period and the phase of the change of the color value subjected to the frequency analysis by the Fourier transform correspond to the information of the arrangement period of the plurality of linear portions oriented at equal intervals and the information of the position of the linear portion.

したがって、次の工程において、算出された周期と位相に基づいて、線状部分の出現パターンを推定し、推定パターンに基づいて、微分処理を行った画像に対して、線状部分を画像から除去することができる。具体的には、線状部分の画像に対して、その周りの画像と同等の色を付し、微分処理を行った画像に対して、線状部分の画像を目立たなくする。   Therefore, in the next step, the appearance pattern of the linear portion is estimated based on the calculated period and phase, and the linear portion is removed from the image on which the differential processing has been performed based on the estimated pattern. can do. Specifically, the image of the linear portion is given the same color as the image around it, and the image of the linear portion is made inconspicuous to the image subjected to the differential processing.

これにより、次の工程において、線状部分を除去した画像から、外装材の損傷部位に対応する画像を残すことができ、この画像から、外装材の損傷部位を簡単かつ正確に特定することができる。このような結果、より簡単な作業で、外装材の損傷部位を正確に特定して、これを検出することができる。   Thus, in the next step, it is possible to leave an image corresponding to the damaged area of the covering material from the image from which the linear portion has been removed, and to identify the damaged area of the covering material simply and accurately from this image. it can. As a result of this, it is possible to accurately identify and detect the damaged site of the exterior material by a simpler operation.

より好ましい態様としては、前記損傷部位を特定する工程において、前記除去する工程で得られた画像を、前記撮像する工程において撮像した画像に重ね合わせることにより、前記損傷部位を特定する。具体的には、第1の発明では、線状部分を除去した画像を、撮像した画像に重ね合わせることにより、損傷部位を特定する。第2の発明では、第2の線状部分を除去した画像を、撮像した画像に重ね合わせることにより、損傷部位を特定する。これにより、撮像した画像である外装材に対して、損傷部位の位置をより正確に特定することができる。   As a more preferable aspect, in the step of identifying the damaged site, the damaged site is identified by superimposing the image obtained in the removing step on the image captured in the imaging step. Specifically, in the first invention, the damaged site is identified by superimposing the image from which the linear portion is removed on the captured image. In the second invention, the damaged site is identified by superimposing the image from which the second linear portion has been removed on the captured image. This makes it possible to more accurately specify the position of the damaged site with respect to the exterior material that is the captured image.

上述した外装材は、たとえば、周期的に配列されたタイルまたはブロックなどで構成される建物の外壁、道路や広場などの舗装部分などを挙げることができるが、より好ましい態様としては、前記外装材は、スレート瓦が敷設された建物の屋根であり、第1の線状部分と第2の線状部分は、前記屋根の配置された前記スレート瓦同士の境界部分である。   Although the exterior material mentioned above can mention the exterior part of a building comprised with a tile or block etc. which were periodically arranged, a paved part such as a road or a square, etc., for example, the exterior material is more preferable as a preferred embodiment. Is a roof of a building on which slate tiles are laid, and the first linear portion and the second linear portion are boundary portions between the slate tiles disposed on the roof.

この態様によれば、スレート瓦が敷設された建物の屋根は、規則的にスレート瓦が敷設されているため、周期的に、第1の線状部分と第2の線状部分とを有するため、より正確に屋根の損傷部位を特定し、これを検出することができる。   According to this aspect, since the roof of the building on which the slate tile is laid has the first linear portion and the second linear portion periodically because the slate tile is laid regularly. More accurately identify the damaged site of the roof, it can be detected.

さらに好ましい態様としては、前記外装材の撮像を、撮像装置を搭載した無人航空機から行う。この態様によれば、上空から所望の角度で外装材を簡単に撮像することができる。特に、外装材が屋根である場合には、撮像のために建物に対して足場を作ることなく、無人航空機から、建物の屋根を、これらの上空の所望の位置から簡単に撮像することができる。   As a further preferable aspect, the imaging of the exterior material is performed from an unmanned aerial vehicle equipped with an imaging device. According to this aspect, the exterior material can be easily imaged at a desired angle from above. In particular, if the exterior material is a roof, the roofs of the buildings can be easily imaged from desired locations above these from unmanned aerial vehicles without making a footing for the buildings for imaging .

本発明によれば、より簡単な作業で、外装材の損傷部位を正確に特定して、これを検出することができる。   According to the present invention, it is possible to accurately identify and detect a damaged site of the exterior material by a simpler operation.

第1および第2の発明の実施形態に係る外装材の損傷検出方法を実施するための装置概略図である。It is the apparatus schematic for enforcing the damage detection method of the exterior material which concerns on embodiment of 1st and 2nd invention. 第1実施形態に係る外装材の損傷検出方法のフロー図の一部である。It is a part of flowchart of the damage detection method of the exterior material which concerns on 1st Embodiment. 図2に示す撮像工程で撮像した画像の模式図である。It is a schematic diagram of the image imaged at the imaging process shown in FIG. (a)は、図3の画像の一部を抽出した画像の模式図であり、(b)は、前処理工程後の画像の模式図である。(A) is a schematic diagram of the image which extracted a part of image of FIG. 3, (b) is a schematic diagram of the image after a pre-processing process. (a)は、図2に示す微分処理工程において、グレースケール変換後の画像の模式図であり、(b)は、微分処理工程を説明するための各ピクセルの模式図である。(A) is a schematic diagram of the image after gray scale conversion in the differentiation process shown in FIG. 2, (b) is a schematic diagram of each pixel for demonstrating a differentiation process. (a)は、図2に示す微分処理工程後の画像の模式図であり、(b)は、微分処理工程後の画像において、N列目のピクセル列に割り当てられた色数値を示す図である。(A) is a schematic diagram of the image after the differentiation process shown in FIG. 2, (b) is a figure which shows the color numerical value allocated to the N-th pixel row in the image after the differentiation process. is there. (a)は、図2に示す周波数解析工程において得られた周波数と振幅の関係を示したグラフであり、(b)は、図2に示す周波数解析工程において得られた周波数と位相の関係を示したグラフである。(A) is a graph showing the relationship between the frequency and the amplitude obtained in the frequency analysis step shown in FIG. 2, and (b) shows the relationship between the frequency and the phase obtained in the frequency analysis step shown in FIG. It is a graph shown. (a)は、図2に示す第1の線状部分除去工程後の画像の模式図であり、(b)は、図2に示す損傷部位特定工程後の画像の模式図である。(A) is a schematic diagram of the image after the 1st linear partial removal process shown in FIG. 2, (b) is a schematic diagram of the image after the damage site identification process shown in FIG. 第2実施形態に係る外装材の損傷検出方法のフロー図の一部である。It is a part of flowchart of the damage detection method of the exterior material which concerns on 2nd Embodiment. (a)は、図3の画像の一部を抽出した画像の模式図であり、(b)は、前処理工程後の画像の模式図であり、(c)は、グレースケール変換後の画像の模式図であり、(d)は、図2に示す微分処理工程後の画像の模式図である。(A) is a schematic diagram of the image which extracted a part of the image of FIG. 3, (b) is a schematic diagram of the image after a pre-processing process, (c) is an image after gray scale conversion (D) is a schematic diagram of the image after the differential treatment process shown in FIG. (a)は、図9に示す周波数解析工程において得られた周波数と振幅の関係を示したグラフであり、(b)は、図9に示す周波数解析工程において得られた周波数と位相の関係を示したグラフである。(A) is a graph showing the relationship between frequency and amplitude obtained in the frequency analysis step shown in FIG. 9, (b) shows the relationship between frequency and phase obtained in the frequency analysis step shown in FIG. It is a graph shown. (a)は、実際の屋根の一部の画像における前処理工程後の画像であり、(b)は、(a)に示す画像に対して、微分処理工程後の画像であり、(c)は、(b)に示す画像から作成したフィルタ画像である。(A) is an image after the pre-processing step in a part of the image of the actual roof, (b) is an image after the differential processing step with respect to the image shown in (a), (c) Is a filter image created from the image shown in (b). (a)は、図9に示す第2の線状部分除去工程後の画像であり、(b)は、図9に示す損傷部位特定工程後の画像の模式図である。(A) is an image after the 2nd linear partial removal process shown in FIG. 9, (b) is a schematic diagram of the image after the damage site identification process shown in FIG. 第3実施形態に係る外装材の損傷検出方法のフロー図である。It is a flowchart of the damage detection method of the exterior material which concerns on 3rd Embodiment. (a)〜(d)は、図14に示す各工程における画像の一例である。(A)-(d) is an example of the image in each process shown in FIG. 第4実施形態に係る外装材の損傷検出方法のフロー図である。It is a flowchart of the damage detection method of the exterior material which concerns on 4th Embodiment. (a)は、撮像工程で撮像した寄棟の屋根の画像の模式図であり、(b)は、拡張フィルタ画像の一例である。(A) is a schematic diagram of the image of the roof of the ridge which was imaged by the imaging process, (b) is an example of an extended filter image. (a)および(b)は、図16に示す領域形状補正工程までの工程を説明するための模式図である。(A) And (b) is a schematic diagram for demonstrating the process to the area | region shape correction process shown in FIG. 図16に示す領域拡張工程を説明するための模式図である。It is a schematic diagram for demonstrating the area | region expansion process shown in FIG.

以下、第1および第2の発明の実施形態に係る外装材の損傷検出方法を図1〜図13を参照しながら説明する。   Hereinafter, a method of detecting damage to the exterior material according to the embodiments of the first and second inventions will be described with reference to FIGS.

1.損傷検出装置100と屋根10について
本実施形態に係る損傷検出方法では、外装材として建物1の屋根10の損傷を検出する。図1に示すように、この診断方法では、図1に示す撮像装置6を搭載した無人航空機(UAV)5と、処理装置7と、を用いて、屋根10の損傷を検出する。
1. Damage Detection Device 100 and Roof 10 The damage detection method according to the present embodiment detects damage to the roof 10 of the building 1 as an exterior material. As shown in FIG. 1, in this diagnostic method, damage to the roof 10 is detected using an unmanned aerial vehicle (UAV) 5 equipped with the imaging device 6 shown in FIG. 1 and a processing device 7.

1−1.撮像装置6を搭載した無人航空機(UAV)5について
無人航空機(UAV)5は、いわゆるドローンであり、無人航空機5は、無線コントローラ(図示)により、建物1等の上空まで操作される。無人航空機5には、撮像装置6が搭載されており、無線コントローラの操作により、対象物を撮像することができる。
1-1. Unmanned Aerial Vehicle (UAV) 5 Equipped with the Imaging Device 6 The unmanned aerial vehicle (UAV) 5 is a so-called drone, and the unmanned aerial vehicle 5 is operated by the wireless controller (shown) to the upper sky of the building 1 or the like. The imaging device 6 is mounted on the unmanned aerial vehicle 5, and an object can be imaged by the operation of the wireless controller.

無人航空機5に搭載された撮像装置6は、カラーまたはモノクロのデジタル画像が撮影できる装置であり、後述する工程において、建物1の屋根10を撮像する装置である。撮像装置6としては、たとえば、デジタルカメラ(いわゆるデジカメ)、カメラ機能を有する通信端末等を挙げることができる。   The imaging device 6 mounted on the unmanned aerial vehicle 5 is a device that can capture color or monochrome digital images, and is a device that captures an image of the roof 10 of the building 1 in a process described later. Examples of the imaging device 6 include a digital camera (so-called digital camera), a communication terminal having a camera function, and the like.

1−2.処理装置7について
処理装置7は、入力装置71、表示装置72、演算装置(CPU)73、および記憶装置(たとえばRAM等)74を備えている。処理装置7は、パーソナルコンピュータまたはスマートフォン、タブレット端末等の形態端末である。記憶装置74には、後述する工程で行う画像処理プログラム74A、解析プログラム74B等が記憶されている。なお、記憶装置74には、OS(オペレーションプログラム)(図示せず)が記憶され、画像処理プログラム74Aは、アプリケーションプログラムとしてインストールされている。
1-2. The Processing Device 7 The processing device 7 includes an input device 71, a display device 72, an arithmetic device (CPU) 73, and a storage device (for example, a RAM or the like) 74. The processing device 7 is a portable terminal such as a personal computer or a smartphone or a tablet terminal. The storage device 74 stores an image processing program 74A, an analysis program 74B, and the like which are performed in steps to be described later. The storage device 74 stores an OS (Operation Program) (not shown), and the image processing program 74A is installed as an application program.

入力装置71は、キーボード、マウス、タッチパネル等の入力機器であり、USB規格等のインタフェースなどの入出力ポート(図示せず)を介して、演算装置73および記憶装置74に接続される。入力装置71により、たとえば、各工程の処理条件が入力される。なお、撮像装置6で撮像された画像は、たとえば無線により入出力ポートを介して、記憶装置74に入力される。表示装置72は、液晶表示装置等の画像を表示可能な出力機器であり、各工程の画像等が出力される。   The input device 71 is an input device such as a keyboard, a mouse, and a touch panel, and is connected to the arithmetic device 73 and the storage device 74 via an input / output port (not shown) such as an interface conforming to the USB standard. For example, processing conditions of each process are input by the input device 71. The image captured by the imaging device 6 is input to the storage device 74, for example, wirelessly via the input / output port. The display device 72 is an output device capable of displaying an image such as a liquid crystal display device, and outputs an image or the like of each process.

1−3.屋根10について
図3に示すように、損傷の検出対象である外装材は、屋根10であり、本実施形態では、屋根10は、たとえば矩形状のスレート瓦からなる屋根である。屋根10は、等間隔に配向された複数の第1の線状部分11と、隣接する第1の線状部分11の間に、各第1の線状部分11同士を繋ぐように、等間隔に複数の第2の線状部分12と、を有しており、前記第1の線状部分11に沿って配列された複数の第2の線状部分12の群と、これに隣接する複数の第2の線状部分12の群とは、第1の線状部分11に沿った方向にオフセットして千鳥状に配置されている。
1-3. About the Roof 10 As shown in FIG. 3, the exterior material to be detected for damage is the roof 10, and in the present embodiment, the roof 10 is a roof made of, for example, rectangular slate tiles. The roof 10 is equally spaced so as to connect the respective first linear portions 11 between the plurality of first linear portions 11 oriented at equal intervals and the adjacent first linear portions 11. And a plurality of second linear portions 12, and a group of the plurality of second linear portions 12 arranged along the first linear portion 11, and a plurality of groups adjacent to the group. The groups of second linear portions 12 are arranged in a staggered manner offset in the direction along the first linear portions 11.

2.第1実施形態に係る損傷検出方法について
このような屋根10に対して、図2に示す以下の一連の工程を行うことにより損傷部位を検出する。図2〜8を参照しながら、第1実施形態に係る損傷検出方法を説明する。第1実施形態は、第2の発明の一実施形態に相当するものである。
2. About the damage detection method concerning a 1st embodiment By performing the following series of processes shown in Drawing 2 to such a roof 10, a damaged part is detected. The damage detection method according to the first embodiment will be described with reference to FIGS. The first embodiment corresponds to an embodiment of the second invention.

2−1.撮像工程S21について
まず、本実施形態では、図2に示す撮像工程S21を行う。図1に示すように建物1の屋根10を、撮像装置6で撮像する。この際、無人航空機5を建物1の上空に飛行させて、上方から屋根10を撮像装置6で撮像する。これにより、図3に示す如き屋根10の画像(撮像画像)10Aを取得することができる。撮像画像10Aは、処理装置7に送信され、処理装置7で、撮像した画像に対して以下の工程を行う。
2-1. Regarding Imaging Step S21 First, in the present embodiment, the imaging step S21 shown in FIG. 2 is performed. As shown in FIG. 1, the roof 10 of the building 1 is imaged by the imaging device 6. At this time, the unmanned aerial vehicle 5 is made to fly above the building 1 and the roof 10 is imaged by the imaging device 6 from above. Thereby, the image (captured image) 10A of the roof 10 as shown in FIG. 3 can be acquired. The captured image 10A is transmitted to the processing device 7, and the processing device 7 performs the following steps on the captured image.

2−2.前処理工程S22について
次に、前処理工程S22を行う。この工程では、図3に示す屋根10の画像から、画像A1を抽出し、撮像装置6のレンズによるゆがみ等の補正を行う。また、抽出した画像A1に対して、射影変換等により、屋根10の勾配に合わせて画像を傾ける。これにより、図4(a)に示す抽出した画像A1から、図4(b)に示す前処理工程S22後の画像A2を得ることができる。なお、撮像工程S21において、無人航空機5での撮影の際、撮像装置6の向きを屋根面に対して垂直に向けて撮影すれば、射影変換を省略することができる。
2-2. Pretreatment Step S22 Next, a pretreatment step S22 is performed. In this process, the image A1 is extracted from the image of the roof 10 shown in FIG. 3 and correction such as distortion by the lens of the imaging device 6 is performed. In addition, with respect to the extracted image A1, the image is inclined in accordance with the slope of the roof 10 by projective transformation or the like. Thus, from the extracted image A1 shown in FIG. 4A, an image A2 after the pre-processing step S22 shown in FIG. 4B can be obtained. In the imaging step S21, projective transformation can be omitted if the direction of the imaging device 6 is directed perpendicularly to the roof surface during imaging with the unmanned aerial vehicle 5.

2−3.微分処理工程S23について
次に、微分処理工程S23を行う。この工程では、画像A2をグレースケールに変換し、図5(a)に示す画像A3を得て、その後、グレースケールに変換した画像A3に対して、第1の線状部分11に沿った方向のエッジが強調されるように、微分処理を行う。これにより、第2の線状部分12を消す。
2-3. Regarding the differential processing step S23 Next, the differential processing step S23 is performed. In this step, the image A2 is converted to gray scale to obtain the image A3 shown in FIG. 5A, and then the direction along the first linear portion 11 with respect to the image A3 converted to gray scale Perform differentiation processing so that the edge of is emphasized. Thereby, the second linear portion 12 is extinguished.

具体的には、図5(b)に示すように、各ピクセルに対して、黒色から白色の色の変化に応じて、数値化された色数値に対して、フィルタ行列(sobelフィルタ)をかける。この際、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値を変換する。具体的には、黒が0、白が255となるように、フィルタ行列で、マイナスになった値をゼロにし、255を超える数値は、すべて255にする。   Specifically, as shown in FIG. 5B, a filter matrix (sobel filter) is applied to each pixel according to the change in color from black to white. . At this time, the converted color value is converted for each pixel in accordance with the change in color from black to white. Specifically, in the filter matrix, negative values are set to zero so that black is 0 and white is 255, and values exceeding 255 are all 255.

これにより、図6(a)に示すように、屋根10の縦パターンである第2の線状部分12を消して、屋根10の横パターンである第1の線状部分11と、それ以外の損傷部位13などの情報が強調された画像A4を得ることができる。   Thereby, as shown to Fig.6 (a), the 2nd linear part 12 which is a vertical pattern of the roof 10 is erase | eliminated, The 1st linear part 11 which is a horizontal pattern of the roof 10, and others An image A4 in which information such as the damaged site 13 is emphasized can be obtained.

2−4.周波数解析工程S24について
次に、周波数解析工程S24を行う。ここで、微分処理を行った画像A4に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化されて、色数値が割り当てられている。この画像A4に対して、第1の線状部分11と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、色数値の周波数解析を行い、交差する方向に沿った色数値の変化の周期と位相を算出する。
2-4. Frequency Analysis Step S24 Next, the frequency analysis step S24 is performed. Here, for the image A4 subjected to the differentiation process, color values are assigned for each pixel according to the change in color from black to white. For this image A4, frequency analysis of the color values is performed by performing Fourier transform on the color values of the pixel group arranged along the direction crossing the first linear portion 11, and the crossing is performed. Calculate the period and phase of the change of the color value along the direction.

具体的には、図6(a)に示すように、画像A4のピクセルの列ごとに、図6(b)に示すように、割り当てられた色数値の変化に対して、フーリエ変換を行うことにより、色数値の周波数解析を行う。図6(b)の横軸は、第1の線状部分11と交差する方向(具体的には縦方向)に沿って配列されているピクセル群のピクセルの位置であり、縦方向の1列のデータを1つのまとまりとして、そのピクセルの並びに応じた色数値の変化の周期と位相を得ることができる。このような周波数解析を、すべての列に対して行う。   Specifically, as shown in FIG. 6 (a), Fourier transformation is performed on the change of the assigned color value as shown in FIG. 6 (b) for each row of pixels of the image A4. Perform frequency analysis of color values. The horizontal axis in FIG. 6B is the position of the pixels of the pixel group arranged along the direction (specifically, the vertical direction) intersecting the first linear portion 11, and one vertical row The data of B.sub.1 and B.sub.2 can be combined to obtain the period and the phase of the change of the color value according to the pixel. Such frequency analysis is performed for all the columns.

これにより、図7(a)、(b)に示すように、周波数に対して振幅および位相の関係を得ることができる。なお、ここでいう周波数とは、サイクル数/列ピクセルの数のことである。図7(a)に示すように、振幅の最初のピークが出現する周波数が第1の線状部分11の本数により変わるため、図7(a)から、複数の第1の線状部分11の配列周期の情報を得ることができる。具体的には、各列のフーリエ変換の結果を周波数毎に平均化した結果について、最初のピークが出現する周波数が、第1の線状部分11の本数により変わる。したがって、最初のピークが出現する周波数が、第1の線状部分の周期の情報に相当する。一方、図7(b)に示すように、位相の変化は、第1の線状部分11の位置に応じて変わるので、第1の線状部分11の位置の情報を特定することができる。   Thus, as shown in FIGS. 7A and 7B, the relationship between the amplitude and the phase can be obtained with respect to the frequency. Here, the frequency refers to the number of cycles / the number of column pixels. As shown in FIG. 7A, since the frequency at which the first peak of the amplitude appears changes depending on the number of first linear portions 11, from FIG. 7A, the plurality of first linear portions 11 can be obtained. It is possible to obtain sequence cycle information. Specifically, regarding the result of averaging the results of Fourier transform of each column for each frequency, the frequency at which the first peak appears changes depending on the number of first linear portions 11. Therefore, the frequency at which the first peak appears corresponds to the information of the period of the first linear portion. On the other hand, as shown in FIG. 7B, the change of the phase changes according to the position of the first linear portion 11, so that the information of the position of the first linear portion 11 can be specified.

2−5.第1の線状部分除去工程S25について
次に、第1の線状部分除去工程S25を行う。この工程では、算出した周期と位相に基づいて、第1の線状部分11の出現パターンを推定し、推定した出現パターンに基づいて、微分処理を行った画像A4に対して、第1の線状部分11を画像A4から除去する。
2-5. First Linear Portion Removal Step S25 Next, a first linear portion removal step S25 is performed. In this step, the appearance pattern of the first linear portion 11 is estimated based on the calculated period and phase, and the first line is generated for the image A4 subjected to differentiation processing based on the estimated appearance pattern. Like portion 11 is removed from the image A4.

出現パターンの推定の際には、図7(a)のように、最初のピークを波形の一山とするならば、この山を含む複数の山のピークの振幅と位相を用いて、第1の線状部分11に対応する線の出現数とその位置を推定する。この推定した線の出現数とその位置から出現パターンを推定することができる。一方、後述する図11(a)のように、最初のピークが2つの周波数にまたがる場合には、各行ごとに、いずれか振幅の大きい周波数の振幅と位相を用いて、第1の線状部分11に対応する線の出現数とその位置を推定する。   When estimating the appearance pattern, as shown in FIG. 7A, if the first peak is one peak of the waveform, the amplitude and phase of a plurality of peaks including this peak are used to The number of occurrences of the line corresponding to the linear portion 11 and the position thereof are estimated. The appearance pattern can be estimated from the number of occurrences of the estimated line and the position thereof. On the other hand, as shown in FIG. 11A, which will be described later, when the first peak spans two frequencies, the first linear portion is used for each row using the amplitude and phase of one of the frequencies having the larger amplitude. Estimate the number of occurrences of the line corresponding to 11 and its position.

具体的には、図6(a)の第1の線状部分11の画像に対して、その周りの画像と同等の色(黒色)を付し、微分処理を行った画像に対して、第1の線状部分11の画像を目立たなくする。これにより、図8(a)に示すように、損傷部位13の画像A5を得ることができる。たとえば、この画像A5を適当な閾値で2値化してもよい。   Specifically, the image of the first linear portion 11 in FIG. 6 (a) is given the same color (black) as the image around it, and the image subjected to the differential processing is Make the image of the linear portion 11 of 1 less noticeable. Thereby, as shown to Fig.8 (a), the image A5 of the damage site 13 can be obtained. For example, this image A5 may be binarized with an appropriate threshold.

2−6.損傷部位特定工程S26について
次に、損傷部位特定工程S26を行う。第1の線状部分11を除去した画像A5から、屋根10の損傷部位13を特定する。具体的には、図4(a)に示す、前処理工程S2後の屋根10の状態がわかる画像A2に対して、画像A5の白色と黒色を逆転した画像を重ね合わせる。このようにして、図8(b)に示すように、より簡単な作業で、屋根10の損傷部位13を正確に特定した画像A6を得ることができる。
2-6. About Damaged Part Identification Step S26 Next, the damaged part identification step S26 is performed. The damaged portion 13 of the roof 10 is identified from the image A5 from which the first linear portion 11 has been removed. Specifically, on the image A2 shown in FIG. 4A, in which the state of the roof 10 after the pretreatment step S2 is known, an image in which the white color and the black color of the image A5 are reversed is superimposed. Thus, as shown in FIG. 8 (b), an image A6 in which the damaged portion 13 of the roof 10 is accurately identified can be obtained by a simpler operation.

3.第2実施形態に係る損傷検出方法について
さらに、上述した方法とは異なる損傷検出方法として、屋根10に対して、図9に示す一連の工程を行うことにより損傷部位を検出する。以下に、図9〜13を参照しながら、第2実施形態に係る損傷検出方法を説明する。第2実施形態は、第1の発明の一実施形態に相当するものである。
3. Regarding a Damage Detection Method According to the Second Embodiment Furthermore, as a damage detection method different from the above-described method, a damaged portion is detected by performing a series of steps shown in FIG. 9 on the roof 10. The damage detection method according to the second embodiment will be described below with reference to FIGS. The second embodiment corresponds to an embodiment of the first invention.

3−1.撮像工程S91、前処理工程S92について
上述した方法と同様の方法によって、撮像工程S91と前処理工程S92とを行う。撮像工程S91では、屋根10の画像11Aを撮像し(図3参照)、図10(a)に示すように、その一部の画像B1を抽出する。次に、前処理工程S92により、図10(b)に示すように、ゆがみ等の無い画像B2を得ることができる。
3-1. About imaging process S91 and pre-processing process S92 By the method similar to the method mentioned above, imaging process S91 and pre-processing process S92 are performed. In the imaging step S91, the image 11A of the roof 10 is imaged (see FIG. 3), and as shown in FIG. 10A, a part of the image B1 is extracted. Next, as shown in FIG. 10B, an image B2 without distortion or the like can be obtained by the pre-processing step S92.

3−2.微分処理工程S93について
次に、微分処理工程S93を行う。この工程では、画像B2をグレースケールに変換し、図10(c)に示す画像B3を得て、その後、グレースケールに変換した画像B3に対して、第2の線状部分12に沿った方向のエッジが強調されるように、微分処理を行う。これにより、画像B3から第1の線状部分11を消す。
3-2. Regarding the differential processing step S93 Next, the differential processing step S93 is performed. In this step, the image B2 is converted to gray scale to obtain an image B3 shown in FIG. 10C, and then the direction along the second linear portion 12 with respect to the image B3 converted to gray scale Perform differentiation processing so that the edge of is emphasized. Thereby, the first linear portion 11 is erased from the image B3.

具体的には、図10(c)に示すように、各ピクセルに対して、黒色から白色の色の変化に応じて、数値化された色数値に対して、フィルタ行列(sobelフィルタ)をかける。この際、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値を変換する。具体的には、黒が0、白が255となるように、フィルタ行列で、マイナスになった値をゼロにし、255を超える数値は、すべて255にする。   Specifically, as shown in FIG. 10C, a filter matrix (sobel filter) is applied to each pixel according to the change in color from black to white. . At this time, the converted color value is converted for each pixel in accordance with the change in color from black to white. Specifically, in the filter matrix, negative values are set to zero so that black is 0 and white is 255, and values exceeding 255 are all 255.

これにより、図10(c)に示すように、屋根10の横パターンである第1の線状部分11を消して、屋根10の縦パターンである第2の線状部分12と、それ以外の損傷部位13などの情報が強調された画像B4を得ることができる。   As a result, as shown in FIG. 10C, the first linear portion 11 which is the horizontal pattern of the roof 10 is erased, and the second linear portion 12 which is the vertical pattern of the roof 10 and the other An image B4 in which information such as the damaged site 13 is emphasized can be obtained.

3−3.周波数解析工程S94について
次に、周波数解析工程S94を行う。ここで、微分処理を行った画像B4に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化されて、色数値が割り当てられている。この画像B4に対して、第2の線状部分12と交差する方向(具体的には横方向)に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、色数値の周波数解析を行い、交差する方向に沿った色数値の変化の周期と位相を算出する。
3-3. Frequency Analysis Step S94 Next, the frequency analysis step S94 is performed. Here, a color value is assigned to the image B4 subjected to the differentiation processing, in accordance with the change in color from black to white, for each pixel. The image B4 is subjected to Fourier transform on the color values of the pixel group arranged along the direction (specifically, the lateral direction) intersecting the second linear portion 12 to obtain a color. Perform frequency analysis of numerical values and calculate the period and phase of change of color values along the crossing direction.

具体的には、画像B4のピクセルの列ごとに、割り当てられた色数値の変化に対して、フーリエ変換を行うことにより、色数値の周波数解析を行う。1列のデータを1つのまとまりとして、そのピクセルの並びに応じた色数値の変化の周期と位相を得ることができる。このような周波数解析を、すべての行に対して行う。   Specifically, frequency analysis of color values is performed by performing Fourier transform on the change of the assigned color values for each column of pixels of the image B4. One row of data can be combined to obtain the period and phase of change of the color value of the pixel. Such frequency analysis is performed for all the rows.

これにより、図11(a)、(b)に示すように、周波数に対して振幅および位相の関係を得ることができる。しかしながら、第2の線状部分12の群同士にはオフセットがあるため、隣接する縦方向の第2の線状部分12の群の本数は異なる場合があり、得られた位相からこれらの正確な位置情報はわからない。   Thus, as shown in FIGS. 11A and 11B, the relationship between the amplitude and the phase can be obtained with respect to the frequency. However, since the groups of the second linear portions 12 have offsets, the number of groups of the adjacent second linear portions 12 in the longitudinal direction may differ, and from the obtained phases, these accurate I do not know the location information.

したがって、算出されたこれらの周期と位相に基づいて、第2の線状部分の出現パターンを簡単に推定することができないため、次に示すフィルタ画像構築工程S95を行う。   Therefore, since the appearance pattern of the second linear portion can not be easily estimated based on the calculated period and phase, a filter image constructing step S95 described below is performed.

3−4.フィルタ画像構築工程S95について
この工程では、周期と位相に基づいて、逆フーリエ変換を行うことにより、微分処理を行った画像B4に応じたフィルタ画像を構築する。図12(a)は、実際の屋根10の一部の画像における前処理工程後の画像である。これに対して、図12(b)は、図12(a)の微分処理工程S93後の画像である。この工程では、さらに、図12(c)に示すフィルタ画像を作成する。
3-4. Filter Image Construction Step S95 In this step, the inverse Fourier transform is performed based on the period and the phase to construct a filter image according to the image B4 subjected to the differential processing. FIG. 12 (a) is an image after the pre-processing step in a partial image of the actual roof 10. As shown in FIG. On the other hand, FIG. 12 (b) is an image after the differentiation process step S93 of FIG. 12 (a). In this step, a filter image shown in FIG. 12 (c) is further created.

具体的には、最初のピークの周波数(図11(a)では、周波数が0.05と0.06)の振幅と位相の情報を用いて、逆フーリエ変換を行う。逆フーリエ変換で得られた画像を、二値化し、膨張・収縮処理を行う。これにより、図12(c)によるフィルタ画像を得ることができる。   Specifically, inverse Fourier transform is performed using the amplitude and phase information of the frequency of the first peak (the frequencies of 0.05 and 0.06 in FIG. 11A). The image obtained by the inverse Fourier transform is binarized and subjected to expansion / contraction processing. Thereby, the filter image according to FIG. 12C can be obtained.

3−5.第2の線状部分除去工程S96について
次に、第2の線状部分除去工程S96を行う。この工程では、フィルタ画像に対して、図10(d)に示す微分処理を行った画像B4を重ね合わせて、第2の線状部分12を微分処理の画像B4から除去する。具体的には、2つの画像の画素に対して、フィルタ画像の色数値が所定以上である場合には、画像B4の該当位置のピクセルを、その周りのピクセルと同等の色(黒色)を割り当てる。これにより、微分処理を行った画像B4に対して、第2の線状部分12の画像を目立たなくする。このようにして、図13(a)に示すように、損傷部位13の画像B5を得ることができる。たとえば、この画像B5を適当な閾値で2値化してもよい。
3-5. Regarding Second Linear Portion Removal Step S96 Next, a second linear portion removal step S96 is performed. In this step, the second linear portion 12 is removed from the image B4 of differential processing by superimposing the image B4 subjected to the differential processing shown in FIG. 10D on the filter image. Specifically, when the color value of the filter image is equal to or greater than a predetermined value, the pixel of the corresponding position of the image B4 is assigned a color (black) equivalent to the pixels around it, for the pixels of the two images. . Thereby, the image of the second linear portion 12 is made less noticeable to the image B4 subjected to the differentiation process. In this way, as shown in FIG. 13A, an image B5 of the damaged site 13 can be obtained. For example, this image B5 may be binarized with an appropriate threshold.

3−6.損傷部位特定工程S97について
次に、損傷部位特定工程S97を行う。第2の線状部分12を除去した画像B5から、屋根10の損傷部位を特定する。具体的には、図10(b)に示す、前処理工程S2後の屋根10の状態がわかる画像B2に対して、図13(a)の画像B5の白色と黒色を逆転した画像を重ね合わせる。このようにして、図13(b)に示すように、より簡単な作業で、屋根10の損傷部位13を正確に特定した画像B6を得ることができる。
3-6. About Damaged Part Identification Step S97 Next, the damaged part identification step S97 is performed. The damaged portion of the roof 10 is identified from the image B5 from which the second linear portion 12 has been removed. Specifically, on the image B2 shown in FIG. 10 (b), where the state of the roof 10 after the pre-processing step S2 can be determined, the image in which the white and the black are reversed in the image B5 of FIG. 13 (a) is superimposed. . In this way, as shown in FIG. 13B, it is possible to obtain an image B6 in which the damaged portion 13 of the roof 10 is accurately identified by a simpler operation.

なお、本実施形態では、微分処理により第1の線状部分11を画像B3から消した画像B4(第1微分処理画像)を得た後、構築したフィルタ画像(第1フィルタ画像)で、第2の線状部分12を画像B4から除去した。この他にも、たとえば、第1の線状部分11に沿った方向のエッジが強調され、第2の線状部分12が画像B2から消えるように、微分処理を行ってもよい。この微分処理した画像(第2微分処理画像)から、フーリエ変換により色数値の変化の周期と位相を算出した後、逆フーリエ変換を行うことにより、この微分処理を行った画像B2に応じたフィルタ画像(第2フィルタ画像)を構築し、このフィルタ画像から屋根10の損傷部位を特定してもよい。   In this embodiment, after obtaining an image B4 (first differentially processed image) in which the first linear portion 11 is erased from the image B3 by differential processing, the first filter image (first filter image) is constructed. Two linear portions 12 were removed from image B4. Besides this, for example, the differential process may be performed such that the edge in the direction along the first linear portion 11 is emphasized and the second linear portion 12 disappears from the image B2. From the image subjected to differential processing (second differentially processed image), after calculating the period and phase of change in color numerical value by Fourier transform, by performing inverse Fourier transform, a filter according to image B2 subjected to this differential processing An image (second filter image) may be constructed, and the damaged area of the roof 10 may be identified from this filter image.

さらに、上述した第1微分処理画像と第2微分処理画像を合成した合成微分処理画像と、上述した第1フィルタ画像と第2フィルタ画像を合成した合成フィルタ画像を作成し、合成フィルタ画像に対して、合成微分処理画像を重ね合わせて、屋根10の損傷部位を特定してもよい。たとえば、第1微分処理画像と第2微分処理画像との合成では、第1の線状部分11と、第2の線状部分12と、亀裂等の損傷部位13が残るように合成するとよい。さらに、第1フィルタ画像と第2フィルタ画像との合成では、双方のフィルタ画像のうち、第1の線状部分11と、第2の線状部分12として消去する部分が残るように合成するとよい。   Furthermore, a synthetic differentially processed image obtained by synthesizing the first differentially processed image and the second differentially processed image, and a synthetic filter image obtained by synthesizing the first filter image and the second filter image described above are created, and the synthetic filtered image is generated. The synthetic differentially processed image may be superimposed to identify the damaged portion of the roof 10. For example, in the combination of the first differentially-processed image and the second differentially-processed image, it is preferable to combine so that the first linear portion 11, the second linear portion 12, and the damaged portion 13 such as a crack remain. Furthermore, in the combination of the first filter image and the second filter image, it is preferable to combine so that the first linear portion 11 and the portion to be eliminated as the second linear portion 12 remain in both filter images. .

4.第3実施形態に係る損傷検出方法について
第3実施形態では、屋根10に対して、図14に示す一連の工程を行うことにより損傷部位を検出する。以下に、図14および図15を参照しながら、第3実施形態に係る損傷検出方法を説明する。第3実施形態は、第1の発明の一実施形態に相当するものである。
4. Regarding Damage Detection Method According to Third Embodiment In the third embodiment, a damaged portion is detected by performing a series of steps shown in FIG. 14 on the roof 10. The damage detection method according to the third embodiment will be described below with reference to FIGS. 14 and 15. The third embodiment corresponds to an embodiment of the first invention.

第3実施形態に係る屋根10の損傷検出方法が、第2実施形態と異なる点は、構築したフィルタ画像をさらに修正する点であり、フィルタ画像構築工程S95と、第2線状部分除去工程S96との間に、以下の工程をさらに行うものである。したがって、本実施形態では、上述した撮像工程S91からフィルタ画像構築工程S95までを行う。なお、図15(a)は、微分処理工程S94で得られた画像であり、図15(c)は、フィルタ画像構築工程S95で得られた画像である。   The damage detection method of the roof 10 according to the third embodiment is different from the second embodiment in that the constructed filter image is further corrected. A filter image construction step S95 and a second linear portion removal step S96 In addition, the following steps are further performed. Therefore, in the present embodiment, the above-described imaging step S91 to the filter image constructing step S95 are performed. FIG. 15 (a) is an image obtained in the differentiation processing step S94, and FIG. 15 (c) is an image obtained in the filter image construction step S95.

次に、直線検出処理工程S141を行う。撮像した屋根10の画像に対して、第2の線状部分12に沿った直線を画像処理により検出し、検出した直線からなる画像を作成する。本実施形態では、直線の検出は、一般的に知られた画像処理により行うことができ、ハフ変換(Hough変換)により行う。   Next, a straight line detection process step S141 is performed. A straight line along the second linear portion 12 is detected by image processing on the captured image of the roof 10, and an image composed of the detected straight line is created. In this embodiment, detection of a straight line can be performed by generally known image processing, and is performed by Hough transform (Hough transform).

次に、検出判定工程S142を行う。具体的には、検出した直線と、第2の線状部分12とが整合性がない場合(たとえば、第2の線状部分以外の位置に直線を検出した場合)には、直線検出処理工程S141に戻る。直線検出処理工程S141では、ハフ変換の直線の検出条件を変更し、再度直線の検出を行う。   Next, a detection determination step S142 is performed. Specifically, when the detected straight line and the second linear portion 12 do not match (for example, when a straight line is detected at a position other than the second linear portion), the straight line detection process step It returns to S141. In the straight line detection process step S141, the straight line detection condition of the Hough transform is changed, and the straight line is detected again.

このような作業を繰り返し、検出した直線と、第2の線状部分21とが整合性がある場合には、たとえば、図15(b)のような画像となる。この場合には、フィルタ画像修正工程S143に進む。この工程では、検出した直線の画像に基づいて、論理和により構築されたフィルタ画像を修正する。具体的には、検出した直線の画像により、微分処理した画像の第2の線状部分12が消えるように、フィルタ画像を修正する。修正したフィルタ画像を用いて、第2の線状部分除去工程S96および損傷部位特定工程S97を行う。   Such an operation is repeated, and when the detected straight line and the second linear portion 21 have consistency, for example, an image as shown in FIG. 15B is obtained. In this case, the process proceeds to the filter image correction step S143. In this step, the filter image constructed by the logical sum is corrected based on the detected straight line image. Specifically, the filter image is corrected so that the second linear portion 12 of the differentially processed image disappears from the detected straight line image. A second linear portion removal step S96 and a damaged site identification step S97 are performed using the corrected filter image.

本実施形態では、周波数解析で算出したフィルタ画像は、一方の線状部分に沿った線の本数およびその線の間隔を正確に表すことができ、ハフ変換による直線検出では、一方の線状部分に沿った直線の位置を正確に検出することができるため、修正したフィルタ画像により、より精度良く、外装材の損傷部位を特定することができる。   In the present embodiment, the filter image calculated by the frequency analysis can accurately represent the number of lines along one of the linear portions and the intervals of the lines, and in the straight line detection by the Hough transform, the one linear portion Because the position of the straight line along the line can be accurately detected, the damaged image of the exterior material can be identified more accurately by the corrected filter image.

5.第4実施形態に係る損傷検出方法について
第4実施形態では、屋根10に対して、図16に示す一連の工程を行うことにより損傷部位を検出する。以下に、図17および図18を参照しながら、第4実施形態に係る損傷検出方法を説明する。第4実施形態は、第1の発明の一実施形態に相当するものである。
5. Regarding Damage Detection Method According to Fourth Embodiment In the fourth embodiment, a damaged portion is detected by performing a series of steps shown in FIG. The damage detection method according to the fourth embodiment will be described below with reference to FIGS. 17 and 18. The fourth embodiment corresponds to an embodiment of the first invention.

第4実施形態に係る屋根10の損傷検出方法が、第2実施形態と異なる点は、構築したフィルタ画像を拡張して他の部分にも適用する点であり、図17に示す寄棟の屋根10等に対して損傷部位を好適に検出するための方法である。本実施形態は、微分処理工程S93と周波数解析工程S94との間に、以下の工程をさらに行うものである。   The damage detection method of the roof 10 according to the fourth embodiment is different from the second embodiment in that the constructed filter image is expanded and applied to other parts, and the roof of the ridge shown in FIG. 10 is a method for suitably detecting a damaged site. The present embodiment further performs the following steps between the differential processing step S93 and the frequency analysis step S94.

具体的には、まず、前処理工程S92で、撮像した屋根10の撮像画像10Bから画像(抽出画像)E1を抽出する。抽出画像E1は、屋根10を構成する4つの屋根面のうち、1つの屋根面内で、矩形状の画像を抽出できる最大範囲の画像である。したがって、屋根面のうち、抽出画像E1と隣接する部分の、三角形状の画像E2は抽出しない。この際、撮像画像10Bの代わりに、画像E2とこれに隣接する画像B2、B2を含む矩形状の画像を抽出し、以下の示す撮像画像の代わりに用いてもよい。   Specifically, first, in the pre-processing step S92, an image (extracted image) E1 is extracted from the captured image 10B of the roof 10 captured. The extraction image E1 is an image of the largest range in which a rectangular image can be extracted within one roof surface among the four roof surfaces constituting the roof 10. Therefore, the triangle-shaped image E2 of the part adjacent to the extraction image E1 among the roof surfaces is not extracted. At this time, instead of the captured image 10B, a rectangular image including the image E2 and the images B2 and B2 adjacent to the image E2 may be extracted and used instead of the captured image shown below.

次に、微分処理工程S93において、抽出した抽出画像E1と撮像画像10Bに対して微分処理を行う。第1の線状部分11に沿った方向のエッジが強調され、第2の線状部分12が消えるような微分処理を行い、第1微分処理画像を算出する。同様に、第2の線状部分12に沿った方向のエッジが強調され、第1の線状部分11が消えるような微分処理を行い、第2微分処理画像を算出する。   Next, differentiation processing is performed on the extracted image E1 and the captured image 10B extracted in the differentiation processing step S93. A differential process is performed such that an edge in a direction along the first linear portion 11 is emphasized and the second linear portion 12 disappears, and a first differentially processed image is calculated. Similarly, a differential process is performed such that the edge in the direction along the second linear portion 12 is emphasized and the first linear portion 11 disappears, and a second differentially processed image is calculated.

次に、線状部分推定工程S161を行う。この工程では、第1および第2微分処理画像のそれぞれに対して、第1および第2の線状部分11、12に沿った直線を推定する。この直線の推定を、直線検出処理工程S141と同様に、ハフ変換(Hough変換)により行う。これにより、格子状に直線が検出される。   Next, a linear portion estimation step S161 is performed. In this step, straight lines along the first and second linear portions 11 and 12 are estimated for each of the first and second differentially processed images. The estimation of the straight line is performed by the Hough transform (Hough transform) as in the straight line detection processing step S141. Thus, straight lines are detected in a lattice.

次に、交点算出工程S162を行う。この工程では、線状部分推定工程S161で推定した直線を用いて、図18(a)の左図に示すように、抽出画像E1の四隅の交点を算出する。抽出した工程は、直線により形成される四角形が最大面積となる場合の4点である。   Next, an intersection point calculation step S162 is performed. In this step, using the straight line estimated in the linear portion estimation step S161, as shown in the left diagram of FIG. 18A, the intersection of the four corners of the extracted image E1 is calculated. The extracted steps are four points in the case where the quadrangle formed by the straight line has the largest area.

次に、補正係数算出工程S163を行う。この工程では、図18(a)の右図に示すように、4点を繋ぐ四角形が長方形になるように(四隅の角度が90°になるように)、射影変換のパラメータ(補正係数)を算出する。   Next, a correction coefficient calculation step S163 is performed. In this process, as shown in the right figure of FIG. 18A, the parameters (correction coefficient) of the projective transformation are set so that the quadrangle connecting four points becomes a rectangle (the angle of the four corners is 90 °). calculate.

次に、必要に応じて、パターン合成工程S164を行う。この工程では、第1および第2微分処理画像を合成する。本実施形態では、合成を行わず、第2の線状部分12に沿った方向のエッジが強調された第2微分処理画像を用いて、以下の工程を行う。   Next, a pattern synthesis step S164 is performed as necessary. In this step, the first and second differentially processed images are combined. In the present embodiment, the following steps are performed using the second differentially processed image in which the edge in the direction along the second linear portion 12 is emphasized without performing synthesis.

次に、領域形状補正工程S165を行う。この工程では、図18(b)の左図から右図となるように、補正係数算出工程S163で算出した射影変換のパラメータ(補正係数)を用いて、射影変換により、第2微分処理画像を補正する。これにより、第2微分処理画像は、屋根10の屋根面の法線方向から撮像し第2微分処理画像に補正される。同様の一連の作業により、微分処理された撮像画像10Bの補正も行う。   Next, an area shape correction step S165 is performed. In this step, as shown in the left and right views of FIG. 18B, the second differentially processed image is projected by projective transformation using the parameter (correction factor) of the projective transformation calculated in the correction coefficient calculation step S163. to correct. Thus, the second differentially-processed image is captured from the normal direction of the roof surface of the roof 10 and corrected to the second differentially-processed image. The differential process of the captured image 10B is also performed by the same series of operations.

次に、領域拡張工程S166を行う。この工程では、図19に示すように、第2微分処理画像に隣接する領域に、第2微分処理画像を複製することで、第2微分処理画像を拡張した拡張画像を作成する。この拡張画像は、フィルタ構築に用いられる画像である。拡張画像を作成する際には、拡張画像の第2の線状部分11のピッチが同じピッチとなるように、第2微分処理画像を複製する。複製は、第2微分処理画像のそのままの複製、または、第2微分処理画像を反転したものを複製のいずれであってもよい。   Next, the region expansion step S166 is performed. In this step, as shown in FIG. 19, the second differentially-processed image is copied in the area adjacent to the second differentially-processed image to create an extended image obtained by extending the second differentially-processed image. This extended image is an image used for filter construction. When creating the expanded image, the second differentially processed image is duplicated such that the pitch of the second linear portions 11 of the expanded image is the same. The duplication may be either a duplicate of the second differentially-processed image or a duplicate of the second differentially-processed image.

次に、作成した拡張画像に対して、周波数解析工程S94と、フィルタ画像構築工程S95を行う。この際に、第3実施形態の直線検出工程S141からフィルタ画像修正工程S143までを行ってもよい。このようにして、フィルタ画像として、拡張画像に対応した拡張フィルタ画像を構築する。なお、本実施形態では、第2微分処理画像により拡張フィルタ画像を構築したが、第1微分処理画像により拡張フィルタ画像を構築してもよく、これらの拡張フィルタ画像を合成してもよい。なお、図17(b)は、この合成により得られた拡張フィルタ画像である。   Next, a frequency analysis step S94 and a filter image construction step S95 are performed on the created expanded image. At this time, the steps from the straight line detection step S141 to the filter image correction step S143 of the third embodiment may be performed. In this way, an extended filter image corresponding to the extended image is constructed as a filtered image. In the present embodiment, the expanded filter image is constructed by the second differentially-processed image. However, the expanded filter image may be constructed by the first differentially-processed image, or these expanded filter images may be synthesized. FIG. 17 (b) is an expanded filter image obtained by this combination.

最後に、損傷部位特定工程S97において、拡張フィルタ画像を、補正した撮像画像に重ね合わせることにより、抽出画像E1に相当する領域およびこれに隣接する領域(画像E2に相当する領域)の屋根10の損傷部位を特定する。   Finally, in the damaged part specifying step S97, the expansion filter image is superimposed on the corrected captured image to form an area corresponding to the extracted image E1 and an area adjacent to the area (an area corresponding to the image E2). Identify the site of injury.

第4実施形態では、新たなフィルタ画像を構築することなく、拡張フィルタ画像により、抽出画像を抽出した領域およびこれに隣接する領域の損傷部位をより簡単に特定することができる。ここで、図17(a)に示すように、抽出画像E1が矩形状であり、これに隣接する画像が、矩形状とは異なる形状(具体的には三角形状)で抽出した画像と同じ間隔で第1および第2の線状部分11、12を含む場合には、隣接する領域を含めて長方形状のフィルタ画像を構築すると、屋根10の損傷部位の特定の精度が低下することがある。しかしながら、本実施形態では、検出精度の高い部位の画像を拡張して拡張フィルタ画像を作成したので、第1および第2の線状部分12が形成された矩形状とは異なる形状の領域(三角形状の画像E2)に対して、その領域の屋根10の損傷部位をより正確に特定することができる。   In the fourth embodiment, it is possible to more easily identify the damaged area of the area from which the extracted image is extracted and the area adjacent thereto by the expansion filter image without constructing a new filter image. Here, as shown in FIG. 17A, the extracted image E1 has a rectangular shape, and an image adjacent thereto has the same interval as an image extracted in a shape different from the rectangular shape (specifically, a triangular shape). In the case where the first and second linear portions 11 and 12 are included, constructing a rectangular-shaped filter image including adjacent areas may reduce the accuracy of identifying the damaged site of the roof 10. However, in the present embodiment, since the image of the portion with high detection accuracy is expanded to create the expanded filter image, a region having a shape different from the rectangular shape in which the first and second linear portions 12 are formed (triangular For the image E2) of the shape, the damaged part of the roof 10 in the area can be identified more accurately.

さらに、領域形状補正工程S165において、屋根10の屋根面の法線方向(屋根10の屋根面の正面)から撮像したように、第2微分処理画像と、微分処理を行った撮像画像とを、予め補正した。これらの補正後の画像を用いて一連の工程を行うことにより、屋根10の損傷部位を特定するので、撮像条件により生じる遠近による画像のゆがみを補正できるため、屋根10の損傷部位の誤検出を回避することができる。   Furthermore, in the region shape correction step S165, as imaged from the normal direction of the roof surface of the roof 10 (the front of the roof surface of the roof 10), the second differentially processed image and the imaged image subjected to differential processing are It corrected beforehand. By performing a series of steps using these corrected images, the damaged area of the roof 10 is identified, so that distortion of the image due to perspective caused by the imaging conditions can be corrected, so that erroneous detection of the damaged area of the roof 10 can be made. It can be avoided.

なお、第4実施形態では、フィルタ画像を構築する前に、抽出画像を複製することにより、拡張フィルタ画像を作成したが、たとえば、フィルタ画像を構築した後、このフィルタ画像を複製して拡張した拡張フィルタ画像を構築してもよい。   In the fourth embodiment, the extension filter image is created by copying the extraction image before constructing the filter image, but for example, after the filter image is constructed, the filter image is duplicated and expanded. An extended filter image may be constructed.

以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。たとえば、本実施形態では、外装材として、屋根を例示したが、たとえば、その外装材が、建物の外壁材、舗装された道路であってもよい。   As mentioned above, although the embodiment of the present invention was explained in full detail, the present invention is not limited to the above-mentioned embodiment, and various design is possible in the range which does not deviate from the spirit of the present invention described in the claim. It is possible to make changes. For example, in the present embodiment, the roof is exemplified as the exterior material, but the exterior material may be, for example, an outer wall material of a building or a paved road.

さらに、本実施形態では、第1の発明と第2の発明とを、撮像した画像の異なる領域に対して個別に実施したが、たとえば、撮影した画像の同じ領域に対して、図2で説明した一連の工程を行った後、図9で説明した一連の工程を行う、または、図9で説明した一連の工程を行った後、図2で説明した一連の工程を行ってもよい。これにより、外装材の損傷部位をより正確に特定することができる。   Furthermore, in the present embodiment, the first invention and the second invention are individually implemented for different areas of the captured image, but for example, the same area of the captured image is described with reference to FIG. After performing the series of processes described above, the series of processes described in FIG. 9 may be performed, or after the series of processes described in FIG. 9 may be performed, the series of processes described in FIG. This makes it possible to more accurately identify the damaged site of the exterior material.

1:建物、5:無人航空機(UAV)、6:撮像装置、7:処理装置、10:屋根(外装材)、11:第1の線状部分、12:第2の線状部分、13:損傷部位、S21,S91:撮像工程、S23,S93:微分処理工程、S24,S94:周波数解析工程、S25:第1の線状部分除去工程、S26,S97:損傷部位特定工程、S95:フィルタ画像構築工程、S96:第2の線状部分除去工程、S141:直線検出工程、S165:領域形状補正工程、S166:領域拡張工程、A1〜A6,B1〜B6,E1,E2:画像
1: Building, 5: Unmanned Aerial Vehicle (UAV), 6: Imaging device, 7: Processing device, 10: Roof (exterior material), 11: first linear portion, 12: second linear portion, 13: Damaged part, S21, S91: imaging step, S23, S93: differentiation processing step, S24, S94: frequency analysis step, S25: first linear portion removal step, S26, S97: damaged part identification step, S95: filter image Construction process, S96: second linear portion removal process, S141: straight line detection process, S165: area shape correction process, S166: area expansion process, A1 to A6, B1 to B6, E1, E2: image

Claims (9)

等間隔に配向された複数の線状部分を有した外装材の損傷部位を検出する損傷検出方法であって、
前記外装材を撮像する工程と、
撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、前記線状部分に沿った方向のエッジが強調されるように、微分処理を行う工程と、
前記微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、前記線状部分と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、前記色数値の周波数解析を行い、前記交差する方向に沿った前記色数値の変化の周期と位相を算出する工程と、
前記ピクセル群ごとの前記周期と前記位相に基づいて、逆フーリエ変換を行うことにより、前記微分処理を行った画像に応じたフィルタ画像を構築する工程と、
前記フィルタ画像を、前記微分処理を行った画像に重ね合わせることにより、前記外装材の損傷部位を特定する工程と、を備えることを特徴とする外装材の損傷検出方法。
What is claimed is:
Imaging the exterior material;
Performing a differential process on the captured image so as to convert the image into gray scale so that an edge in a direction along the linear portion is emphasized in the image converted into the gray scale;
Pixels arranged in a direction intersecting with the linear portion in a numerical color value digitized according to a change in color from black to white for the image subjected to the differential processing Performing a frequency analysis of the color values by performing Fourier transform on the color values of the group, and calculating a period and a phase of change of the color values along the intersecting direction;
Constructing a filter image according to the image subjected to the differential processing by performing inverse Fourier transform based on the period and the phase for each pixel group;
And d. Identifying the damaged portion of the outer covering material by superimposing the filter image on the image subjected to the differential processing.
前記線状部分は、等間隔に配向された複数の第1の線状部分と、隣接する第1の線状部分の間に、前記各第1の線状部同士を繋ぐように、等間隔に複数の第2の線状部分と、を有しており、前記第1の線状部分に沿って配列された複数の第2の線状部分の群と、これに隣接する複数の第2の線状部分の群とは、前記第1の線状部分に沿った方向にオフセットして千鳥状に配置されており、
前記微分処理を行う工程において、前記グレースケールに変換した画像に対して、前記第1および第2の線状部分のうちいずれか一方の線状部分に沿った方向のエッジが強調され、他方の線状部分が画像から消えるように、微分処理を行い、
前記色数値の変化の周期と位相を算出する工程において、前記他方の線状部分に沿った前記色数値の変化の周期と位相を算出することを特徴とする請求項1に記載の外装材の損傷検出方法。
The linear portions are equally spaced so as to connect the respective first linear portions between a plurality of first linear portions oriented at equal intervals and an adjacent first linear portion. A plurality of second linear portions, and a group of a plurality of second linear portions arranged along the first linear portion, and a plurality of second portions adjacent thereto Groups of linear portions are arranged in a staggered manner offset in a direction along the first linear portion,
In the step of performing the differential processing, an edge in a direction along one of the first and second linear portions is emphasized in the image converted into the gray scale, and the other is Perform differentiation processing so that the linear part disappears from the image,
2. The package according to claim 1, wherein, in the step of calculating the period and the phase of the change of the color value, the period and the phase of the change of the color value along the other linear portion are calculated. Damage detection method.
撮像した前記外装材の画像に対して、前記一方の線状部分に沿った直線をハフ変換により検出し、検出した前記直線からなる画像を作成する工程と、
前記検出した直線の画像に基づいて、前記構築されたフィルタ画像を修正する工程と、をさらに含むことを特徴とする請求項2に記載の外装材の損傷検出方法。
Detecting a straight line along the one of the linear portions of the captured image of the exterior material by Hough transformation, and creating an image composed of the detected straight line;
3. The method according to claim 2, further comprising the step of: correcting the constructed filter image based on the detected straight line image.
前記微分処理を行う工程の前に、撮像した前記外装材の撮像画像から画像を抽出し、
前記微分処理を行う工程において、抽出した抽出画像と前記撮像画像に対して前記微分処理を行い、
前記微分処理を行った抽出画像に隣接する領域に、前記微分処理を行った抽出画像を複製することで、前記抽出画像を拡張した拡張画像を作成し、
作成した前記拡張画像に対して、前記色数値の変化の周期と位相を算出する工程と前記フィルタ画像を構築する工程とを行って、前記フィルタ画像として、前記拡張画像に対応した拡張フィルタ画像を構築し、
前記外装材の損傷部位を特定する工程において、前記拡張フィルタ画像を、前記微分処理を行った撮像画像に重ね合わせることにより、前記抽出画像を抽出した領域およびこれに隣接する領域の前記外装材の損傷部位を特定することを特徴とする請求項1〜3のいずれか一項に記載の外装材の損傷検出方法。
Before the step of performing the differential processing, an image is extracted from a captured image of the captured exterior material,
Performing the differentiation process on the extracted image extracted and the captured image in the step of performing the differentiation process;
By extracting the extracted image subjected to the differentiation process in a region adjacent to the extracted image subjected to the differentiation process, an extended image obtained by extending the extracted image is created.
The step of calculating the change period and phase of the color value and the step of constructing the filter image are performed on the generated extended image, and the expanded filter image corresponding to the expanded image is processed as the filter image. Build
In the step of identifying the damaged portion of the outer covering material, the extended filter image is superimposed on the captured image subjected to the differentiation processing to obtain an area from which the extracted image is extracted and the outer covering material in an area adjacent thereto. The damage detection method of the exterior material as described in any one of Claims 1-3 characterized by identifying a damage site | part.
前記微分処理を行った後、かつ、前記拡張画像を作成する前に、前記微分処理を行った抽出画像と、前記微分処理を行った撮像画像とを、前記外装材の表面の法線方向から撮像し、前記微分処理を行った画像となるように補正し、
補正した前記抽出画像から前記拡張フィルタ画像を構築し、
前記拡張フィルタ画像を、補正した前記撮像画像に重ね合わせることにより、前記抽出画像を抽出した領域およびこれに隣接する領域の前記外装材の損傷部位を特定することを特徴とする請求項4に記載の外装材の損傷検出方法。
After performing the differentiation process and before creating the expanded image, the extracted image subjected to the differentiation process and the captured image subjected to the differentiation process are viewed from the normal direction of the surface of the exterior material Correct the image so as to be an image that has been imaged and subjected to the differential processing,
Constructing the expanded filter image from the corrected extracted image;
The damaged region of the exterior material in the area where the extracted image is extracted and the area adjacent thereto is identified by superimposing the expanded filter image on the corrected captured image. How to detect damage to exterior packaging materials.
等間隔に配向された複数の線状部分を有した外装材の損傷部位を検出する損傷検出方法であって、
前記外装材を撮像する工程と、
撮像した画像をグレースケールに変換し、前記グレースケールに変換した画像に対して、前記線状部分に沿った方向のエッジが強調されるように、微分処理を行う工程と、
前記微分処理を行った画像に対して、ピクセルごとに、黒色から白色の色の変化に応じて、数値化された色数値において、前記線状部分と交差する方向に沿って配列されているピクセル群の色数値に対して、フーリエ変換を行うことにより、前記色数値の周波数解析を行い、前記交差する方向に沿った前記色数値の変化の周期と位相を算出する工程と、
前記周期と前記位相に基づいて、前記線状部分の出現パターンを推定し、前記出現パターンに基づいて、前記微分処理を行った画像に対して、前記線状部分を前記画像から除去する工程と、
前記線状部分を除去した画像から、前記外装材の損傷部位を特定する工程と、を備えることを特徴とする外装材の損傷検出方法。
What is claimed is:
Imaging the exterior material;
Performing a differential process on the captured image so as to convert the image into gray scale so that an edge in a direction along the linear portion is emphasized in the image converted into the gray scale;
Pixels arranged in a direction intersecting with the linear portion in a numerical color value digitized according to a change in color from black to white for the image subjected to the differential processing Performing a frequency analysis of the color values by performing Fourier transform on the color values of the group, and calculating a period and a phase of change of the color values along the intersecting direction;
A step of estimating an appearance pattern of the linear portion based on the period and the phase, and removing the linear portion from the image with respect to the image subjected to the differential processing based on the appearance pattern; ,
And d. Identifying the damaged portion of the sheathing material from the image from which the linear portion has been removed.
前記損傷部位を特定する工程において、前記除去する工程で得られた画像を、前記撮像する工程において撮像した画像に重ね合わせることにより、前記損傷部位を特定することを特徴とする請求項6に記載の外装材の損傷検出方法。   In the step of identifying the damaged site, the damaged site is identified by superimposing the image obtained in the removing step on the image captured in the imaging step. How to detect damage to exterior packaging materials. 前記外装材は、スレート瓦が敷設された建物の屋根であることを特徴とする請求項1〜7のいずれか一項に記載の外装材の損傷検出方法。   The said exterior material is a roof of the building in which the slate tile was laid, The damage detection method of the exterior material as described in any one of Claims 1-7 characterized by the above-mentioned. 前記外装材の撮像を、撮像装置を搭載した無人航空機から行うことを特徴とする請求項1〜8のいずれか一項に記載の外装材の損傷検出方法。   The damage detection method of the exterior material as described in any one of Claims 1-8 which image-captures the said exterior material from an unmanned aerial vehicle carrying an imaging device.
JP2018240856A 2017-12-28 2018-12-25 Method for detecting damage to exterior materials Active JP7148387B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017253241 2017-12-28
JP2017253241 2017-12-28

Publications (2)

Publication Number Publication Date
JP2019120693A true JP2019120693A (en) 2019-07-22
JP7148387B2 JP7148387B2 (en) 2022-10-05

Family

ID=67307829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240856A Active JP7148387B2 (en) 2017-12-28 2018-12-25 Method for detecting damage to exterior materials

Country Status (1)

Country Link
JP (1) JP7148387B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039653A (en) * 2019-09-05 2021-03-11 富士フイルム株式会社 Image processing device, image processing system, image processing method and program
CN113284325A (en) * 2021-04-19 2021-08-20 深圳市伟昊净化设备有限公司 Compressed gas filters safety precaution device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264054A (en) * 2003-02-12 2004-09-24 Hitachi Ltd Flaw inspection device and method for using it
JP2011179874A (en) * 2010-02-26 2011-09-15 East Nippon Expressway Co Ltd Method for extracting surface cracks of paved road and evaluating surface damage level of paved road
JP2011232110A (en) * 2010-04-26 2011-11-17 Olympus Corp Inspection device and defect detection method using inspection device
JP2014196926A (en) * 2013-03-29 2014-10-16 大和ハウス工業株式会社 Method and apparatus for assessing deterioration of exterior material
US20170352099A1 (en) * 2016-06-03 2017-12-07 Conduent Business Services, Llc Image analysis system for verification of property roof damage
JP2018136284A (en) * 2017-02-24 2018-08-30 名古屋電機工業株式会社 Bonding state inspection device, bonding state inspection method, and bonding state inspection program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264054A (en) * 2003-02-12 2004-09-24 Hitachi Ltd Flaw inspection device and method for using it
JP2011179874A (en) * 2010-02-26 2011-09-15 East Nippon Expressway Co Ltd Method for extracting surface cracks of paved road and evaluating surface damage level of paved road
JP2011232110A (en) * 2010-04-26 2011-11-17 Olympus Corp Inspection device and defect detection method using inspection device
JP2014196926A (en) * 2013-03-29 2014-10-16 大和ハウス工業株式会社 Method and apparatus for assessing deterioration of exterior material
US20170352099A1 (en) * 2016-06-03 2017-12-07 Conduent Business Services, Llc Image analysis system for verification of property roof damage
JP2018136284A (en) * 2017-02-24 2018-08-30 名古屋電機工業株式会社 Bonding state inspection device, bonding state inspection method, and bonding state inspection program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039653A (en) * 2019-09-05 2021-03-11 富士フイルム株式会社 Image processing device, image processing system, image processing method and program
JP7299113B2 (en) 2019-09-05 2023-06-27 富士フイルム株式会社 Image processing device, image processing system, image processing method and program
JP7482268B2 (en) 2019-09-05 2024-05-13 富士フイルム株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
CN113284325A (en) * 2021-04-19 2021-08-20 深圳市伟昊净化设备有限公司 Compressed gas filters safety precaution device

Also Published As

Publication number Publication date
JP7148387B2 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
JP6620477B2 (en) Method and program for detecting cracks in concrete
JP5936239B2 (en) Road surface degradation degree estimation method and algorithm (crack detection method using Gabor filter output image of multi-resolution image)
US10942130B2 (en) Damage information processing device and damage information processing method
JP7191823B2 (en) Image processing device, image processing method and program for detecting deformation from image
JP6823486B2 (en) Crack detection method
JP2011179874A (en) Method for extracting surface cracks of paved road and evaluating surface damage level of paved road
JP5894012B2 (en) Method for detecting linear deformation on concrete surface
JP7148387B2 (en) Method for detecting damage to exterior materials
US20220136979A1 (en) Information processing apparatus, information processing method, and non- transitory computer-readable storage medium
WO2019150799A1 (en) Repair length determination method and repair length determination device
JP2020038132A (en) Crack on concrete surface specification method, crack specification device, and crack specification system, and program
Rivera et al. Automated detection and measurement of cracks in reinforced concrete components
US11087486B2 (en) Lane specification method and lane specification device
JP7008409B2 (en) Crack detection method
JP2013002839A (en) Crack detection method
JP6980208B2 (en) Structure maintenance work support system
JP5017507B1 (en) Image processing method, image processing apparatus, building image diagnosis method, and building image diagnosis apparatus
US10935375B2 (en) Portable 3D document scanning device and method
JP2019102031A (en) Method, device and system for identifying crack direction on concrete surface, and program
Loverdos et al. Image2DEM: A geometrical digital twin generator for the detailed structural analysis of existing masonry infrastructure stock
JP5157575B2 (en) Defect detection method
WO2021199830A1 (en) Inspection support device, method, and program
CN102385702A (en) Method for removing notches from pavement image
JP6897448B2 (en) Line width estimation programs, devices, and methods
JP2022062915A (en) Information processor, method for processing information, and program

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20190129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150