JP6516384B2 - INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM Download PDF

Info

Publication number
JP6516384B2
JP6516384B2 JP2017182452A JP2017182452A JP6516384B2 JP 6516384 B2 JP6516384 B2 JP 6516384B2 JP 2017182452 A JP2017182452 A JP 2017182452A JP 2017182452 A JP2017182452 A JP 2017182452A JP 6516384 B2 JP6516384 B2 JP 6516384B2
Authority
JP
Japan
Prior art keywords
image
road surface
inspection
damage
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017182452A
Other languages
Japanese (ja)
Other versions
JP2019057221A (en
Inventor
美濃越 亮太
亮太 美濃越
吉田 和史
和史 吉田
中村 隆幸
隆幸 中村
雅稔 井藤
雅稔 井藤
Original Assignee
エヌ・ティ・ティ・コムウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コムウェア株式会社 filed Critical エヌ・ティ・ティ・コムウェア株式会社
Priority to JP2017182452A priority Critical patent/JP6516384B2/en
Publication of JP2019057221A publication Critical patent/JP2019057221A/en
Application granted granted Critical
Publication of JP6516384B2 publication Critical patent/JP6516384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, an information processing method, and an information processing program.

道路、橋梁、施設等の老朽化に伴い、建造物のメンテナンスを効率的に実施することが求められている。建造物のメンテナンスの実施には、建造物の損傷を発見する必要があるが、損傷の目視による確認においては定量的な評価や網羅的な解析が困難である。そのため、機械による自動検出が求められている。特許文献1は、例えば、車載カメラで、日向ができた路面の路面画像、日影ができた路面の路面画像を、それぞれ前後左右の画像中の一部の領域が重複するように撮影し、台形補正、重複した領域の一致度の算出等を行うことで路面画像を接合処理するものである。   With the aging of roads, bridges, and facilities, efficient maintenance of buildings is required. To carry out the maintenance of a structure, it is necessary to detect the damage of the structure, but in the visual confirmation of the damage, it is difficult to quantitatively evaluate and comprehensively analyze. Therefore, automatic detection by a machine is required. In Patent Document 1, for example, an on-vehicle camera shoots a road surface image of a road surface on which the sun shines, and a road surface image of a road surface on which the shadow appears, so that partial regions in the front, rear, left and right images overlap. The road surface image is subjected to joint processing by performing trapezoidal correction, calculation of the degree of coincidence of overlapping regions, and the like.

特開2011−90367号公報JP, 2011-90367, A

しかしながら、特許文献1の技術を用いて接合処理された画像をそのまま解析すると、解析に要する負荷が大きくなる。また、このような接合処理された画像だけでは建造物の損傷の自動検出ができず、建造物の損傷の定量的な評価や網羅的な解析もできなかった。このように、建造物の損傷の自動検出の際の利便性が十分でないという課題があった。   However, if the image subjected to the bonding process using the technique of Patent Document 1 is analyzed as it is, the load required for the analysis becomes large. In addition, it was not possible to automatically detect the damage of the building only by such a bonded image, and it was not possible to quantitatively evaluate or comprehensively analyze the damage of the building. As described above, there is a problem that the convenience at the time of automatic detection of damage to a building is not sufficient.

本発明の一態様は、上述の課題を鑑みてなされたものであり、建造物の損傷の自動検出の際の利便性を向上させることができる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供することを目的の一つとする。   One aspect of the present invention is made in view of the above-mentioned subject, and an information processing device, an information processing system, an information processing method, and an information processing method capable of improving convenience at the time of automatic detection of damage of a building. One purpose is to provide a program.

(1)本発明は、上述した課題を解決するためになされたもので、本発明の一態様は、撮像装置で撮影された面を含む領域の画像を取得する画像取得部と、複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定部と、前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出部と、を備え、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、情報処理装置である。 (1) The present invention has been made to solve the problems described above, and one aspect of the present invention provides an image acquisition unit that acquires an image of a region including a surface captured by an imaging device, and a plurality of images Is selected, the selected inter-image distance is compared with a predetermined set distance, and if the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, and the inter-image distance is A road surface which is not set as an inspection image candidate when the distance is smaller than the set distance, and which is based on an image extracting unit and position information corresponding to the inspection image candidate, among images of a plurality of road surfaces The inspection image is extracted from the inspection image candidates extracted by the image extraction unit so that at least a part of the area of the road surface in the image of the road and the area of the road surface in the image of the other road overlap. An extraction unit and the overlapping area extraction unit For each of has been examined images, and the check state determining state determination unit of the surface of the image, for each of the test image, on the basis of the state of the surface in the inspection image, the surface in the inspection images A calculation unit for calculating the degree of damage , wherein the predetermined set distance is set larger as the road surface damage recognition accuracy in one inspection image is higher , thereby reducing duplication of the road surface shown in each inspection image; The information processing apparatus is configured to be set smaller as the recognition accuracy of the road surface damage in one inspection image is lower, thereby increasing the number of road surface duplications included in each inspection image .

)また、本発明の一態様は、上記に記載の情報処理装置であって、前記部分画像中の面の損傷度合に応じて、複数の段階のいずれであるかを分類する分類判定部をさらに備える。 ( 2 ) Further, one aspect of the present invention is the information processing apparatus described above, wherein the classification determination unit classifies any one of a plurality of stages according to the degree of damage to the surface in the partial image. Further comprising

)また、本発明の一態様は、上記に記載の情報処理装置であって、前記部分画像生成部は、前記画像取得部が取得した前記画像内において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する。 ( 3 ) Further, one aspect of the present invention is the information processing apparatus described above, wherein the partial image generation unit divides and divides the image in the image acquired by the image acquisition unit. Generating a first partial image and a second partial image including vertexes or side portions of the first partial image.

)また、本発明の一態様は、上記に記載の情報処理装置であって、前記部分画像生成部は、前記画像取得部が取得した前記画像間において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する。 ( 4 ) Further, according to an aspect of the present invention, in the information processing apparatus described above, the partial image generation unit divides and divides the image between the images acquired by the image acquisition unit. Generating a first partial image and a second partial image including vertexes or side portions of the first partial image.

)また、本発明の一態様は、上記に記載の情報処理装置であって、前記算出部は、前記画像取得部が取得した連続する複数の前記画像の各々について、それぞれの前記画像中の面の損傷度合を算出する。 ( 5 ) Further, according to an aspect of the present invention, in the information processing apparatus described above, the calculation unit is configured to calculate, for each of the plurality of continuous images acquired by the image acquiring unit, the respective images. Calculate the degree of damage to the surface of the

)また、本発明の一態様は、上記に記載の情報処理装置であって、それぞれの前記画像中の面の状態を判定する状態判定部、をさらに備え、前記算出部は、それぞれの前記画像中の面の状態に基づいて、それぞれの前記画像中の面の損傷度合を算出する。 ( 6 ) Further, one aspect of the present invention is the information processing apparatus described above, further comprising: a state determination unit that determines a state of a surface in each of the images, wherein the calculation unit Based on the state of the surface in the image, the degree of damage to the surface in the image is calculated.

)また、本発明の一態様は、上記に記載の情報処理装置であって、それぞれの前記画像中の面の損傷度合に応じて、複数の段階のいずれであるかを分類する分類判定部をさらに備える。 ( 7 ) Further, one aspect of the present invention is the information processing apparatus described above, wherein classification determination is performed to classify any one of a plurality of stages according to the degree of damage to the surface in each of the images. It further comprises a department.

)また、本発明の一態様は、上記に記載の情報処理装置であって、前記画像取得部が取得した連続する複数の前記画像間において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する。 ( 8 ) Moreover, 1 aspect of this invention is an information processing apparatus as described above, Comprising: The said 1st divided | segmented said image among the continuous said several images which the said image acquisition part acquired, The divided 1st Generating a partial image and a second partial image including vertexes or sides of the first partial image;

)また、本発明の一態様は、撮像装置で撮影された面を含む領域の画像を取得する画像取得部と、
複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定部と、前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出部と、を備え、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、情報処理システムである。
( 9 ) Further, according to an aspect of the present invention, there is provided an image acquisition unit that acquires an image of a region including a surface captured by an imaging device;
A plurality of images are selected, the selected inter-image distance is compared with a predetermined set distance, and when the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, When the inter-distance is smaller than the set distance, the selected image is not set as the inspection image candidate. Based on the image extraction unit and the position information corresponding to the inspection image candidate, among the images of the plurality of road surfaces The inspection image is extracted from among the inspection image candidates extracted by the image extraction unit so that at least a part of the area of the road surface in the image of a certain road surface and the area of the road surface in the image of another road surface overlap Overlap region extraction unit, a state determination unit that determines the state of the surface in the inspection image for each of the inspection images extracted by the overlap region extraction unit, and the inspection image for each of the inspection images based on the state of the surface , And a calculation unit for calculating a degree of damage of the surface in the inspection image, the predetermined setting distance, by recognition accuracy of the road surface damage in one test image is set higher large, each test image The present invention is an information processing system that reduces duplication of a road surface to be photographed and is set smaller as recognition accuracy of road surface damage in one inspection image is lower, thereby increasing duplication of a road surface to be photographed in each inspection image .

(12)また、本発明の一態様は、情報処理装置のコンピュータが、撮像装置で撮像された面を含む領域の画像を取得する画像取得過程と、複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出過程にて抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、前記重複領域抽出過程にて抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定過程と、前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出過程と、を有し、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、情報処理方法である。 (12) Further, according to an aspect of the present invention, the computer of the information processing apparatus selects and selects a plurality of images, and an image acquisition process of acquiring an image of a region including a plane imaged by the imaging apparatus . The inter-image distance is compared with a predetermined set distance, and when the inter-image distance is large compared to the set distance, the image being selected is set as the inspection image candidate, and the inter-image distance is small relative to the set distance The image selection process does not set the image being selected as the inspection image candidate, and the area of the road surface in the image of the road surface among the images of the plurality of road surfaces based on the position information corresponding to the inspection image candidate An overlap area extraction process of extracting an inspection image from the inspection image candidates extracted in the image extraction process so that at least a part of the road surface area in the image of another road surface overlaps; Extracted in the extraction process For each test image, and a state determining state determination process of surface in the inspection image, for each of the test image, on the basis of the state of the surface in the inspection image, damage degree of the surface in the inspection images Calculation step of calculating the predetermined set distance is set larger as the recognition accuracy of the road surface damage in one inspection image is higher , thereby reducing the overlapping of the road surface shown in each inspection image, 1 This is an information processing method in which the overlapping of the road surface shown in each inspection image is increased by being set smaller as the recognition accuracy of the road surface damage in one inspection image is lower .

(13)また、本発明の一態様は、情報処理装置のコンピュータ、撮像装置で撮像された面を含む領域の画像を取得する画像取得過程と、複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出過程にて抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、前記重複領域抽出過程にて抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定過程と、前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出過程と、実行させるためのプログラムであり、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、プログラムである。 (13) Further, according to an aspect of the present invention, in the computer of the information processing apparatus, an image acquisition process of acquiring an image of an area including a surface imaged by the imaging apparatus and a plurality of images are selected and selected. The inter-image distance is compared with a predetermined set distance, and when the inter-image distance is large compared to the set distance, the image being selected is set as the inspection image candidate, and the inter-image distance is small relative to the set distance The image selection process does not set the image being selected as the inspection image candidate, and the area of the road surface in the image of the road surface among the images of the plurality of road surfaces based on the position information corresponding to the inspection image candidate An overlap area extraction process of extracting an inspection image from the inspection image candidates extracted in the image extraction process so that at least a part of the road surface area in the image of another road surface overlaps; Extracted in the extraction process For each test image, and a state determining state determination process of surface in the inspection image, for each of the test image, on the basis of the state of the surface in the inspection image, damage degree of the surface in the inspection images Calculation process for calculating the road surface and a program for executing the process , wherein the predetermined set distance is set larger as the recognition accuracy of the road surface damage in one inspection image is higher, thereby overlapping the road surface shown in each inspection image The program is configured to reduce the road surface damage in each inspection image by setting the smaller the lower the road surface damage recognition accuracy in one inspection image, the lower the road surface damage recognition accuracy .

本発明によれば、建造物の損傷の自動検出の際の利便性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the convenience in the case of the automatic detection of the damage of a building can be improved.

本発明の第1の実施形態に係る情報処理システムの構成の一例を示す概略図である。It is a schematic diagram showing an example of composition of an information processing system concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る路面の画像の一例を示す説明図である。It is an explanatory view showing an example of a road surface image concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。It is explanatory drawing which shows another example of the image of the road surface which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。It is explanatory drawing which shows another example of the image of the road surface which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。It is explanatory drawing which shows another example of the image of the road surface which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。It is explanatory drawing which shows another example of the image of the road surface which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the damage degree which concerns on the 1st Embodiment of this invention. 第2の実施形態に係る情報処理装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram showing an example of composition of an information processor concerning a 2nd embodiment. 本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the damage degree which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the damage degree which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る情報処理装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram showing an example of composition of an information processor concerning a 3rd embodiment of the present invention. 本発明の第3の実施形態に係る損傷度合算出処理の一例を示すフローチャートである。It is a flow chart which shows an example of damage degree calculation processing concerning a 3rd embodiment of the present invention. 本発明の第3の実施形態に係る損傷度合算出処理の一例を示すフローチャートである。It is a flow chart which shows an example of damage degree calculation processing concerning a 3rd embodiment of the present invention. 本発明の第4の実施形態に係る路面の損傷種別の一例を示す図である。It is a figure which shows an example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。It is a figure which shows another example of the damage classification of the road surface which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る情報処理装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the information processing apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る損傷種別判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the damage classification determination processing which concerns on the 4th Embodiment of this invention.

以下、本発明の各実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態に係る情報処理システムsysの構成の一例を示す概略図である。
情報処理システムsysは、少なくとも情報処理装置1を含んで構成される。情報処理システムsysは、建造物の表面の状態を解析するシステムである。以下では、一例として、情報処理システムsysが建造物の表面の損傷を解析する場合について説明する。
建造物は、例えば、道路、橋梁、施設等であり、社会インフラも含まれる。また、表面は、建造物の外部表面又は内部表面である。つまり、建造物の表面とは、例えば、道路の路面や橋梁、施設の上面、側面、下面である。損傷とは、物理的な凹凸、色彩の変化、亀裂や破損等である。以下の説明では、一例として路面の損傷を評価、解析する場合について説明するが、これに限られず、各種建造物の損傷の評価、解析にも適用可能である。
First Embodiment
FIG. 1 is a schematic view showing an example of the configuration of an information processing system sys according to the first embodiment of the present invention.
The information processing system sys is configured to include at least the information processing device 1. The information processing system sys is a system that analyzes the state of the surface of a building. Below, as an example, the case where the information processing system sys analyzes the damage of the surface of a building is explained.
The structures are, for example, roads, bridges, facilities, etc., and also include social infrastructure. Also, the surface is the outer surface or the inner surface of a building. That is, the surface of a building is, for example, the road surface or bridge of a road, the upper surface, the side surface, or the lower surface of a facility. The damage is physical unevenness, change in color, cracking or breakage. In the following description, although the case of evaluating and analyzing road surface damage is described as an example, the present invention is not limited to this, and is applicable to evaluation and analysis of damage of various buildings.

路面の損傷は、例えば路面の轍掘れ、ポットホール、ひび割れ(クラックとも称する))、段差、施工継目などが含まれる。ひび割れには、線状ひび割れ、面状ひび割れが含まれる。線状ひび割れは、縦断ひび割れ、横断ひび割れ等が含まれる。面状ひび割れには、亀甲状ひび割れなどが含まれる。   Damage to the road surface includes, for example, pitting of the road surface, pot holes, cracks (also referred to as cracks), steps, construction seams and the like. Cracks include linear cracks and planar cracks. The linear cracks include longitudinal cracks, transverse cracks and the like. The planar cracks include turtle crack and the like.

情報処理システムsysにおいて、情報処理装置1は、1または複数の路面の画像Pを取得する。路面の画像Pは、情報処理システムsysに撮像装置が含まれる場合に、該撮像装置で撮像して取得してもよいし、定点カメラ、ユーザの手持ちのカメラ、車載カメラ等で撮影された路面の画像Pを、ネットワークまたは入力インタフェースを介して取得してもよい。   In the information processing system sys, the information processing device 1 acquires an image P of one or more road surfaces. The image P of the road surface may be captured and acquired by the imaging device when the information processing system sys includes an imaging device, or the road surface captured by a fixed point camera, a user's hand-held camera, an on-vehicle camera, etc. The image P of may be acquired via a network or an input interface.

情報処理装置1は、取得した路面の画像に基づいて、画像中の路面の損傷度合を算出する。   The information processing device 1 calculates the degree of damage to the road surface in the image based on the acquired image of the road surface.

図2は、本発明の第1の実施形態に係る路面の画像の一例を示す説明図である。図3は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図4は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図5は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図6は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。
図2に示す路面の画像P1は、轍D1の例である。図3に示す路面の画像P2は、ポットホールD2の例である。図4に示す路面の画像P3は、ひび割れD3の例である。図5に示す路面の画像P4は、段差D4の例である。図6に示す路面の画像P5は、パッチングD5の例である。情報処理装置1は、図2から図6に図示する例の他、上述した各種の路面の損傷度合を評価、解析する。
FIG. 2 is an explanatory view showing an example of an image of a road surface according to the first embodiment of the present invention. FIG. 3 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention. FIG. 4 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention. FIG. 5 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention. FIG. 6 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention.
The image P1 of the road surface shown in FIG. 2 is an example of the ridge D1. The image P2 of the road surface shown in FIG. 3 is an example of the pothole D2. The image P3 of the road surface shown in FIG. 4 is an example of the crack D3. The image P4 of the road surface shown in FIG. 5 is an example of the step D4. The image P5 of the road surface shown in FIG. 6 is an example of the patching D5. The information processing apparatus 1 evaluates and analyzes the degree of damage to the various road surfaces described above, in addition to the examples illustrated in FIGS. 2 to 6.

次に、情報処理システムsysを用いた路面の損傷の解析の概要を説明する。   Next, an outline of analysis of road surface damage using the information processing system sys will be described.

まず、ユーザは、路面の画像を撮影する。路面の画像は、例えば、車載カメラで撮影された画像、路面や路肩を移動しながら撮影された画像等の移動体により撮影された画像や定点カメラで撮影された画像など、路面が含まれる画像であればいかなる撮影方法で撮影されたものであってもよい。画像は、静止画像に限られず動画像であってもよい。移動体は、例えば、車両、人、飛行体、無人撮影機器、動物などである。例えば、車載カメラで撮影する場合や、ユーザが路面や路肩を移動しながら撮影する場合は、車両やユーザの移動に応じて路面を適宜撮影する。   First, the user captures an image of the road surface. The image of the road surface is an image including the road surface, such as an image taken by a vehicle, an image taken by a moving object such as an image taken while moving the road surface and a road shoulder, and an image taken by a fixed point camera As long as it is, it may be photographed by any photographing method. The image is not limited to a still image, and may be a moving image. The moving object is, for example, a vehicle, a person, an aircraft, an unmanned photographing device, an animal or the like. For example, when photographing with a vehicle-mounted camera or when photographing while moving the road surface or the road shoulder, the user appropriately photographs the road surface according to the movement of the vehicle or the user.

なお、以下の説明では、路面の画像に対して位置情報やタイムスタンプが標準形式(例えば、EXIFなど)で格納されている場合の一例を説明するが、位置情報やタイムスタンプの形式や格納方法および抽出方法は任意である。また、位置情報やタイムスタンプは、絶対値であってもよいし相対値であってもよい。
なお、位置情報やタイムスタンプの取得は、GPS(Global Positioning System)センサを搭載した撮影機器や外部装置を使用してもよい。
In the following description, although an example in which position information and a time stamp are stored in a standard format (for example, EXIF, etc.) for an image of a road surface will be described, the format and storage method of the position information and time stamp And the extraction method is optional. The position information and the time stamp may be absolute values or relative values.
In addition, acquisition of position information and a time stamp may use an imaging device or an external device equipped with a GPS (Global Positioning System) sensor.

次に、情報処理装置1は、通信網、メモリカード等の入力インタフェースを介して路面の画像を取得する。情報処理装置1は、例えば、取得した路面の画像を解析し、画像中の路面の損傷を解析する。情報処理装置1は、例えば、画像中の路面の特徴量を算出して路面の状態を解析したり、人工知能を用いて路面の状態を解析したりする。人工知能は、例えば、多層パーセプトロン(多層ニューラルネットワーク)を備える。人工知能は、路面損傷等の解析対象を撮像した教師画像(例えば、画像P1〜P5等)に基づいて、取得した路面の画像に対して深層学習(ディープラーニング)が行われる。なお、人工知能には、従来の人工知能で用いられてきた任意の技術やフレームワーク等を適用してもよい。
情報処理装置1は、路面の画像の解析結果として、路面の損傷度合や、路面の損傷の損傷種別などを出力する。本実施形態では、深層学習により解析する場合の一例について説明する。
Next, the information processing apparatus 1 acquires an image of a road surface via an input interface such as a communication network or a memory card. For example, the information processing apparatus 1 analyzes the acquired image of the road surface and analyzes the damage of the road surface in the image. For example, the information processing apparatus 1 calculates the feature amount of the road surface in the image to analyze the state of the road surface, or analyzes the state of the road surface using artificial intelligence. Artificial intelligence comprises, for example, a multilayer perceptron (multilayer neural network). In artificial intelligence, deep learning (deep learning) is performed on the acquired image of the road surface based on teacher images (for example, images P1 to P5 and the like) obtained by imaging analysis targets such as road surface damage. For artificial intelligence, any technique, framework or the like used in conventional artificial intelligence may be applied.
The information processing apparatus 1 outputs the degree of damage to the road surface, the type of damage to the road surface, and the like as the analysis result of the image of the road surface. In this embodiment, an example in the case of analysis by deep learning will be described.

図7は、本発明の第1の実施形態に係る情報処理装置1の構成の一例を示す概略ブロック図である。
情報処理装置1は、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。制御部17は、画像取得部171と、画像抽出部173と、領域抽出部175と、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 7 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1 according to the first embodiment of the present invention.
The information processing apparatus 1 includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 is configured to include an image acquisition unit 171, an image extraction unit 173, an area extraction unit 175, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.

入力部10は、各種情報の入力を受け付ける。入力部10は、例えば、マウス、タッチパッド等のポインティングデバイスや、キーボードや、外部機器から情報を取得するための入力インタフェース等である。   The input unit 10 receives input of various information. The input unit 10 is, for example, a pointing device such as a mouse or a touch pad, a keyboard, or an input interface for acquiring information from an external device.

通信部13は、他の装置と各種情報を送受信する。通信部13は、例えば、通信用IC(Integrated Circuit)や通信用ポート等を備える。   The communication unit 13 transmits and receives various information to and from other devices. The communication unit 13 includes, for example, a communication IC (Integrated Circuit), a communication port, and the like.

記憶部15は、各種情報を記憶する。記憶部15は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。また、記憶部15は、HDD(Hard Disc Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュメモリ等を備えてもよい。記憶部15は、情報処理装置1が備えるCPU(Central Processing Unit、非図示)やGPU(Graphics Processing Unit、非図示)が実行するための各種プログラムやCPUやGPUが実行した処理の結果などを記憶する。また、記憶部15は、情報処理装置1による解析結果(学習結果)を記憶する。解析結果とは、例えば、ニューラルネットワークのネットワークの状態を示す情報である。ニューラルネットワークのネットワークの状態を示す情報とは、例えば、ニューラルネットワークを構成する各ノード(ユニット)に係る活性化関数のパラメータの値を示す情報等である。   The storage unit 15 stores various information. The storage unit 15 includes, for example, a read only memory (ROM), a random access memory (RAM), and the like. In addition, the storage unit 15 may include a hard disc drive (HDD), an electrically erasable programmable read only memory (EEPROM), a flash memory, and the like. The storage unit 15 stores various programs to be executed by a CPU (Central Processing Unit, not shown) and a GPU (Graphics Processing Unit, not shown) included in the information processing apparatus 1 and results of processing executed by the CPU and GPU. Do. In addition, the storage unit 15 stores an analysis result (learning result) by the information processing device 1. The analysis result is, for example, information indicating the state of the neural network. The information which shows the state of the network of a neural network is the information etc. which show the value of the parameter of the activation function concerning each node (unit) which constitutes a neural network, for example.

出力部19は、各種情報を出力する。出力部19は、例えば、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等の表示装置、解析結果を出力する出力インタフェース等である。   The output unit 19 outputs various information. The output unit 19 is, for example, a display device such as a liquid crystal display, an organic EL display, or a plasma display, an output interface that outputs an analysis result, or the like.

制御部17は、情報処理装置1を制御する。具体的には、例えば、記憶部15に予め記憶されたプログラムを、CPUやGPUが実行することにより制御する。なお、制御部17の一部又は全部を、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアの集積回路として実現してもよい。
制御部17は、画像取得部171と、画像抽出部173と、領域抽出部175と、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
The control unit 17 controls the information processing apparatus 1. Specifically, for example, a program stored in advance in the storage unit 15 is controlled by execution of a CPU or a GPU. Note that part or all of the control unit 17 may be realized as an integrated circuit of hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).
The control unit 17 is configured to include an image acquisition unit 171, an image extraction unit 173, an area extraction unit 175, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.

画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。画像取得部171は、取得した路面の画像を表す情報を、画像抽出部173に出力する。   The image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 or the communication unit 13. The image acquisition unit 171 outputs information representing the acquired image of the road surface to the image extraction unit 173.

画像抽出部173は、画像取得部171から路面の画像を表す情報が入力されると、路面の画像に対して各種画像処理を行う。画像抽出部173は、例えば、路面の画像がエンコードされた動画像である場合には、各フレームを静止画像に変換する。また、画像抽出部173は、路面の画像を表す情報に含まれる路面の画像のメタデータを参照して、タイムスタンプ、位置情報などを抽出する。画像抽出部173は、取得した一連の路面の画像から、検査画像候補の特定、該検査画像候補の抽出等の処理を実行する。なお、画像抽出部173は、取得した一連の路面の画像から、路面損傷の有無を解析しない画像の特定、抽出等の処理を実行してもよい。   When the image acquisition unit 171 receives information representing an image of a road surface, the image extraction unit 173 performs various image processing on the image of the road surface. The image extraction unit 173 converts each frame into a still image, for example, when the image of the road surface is a moving image encoded. Further, the image extracting unit 173 refers to the metadata of the image of the road surface included in the information representing the image of the road surface, and extracts the time stamp, the position information, and the like. The image extraction unit 173 executes processing such as identification of an inspection image candidate and extraction of the inspection image candidate from the acquired series of images of the road surface. Note that the image extraction unit 173 may execute processing such as identification and extraction of an image that does not analyze the presence or absence of road surface damage from the acquired series of road surface images.

領域抽出部175は、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。ここで複数の路面の画像間は、複数フレームの画像間のことである。領域抽出部175は、抽出した検査画像を表す情報および対応する位置情報を算出部177に出力する。
なお、領域抽出部175は、位置情報を用いずに、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出してもよい。この場合、例えば、ある検査画像候補と、該検査画像候補と連続する検査画像候補との対応点マッチングを用いればよい。
The area extraction unit 175 extracts the image based on the position information extracted from the metadata so that there is no area of road surface overlapping among the images of a plurality of road surfaces, and there is no area of road surface missing. An inspection image is extracted from the inspection image candidates. Here, the images of the plurality of road surfaces are the images of the plurality of frames. The area extraction unit 175 outputs the information indicating the extracted inspection image and the corresponding position information to the calculation unit 177.
In addition, the region extraction unit 175 does not use position information, and there is no region of road surface overlapping among images of a plurality of road surfaces, and there is no region of road surface that is missing, the inspection image extracted by the image extraction unit 173 An examination image may be extracted from the candidates. In this case, for example, corresponding point matching between a certain examination image candidate and the examination image candidate continuous with the examination image candidate may be used.

算出部177は、深層学習により検査画像中の路面の損傷を解析する。具体的には、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。算出部177は、算出した損傷度合と、位置情報とを出力部19に出力させる。   The calculation unit 177 analyzes the damage of the road surface in the inspection image by deep learning. Specifically, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, and the inspection image in which the road surface damage is detected is “1”, and the road surface damage is detected. The inspection image which is not processed is binarized as "0" to calculate the damage presence / absence information. The degree calculator 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the total sum of damage presence / absence information in a predetermined section, for example, a 20 m section, by the number of inspection images in the predetermined section. The calculation unit 177 causes the output unit 19 to output the calculated degree of damage and the position information.

なお、算出部177は、損傷度合を算出せずに損傷有無情報をそのまま出力部19に出力してもよい。
なお、算出部177は、算出した損傷度合を、複数の閾値と比較し、損傷度合がいずれの閾値の範囲内であるかを判定し、判定結果に応じて複数の損傷区分に分類してもよい。複数の損傷区分は、例えば、損傷の程度が小さい区分1、損傷の程度が中程度の区分2、損傷の度合いが大きい区分3などの段階的な区分であればよい。この場合、算出部177は、損傷度合を出力部19に出力させる代わりに、又は加えて、損傷区分を出力させてもよい。
The calculating unit 177 may output the damage presence / absence information as it is to the output unit 19 without calculating the degree of damage.
Note that the calculation unit 177 compares the calculated damage degree with a plurality of threshold values, determines which threshold value range the damage degree falls within, and divides the damage degree into a plurality of damage categories according to the determination result. Good. The plurality of damage sections may be, for example, a graded section such as section 1 having a small degree of damage, section 2 having a medium degree of damage, and section 3 having a high degree of damage. In this case, instead of or in addition to causing the output unit 19 to output the degree of damage, the calculating unit 177 may output the damage category.

図8は、本発明の第1の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS101において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS103において、画像抽出部173は、画像取得部171から路面の画像を表す情報が入力されると、路面の画像に対して各種画像処理を行う。また、画像抽出部173は、路面の画像を表す情報に含まれる路面の画像のメタデータを参照して、タイムスタンプ、位置情報などを抽出する。画像抽出部173は、取得した一連の路面の画像から、検査画像候補の特定、該検査画像候補の抽出等の処理を実行する。
FIG. 8 is a flowchart showing an example of the damage degree calculation process according to the first embodiment of the present invention.
In step S101, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 or the communication unit 13.
In step S103, when the image acquisition unit 171 receives information representing an image of a road surface, the image extraction unit 173 performs various image processing on the image of the road surface. Further, the image extracting unit 173 refers to the metadata of the image of the road surface included in the information representing the image of the road surface, and extracts the time stamp, the position information, and the like. The image extraction unit 173 executes processing such as identification of an inspection image candidate and extraction of the inspection image candidate from the acquired series of images of the road surface.

ステップS105において、領域抽出部175は、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。
ステップS107において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。
In step S105, based on the position information extracted from the metadata, the area extraction unit 175 does not have an area of road surface overlapping among images of a plurality of road surfaces, and does not have an area of road surface that is missing. An inspection image is extracted from among the inspection image candidates extracted by 173.
In step S107, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, and the inspection image in which the road surface damage is detected is “1”, and the road surface damage is detected. The inspection image which is not detected is binarized as "0" to calculate the damage presence / absence information.

ステップS109において、度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。   In step S109, the degree calculator 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the total sum of damage presence / absence information in a predetermined section, for example, a 20 m section, by the number of inspection images in the predetermined section.

このように、第1の実施形態による情報処理装置1は、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1 according to the first embodiment acquires a surface based on the image acquired by the image acquisition unit 171 acquiring the image of the area including the surface photographed by the imaging apparatus and the image acquired by the image acquisition unit 171. And a calculation unit 177 for calculating the degree of damage of the
As a result, surface damage can be automatically detected, and quantitative evaluation can be performed, whereby convenience in automatic detection of structure damage can be improved.

<第2の実施形態>
第2の実施形態では、複数の路面の画像間で領域の一部を重複させて検査画像を抽出する場合の一例について説明する。なお、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
Second Embodiment
In the second embodiment, an example in which a part of the area is overlapped between images of a plurality of road surfaces to extract an inspection image will be described. In the second embodiment, parts different from the first embodiment will be mainly described.

図9は、第2の実施形態に係る情報処理装置1Aの構成の一例を示す概略ブロック図である。
情報処理装置1Aは、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。制御部17は、画像取得部171と、画像抽出部173と、重複領域抽出部175Aと、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 9 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1A according to the second embodiment.
The information processing apparatus 1 </ b> A includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 includes an image acquisition unit 171, an image extraction unit 173, an overlapping area extraction unit 175A, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.

重複領域抽出部175Aは、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域と重複する路面の領域とのうちの少なくとも一部が重複するように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。換言すれば、重複領域抽出部175Aは、複数の路面の画像間において、時間的に路面の領域が重複するように検査画像候補の中から検査画像を抽出する。また、重複領域抽出部175Aが抽出する各検査画像は、複数の路面の画像間において、ある路面の画像の路面の領域の頂点部分や辺部分が他の路面の画像の路面の領域に含まれる。重複領域抽出部175Aは、抽出した検査画像を表す情報および対応する位置情報を算出部177に出力する。   The overlapping area extracting unit 175A determines, based on the position information extracted from the metadata, a road surface area in an image of a road surface and a road surface overlapping an area of a road surface in an image of another road surface among images of a plurality of road surfaces. An inspection image is extracted from among the inspection image candidates extracted by the image extraction unit 173 so that at least a part of the region and the region overlap. In other words, the overlapping area extraction unit 175A extracts the inspection image from the inspection image candidates so that the road surface areas overlap temporally between the images of the plurality of road surfaces. Further, in each inspection image extracted by the overlapping area extracting unit 175A, the vertex portion or the side portion of the road surface area of the image of a road surface is included in the road surface area of the other road surface image among the plurality of road surface images. . The overlapping area extraction unit 175A outputs the information representing the extracted inspection image and the corresponding position information to the calculation unit 177.

図10は、本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS201において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS203において、画像抽出部173は、後述する画像抽出処理を実行する。
ステップS205において、重複領域抽出部175Aは、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域と重複する路面の領域とのうちの少なくとも一部が重複するように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。
FIG. 10 is a flow chart showing an example of damage degree calculation processing according to the second embodiment of the present invention.
In step S201, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 or the communication unit 13.
In step S203, the image extraction unit 173 executes an image extraction process described later.
In step S205, the overlapping area extracting unit 175A determines, based on the position information extracted from the metadata, an area of a road surface in an image of a road surface and an area of a road surface in an image of another road surface among images of a plurality of road surfaces. The inspection image is extracted from the inspection image candidates extracted by the image extraction unit 173 so that at least a part of the overlapping road surface area overlaps.

ステップS207において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。
ステップS209において、度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。
In step S207, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, and the inspection image in which the road surface damage is detected is “1”, and the road surface damage is detected. The inspection image which is not detected is binarized as "0" to calculate the damage presence / absence information.
In step S209, the degree calculator 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the total sum of damage presence / absence information in a predetermined section, for example, a 20 m section, by the number of inspection images in the predetermined section.

図11は、本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS301において、画像抽出部173は、フレームの路面の画像を選択する。具体的には、路面の画像が未選択の場合、画像抽出部173は、最初のフレームの路面の画像を選択する。一方、既にフレームを選択している場合、画像抽出部173は、選択中のフレームの次のフレームの路面の画像を選択する。
FIG. 11 is a flowchart showing an example of the process of calculating the degree of damage according to the second embodiment of the present invention.
In step S301, the image extraction unit 173 selects an image of the road surface of the frame. Specifically, when the road surface image is not selected, the image extracting unit 173 selects the road surface image of the first frame. On the other hand, when the frame has already been selected, the image extraction unit 173 selects the image of the road surface of the frame next to the frame being selected.

ステップS303において、画像抽出部173は、選択中のフレームの画像に対応する位置情報を参照し、1つ前のフレームに対応する位置情報からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称する。
ステップS305において、画像抽出部173は、算出した移動距離を、移動距離合計に加算する。移動距離合計は、画像抽出処理の開始時に初期化される。
In step S303, the image extracting unit 173 refers to the position information corresponding to the image of the frame being selected, and calculates the movement distance from the position information corresponding to the immediately preceding frame. Hereinafter, this movement distance is referred to as “distance between images”.
In step S305, the image extraction unit 173 adds the calculated movement distance to the total movement distance. The movement distance sum is initialized at the start of the image extraction process.

ステップS307において、画像抽出部173は、移動距離合計と、所定設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS307;YES)、制御部17は、ステップS309の処理を実行する。一方、移動距離合計が設定距離に比して小さい場合(ステップS307;NO)、制御部17は、ステップS315に処理を実行する。   In step S307, the image extracting unit 173 compares the total movement distance with the predetermined set distance. If the total movement distance is larger than the set distance (step S307; YES), the control unit 17 executes the process of step S309. On the other hand, when the total movement distance is smaller than the set distance (step S307; NO), the control unit 17 executes the process at step S315.

ステップS309において、画像抽出部173は、移動距離合計を0に設定して初期化する。
ステップS311において、画像抽出部173は、選択中の画像を検査画像候補に設定する。
In step S309, the image extraction unit 173 sets the total movement distance to 0 and initializes it.
In step S311, the image extraction unit 173 sets the image being selected as an examination image candidate.

ステップS313において、画像抽出部173は、次のフレームの路面の画像の有無を確認する。画像が存在する場合(ステップS313;YES)、制御部17、ステップS301の処理を実行する。画像が存在しない場合(ステップS313;NO)、制御部17は、ステップS315に処理を実行する。
ステップS315において、画像抽出部173は、検査画像候補を重複領域抽出部175Aに出力する。
In step S313, the image extraction unit 173 confirms the presence or absence of the image of the road surface of the next frame. When an image exists (step S313; YES), the control unit 17 executes the process of step S301. If there is no image (step S313; NO), the control unit 17 executes the process at step S315.
In step S315, the image extracting unit 173 outputs the inspection image candidate to the overlapping area extracting unit 175A.

なお、設定距離は、例えば、1つの検査画像における路面損傷の認識精度に応じて設定されてよい。また、例えば、1つの検査画像において、近傍だけでなく遠くに写る路面損傷を検出できる場合には、設定距離を大きくし、各検査画像に写る路面の重複を少なくしてよい。また、1つの検査画像において、遠くに写る路面損傷を検出不可能な場合には、設定距離を小さくし、各検査画像に写る路面の重複を多くしてよい。これにより、路面損傷の解析に要する負荷を低減しつつ、路面損傷の認識精度を維持することができる。   The set distance may be set, for example, in accordance with the recognition accuracy of the road surface damage in one inspection image. Further, for example, in the case where it is possible to detect road surface damage that appears not only in the vicinity but also in a single inspection image, the set distance may be increased to reduce duplication of the road surface shown in each inspection image. In addition, in the case where it is not possible to detect a road surface damage that appears in a distance in one inspection image, the set distance may be reduced to increase the overlap of the road surface that is displayed in each inspection image. As a result, it is possible to maintain the road surface damage recognition accuracy while reducing the load required to analyze the road surface damage.

このように、第2の実施形態による情報処理装置1Aは、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
また、算出部177は、画像取得部171が取得した連続する複数の画像の各々について、それぞれの画像中の面の損傷度合を算出する。また、情報処理装置1Aは、それぞれの画像中の面の状態を判定する状態判定部1771、をさらに備え、算出部177は、それぞれの画像中の面の状態に基づいて、それぞれの画像中の面の損傷度合を算出する。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1A according to the second embodiment acquires a plane based on the image acquired by the image acquiring unit 171 acquiring the image of the area including the plane photographed by the imaging apparatus and the image acquired by the image acquiring unit 171. And a calculation unit 177 for calculating the degree of damage of the
Further, the calculation unit 177 calculates the degree of damage to the surface in each of the plurality of continuous images acquired by the image acquisition unit 171. Further, the information processing apparatus 1A further includes a state determination unit 1771 that determines the state of the surface in each image, and the calculation unit 177 calculates the state in each image based on the state of the surface in each image. Calculate the degree of surface damage.
As a result, surface damage can be automatically detected, and quantitative evaluation can be performed, whereby convenience in automatic detection of structure damage can be improved.

<第3の実施形態>
第3の実施形態では、1つの路面の画像内で複数の領域に分割し、該複数の領域のそれぞれが、該画像内の他の領域と一部が重複する場合の一例について説明する。なお、第3の実施形態では、第1の実施形態と異なる部分を中心に説明する。
Third Embodiment
In the third embodiment, an example will be described in which one road surface image is divided into a plurality of regions, and each of the plurality of regions overlaps with another region in the image. In the third embodiment, parts different from the first embodiment will be mainly described.

図12は、本発明の第3の実施形態に係る情報処理装置1Bの構成の一例を示す概略ブロック図である。
情報処理装置1Bは、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。
制御部17は、画像取得部171と、画像抽出部173と、部分画像抽出部175Bと、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 12 is a schematic block diagram showing an example of the configuration of an information processing apparatus 1B according to the third embodiment of the present invention.
The information processing apparatus 1 </ b> B includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19.
The control unit 17 is configured to include an image acquisition unit 171, an image extraction unit 173, a partial image extraction unit 175B, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.

部分画像抽出部175Bは、メタデータから抽出した位置情報に基づいて、それぞれの検査画像候補から互いに一部が重複する複数の路面の領域を抽出する。換言すれば、部分画像抽出部175Bは、ある検査画像候補内で路面を含む複数の領域を抽出し、該複数の領域のそれぞれは、ある領域の頂点部や辺部が他の領域に含まれる。部分画像抽出部175Bは、複数の領域を抽出した検査画像候補を、検査画像として特定し、検査画像を表す情報、および検査画像候補から抽出された複数の領域を表す領域情報と、位置情報とを算出部177に出力する。   The partial image extraction unit 175B extracts, from each of the inspection image candidates, areas of a plurality of road surfaces that partially overlap with each other, based on the position information extracted from the metadata. In other words, the partial image extraction unit 175B extracts a plurality of areas including the road surface in a certain inspection image candidate, and in each of the plurality of areas, the vertexes and sides of one area are included in another area . The partial image extraction unit 175B specifies the inspection image candidate from which the plurality of regions are extracted as an inspection image, and information representing the inspection image, region information representing the plurality of regions extracted from the inspection image candidates, and position information Are output to the calculation unit 177.

算出部177は、深層学習により検査画像中の路面の損傷を解析する。具体的には、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを複数の領域のそれぞれで判定して判定スコア(確信度)の値を算出する。
度合算出部1773は、損傷有無情報に基づいて損傷度合、例えば、ひび割れ率を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における判定スコアの値の総和を、該所定区間における検査画像中の領域数で除算することで損傷度合を算出する。算出部177は、算出した損傷度合と、位置情報とを出力部19に出力させる。ここで、移動距離が所定区間に満たない場合、算出部177は、検査画像毎に損傷度合を算出する。
The calculation unit 177 analyzes the damage of the road surface in the inspection image by deep learning. Specifically, the state determination unit 1771 determines in each of the plurality of regions whether or not the road surface in each inspection image is damaged by deep learning, and calculates the value of the determination score (certainty factor).
The degree calculator 1773 calculates a degree of damage, for example, a crack rate, based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the sum of determination score values in a predetermined section, for example, a 20 m section, by the number of areas in the inspection image in the predetermined section. The calculation unit 177 causes the output unit 19 to output the calculated degree of damage and the position information. Here, when the movement distance does not reach the predetermined section, the calculation unit 177 calculates the degree of damage for each inspection image.

なお、算出部177は、算出した判定スコアの値と所定閾値とを比較してもよく、例えば、判定スコアの値が所定閾値以上であるときは「1」、判定スコアの値が所定閾値未満であるときは「0」のように2値化してもよい。また、判定スコアの値が所定閾値以下であるときは、判定スコアの値を「0」としてもよい。   In addition, the calculation unit 177 may compare the calculated determination score value with a predetermined threshold value. For example, when the determination score value is equal to or greater than the predetermined threshold value, “1”, the determination score value is less than the predetermined threshold value When it is, it may be binarized like "0". In addition, when the value of the determination score is equal to or less than the predetermined threshold, the value of the determination score may be set to “0”.

図13は、本発明の第3の実施形態に係る損傷度合算出処理の一例を示すフローチャートである。
ステップS401において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS403において、画像抽出部173は、後述する画像抽出処理を実行する。
ステップS405において、部分画像抽出部175Bは、メタデータから抽出した位置情報に基づいて、それぞれの検査画像候補から互いに一部が重複する複数の路面の領域を抽出する。部分画像抽出部175Bは、複数の領域を抽出した検査画像候補を、検査画像として特定し、検査画像を表す情報、および検査画像候補から抽出された複数の領域を表す領域情報と、位置情報とを算出部177に出力する。
FIG. 13 is a flowchart showing an example of damage degree calculation processing according to the third embodiment of the present invention.
In step S401, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 or the communication unit 13.
In step S403, the image extraction unit 173 executes an image extraction process described later.
In step S405, the partial image extraction unit 175B extracts, from each of the inspection image candidates, a plurality of road surface areas overlapping with each other on the basis of the positional information extracted from the metadata. The partial image extraction unit 175B specifies the inspection image candidate from which the plurality of regions are extracted as an inspection image, and information representing the inspection image, region information representing the plurality of regions extracted from the inspection image candidates, and position information Are output to the calculation unit 177.

ステップS407において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを複数の領域のそれぞれで判定して判定スコア(確信度)の値を算出する。
ステップS409において、所定区間、例えば20m区間における判定スコアの値の総和を、該所定区間における検査画像中の領域数で除算することで損傷度合を算出する。
In step S407, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning in each of the plurality of areas, and calculates the value of the determination score (certainty factor).
In step S409, the degree of damage is calculated by dividing the sum of the determination score values in a predetermined section, for example, a 20 m section, by the number of areas in the inspection image in the predetermined section.

図14は、本発明の第3の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS501において、画像抽出部173は、フレームの路面の画像を選択する。具体的には、路面の画像が未選択の場合、画像抽出部173は、最初のフレームの路面の画像を選択する。一方、既にフレームを選択している場合、画像抽出部173は、選択中のフレームの次のフレームの路面の画像を選択する。
FIG. 14 is a flowchart showing an example of damage degree calculation processing according to the third embodiment of the present invention.
In step S501, the image extraction unit 173 selects an image of the road surface of the frame. Specifically, when the road surface image is not selected, the image extracting unit 173 selects the road surface image of the first frame. On the other hand, when the frame has already been selected, the image extraction unit 173 selects the image of the road surface of the frame next to the frame being selected.

ステップS503において、画像抽出部173は、選択中のフレームの画像に対応する位置情報を参照し、1つ前のフレームに対応する位置情報からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称する。
ステップS505において、画像抽出部173は、算出した移動距離を、移動距離合計に加算する。移動距離合計は、画像抽出処理の開始時に初期化される。
In step S503, the image extracting unit 173 refers to the position information corresponding to the image of the frame being selected, and calculates the movement distance from the position information corresponding to the immediately preceding frame. Hereinafter, this movement distance is referred to as “distance between images”.
In step S505, the image extraction unit 173 adds the calculated movement distance to the total movement distance. The movement distance sum is initialized at the start of the image extraction process.

ステップS507において、画像抽出部173は、移動距離合計と、所定設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS507;YES)、制御部17は、ステップS509の処理を実行する。一方、移動距離合計が設定距離に比して小さい場合(ステップS507;NO)、制御部17は、ステップS515に処理を実行する。   In step S507, the image extracting unit 173 compares the total movement distance with the predetermined set distance. If the total movement distance is larger than the set distance (step S507; YES), the control unit 17 executes the process of step S509. On the other hand, if the total movement distance is smaller than the set distance (step S507; NO), the control unit 17 executes the process at step S515.

ステップS509において、画像抽出部173は、移動距離合計を0に設定して初期化する。
ステップS511において、画像抽出部173は、選択中の画像を検査画像候補に設定する。
In step S509, the image extraction unit 173 sets the total movement distance to 0 and initializes it.
In step S511, the image extraction unit 173 sets the image being selected as an examination image candidate.

ステップS513において、画像抽出部173は、次のフレームの路面の画像の有無を確認する。画像が存在する場合(ステップS513;YES)、制御部17、ステップS501の処理を実行する。画像が存在しない場合(ステップS513;NO)、制御部17は、ステップS515に処理を実行する。
ステップS515において、画像抽出部173は、検査画像候補と、領域情報とを部分画像抽出部175Bに出力する。
In step S513, the image extraction unit 173 confirms the presence or absence of the image of the road surface of the next frame. When an image exists (step S513; YES), the control unit 17 executes the process of step S501. If an image does not exist (step S513; NO), the control unit 17 executes the process at step S515.
In step S515, the image extracting unit 173 outputs the inspection image candidate and the area information to the partial image extracting unit 175B.

このように、第3の実施形態による情報処理装置1Bは、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
情報処理装置1Bは、画像取得部171が取得した画像を分割し、画像の一部分である部分画像を複数生成する部分画像生成部(部分画像抽出部175B)、をさらに備え、算出部177は、部分画像生成部(部分画像抽出部175B)が生成した部分画像の各々について、部分画像中の面の損傷度合を算出する。
情報処理装置1Bは、部分画像生成部(部分画像抽出部175B)が生成した部分画像の各々について、部分画像中の面の状態を判定する状態判定部1771、をさらに備え、算出部177は、部分画像中の面の状態に基づいて、部分画像中の面の損傷度合を算出する。
部分画像生成部(部分画像抽出部175B)は、画像取得部171が取得した画像内において、画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1B according to the third embodiment acquires a surface based on the image acquired by the image acquiring unit 171 acquiring the image of the area including the surface photographed by the imaging apparatus and the image acquired by the image acquiring unit 171. And a calculation unit 177 for calculating the degree of damage of the
The information processing apparatus 1B further includes a partial image generation unit (partial image extraction unit 175B) that divides the image acquired by the image acquisition unit 171 and generates a plurality of partial images that are a part of the image. The degree of damage to the surface in the partial image is calculated for each of the partial images generated by the partial image generation unit (partial image extraction unit 175B).
The information processing apparatus 1B further includes a state determination unit 1771 that determines the state of the surface in the partial image for each of the partial images generated by the partial image generation unit (partial image extraction unit 175B), and the calculation unit 177 Based on the state of the surface in the partial image, the degree of damage to the surface in the partial image is calculated.
The partial image generation unit (partial image extraction unit 175B) divides the image in the image acquired by the image acquisition unit 171, and divides the divided first partial image and the vertex portion or the side portion of the first partial image. And generating a second partial image to be included.
As a result, surface damage can be automatically detected, and quantitative evaluation can be performed, whereby convenience in automatic detection of structure damage can be improved.

なお、状態判定部1771は、損傷種別に応じた損傷クラスを算出してもよい。具体的には、例えば、亀甲状ひび割れや複数本の線状ひび割れなどの面状ひび割れを、損傷クラス「1」、縦断ひび割れ、横断ひび割れなどの単数の線状ひび割れを、損傷クラス「0.6」、ひび割れなどの損傷がない損傷クラスを、損傷クラス「0」のように機械学習により領域ごとの損傷クラスを算出してもよい。この場合、第3の実施形態における判定スコアの値の代わりに、損傷クラスの値を用いて損傷度合を算出すればよい。   The state determination unit 1771 may calculate the damage class according to the damage type. Specifically, for example, planar cracks such as turtle crack and plural linear cracks, single linear cracks such as damage class “1”, longitudinal cracks, and transverse cracks, damage class “0.6” ", Damage class without damage such as cracks, etc., damage class per area may be calculated by machine learning like damage class" 0 ". In this case, the damage degree may be calculated using the value of the damage class instead of the value of the determination score in the third embodiment.

なお、損傷度合がひび割れ率の一例について説明したが、損傷度合は、轍掘れ量であってもよい。また、損傷度合は、ひび割れ率や轍掘れ量の他、損傷区分であってもよい。   In addition, although the damage degree demonstrated an example of the crack rate, the damage degree may be a pitting amount. Moreover, the damage degree may be a damage category other than the crack rate and the amount of pitting.

<第4の実施形態>
第1の実施形態から第3の実施形態では、損傷度合を算出する場合の一例について説明した。
第4の実施形態では、損傷の種別を判定する場合の一例について説明する。ここで、第4の実施形態では、第1の実施形態、第2の実施形態、第3の実施形態、各変形例と異なる部分を中心に説明する。
ここで、路面を修繕するときには、路面の損傷の種別に応じて、修繕に係る作業工程、作業日数、費用等が変わる。そのため、路面の損傷の種別が検出できれば、すなわち、路面の状態を評価できれば、これらの見積りが可能となり、ユーザの利便性を向上させることができる。
Fourth Embodiment
In the first to third embodiments, an example of calculating the degree of damage has been described.
In the fourth embodiment, an example in which the type of damage is determined will be described. Here, in the fourth embodiment, parts different from the first embodiment, the second embodiment, the third embodiment, and each modification will be mainly described.
Here, when the road surface is repaired, the work process, the number of work days, the cost, and the like pertaining to the repair change according to the type of damage to the road surface. Therefore, if the type of damage on the road surface can be detected, that is, if the condition of the road surface can be evaluated, these estimates can be made, and the convenience of the user can be improved.

なお、以下の説明では、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、状態判定部1771が路面の領域ごとの判定スコアの値、損傷クラスの値、損傷有無情報のいずれかを損傷スコアとして算出した場合の一例について説明する。
また、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、度合算出部1773が算出した損傷度合を、損傷スコアとして用いてもよい。この場合、損傷度合を算出した所定区間の路面を、1つの路面の領域として扱ってもよいし、所定区間を短い区間として該短い所定区間の路面を1つの路面の領域として扱ってもよい。
In the following description, the state determination unit 1771 uses the road surface by combining the first embodiment, the second embodiment, the third embodiment, the contents described in each modification, or a part or all of them. An example of the case where one of the value of the determination score for each area, the value of the damage class, and the damage presence / absence information is calculated as the damage score will be described.
Further, the damage degree calculated by the degree calculation unit 1773 by combining the contents described in the first embodiment, the second embodiment, the third embodiment, the respective modifications, or a part or all of them, It may be used as a damage score. In this case, the road surface of the predetermined section for which the damage degree is calculated may be treated as an area of one road surface, or the predetermined section may be treated as a short section, and the road surface of the short predetermined section may be treated as an area of one road surface.

第4の実施形態では、複数の路面の領域と、それぞれの領域における損傷スコアとの分布に基づいて、路面の損傷の種別を判定する。路面の損傷の種別は、例えば、縦断ひび割れ、横断ひび割れ、亀甲状ひび割れ、縦断ひび割れかつ轍掘れ、施工継目、くぼみ、全体的にまばらに存在する損傷などである。図15から図22を参照して説明する。   In the fourth embodiment, the type of road surface damage is determined based on the distribution of the plurality of road surface areas and the damage scores in the respective areas. The types of damage to the road surface are, for example, longitudinal cracks, transverse cracks, tortoise cracks, longitudinal cracks and pittings, construction seams, depressions, generally sparse damage, and the like. This will be described with reference to FIGS. 15 to 22.

図15は、本発明の第4の実施形態に係る路面の損傷種別の一例を示す図である。図16は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図17は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図18は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図19は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図20は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図21は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図22は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。
ここで、各図は、路面の一部を表したものであり、各図におけるマス目、すなわち路面の領域数が多い方向が走行方向、路面の領域数が少ない方向が幅員方向である。
FIG. 15 is a view showing an example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 16 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 17 is a view showing another example of the road damage type according to the fourth embodiment of the present invention. FIG. 18 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 19 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 20 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 21 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention. FIG. 22 is a view showing another example of the type of road surface damage according to the fourth embodiment of the present invention.
Here, each drawing represents a part of the road surface, and the squares in each drawing, that is, the direction in which the number of road surface areas is large is the running direction, and the direction in which the number of road surface areas is small is the width direction.

図15に図示する例は、縦断ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦断している。図16に図示する例は、横断ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが横断している。図17に図示する例は、亀甲状ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦横格子状、すなわち亀甲状に発生している。図18に図示する例は、縦断ひび割れかつ轍掘れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが複数本縦断し、また、複数本縦断するひび割れが略平行に発生している。図19に図示する例は、施工継ぎ目である。図示する実線は、施工によって生じた継ぎ目を表し、ハッチで示す複数の領域に渡って、例えば縦断ひび割れよりも多くの領域に渡って継ぎ目が発生している。   The example illustrated in FIG. 15 is a longitudinal crack. The solid line shown represents a crack, and the crack is traversed across a plurality of regions indicated by hatches. The example illustrated in FIG. 16 is a transverse crack. The solid line shown represents a crack, and the crack crosses over a plurality of regions indicated by hatches. The example illustrated in FIG. 17 is a turtle crack. The solid line shown in the figure represents a crack, and the crack is generated in a lattice pattern, that is, a turtle-like shape, over a plurality of regions indicated by hatches. The example illustrated in FIG. 18 is longitudinal cracking and digging. The solid line shown in the figure represents a crack, and a plurality of cracks longitudinally cross over a plurality of regions indicated by hatches, and a plurality of cracks longitudinally occur substantially in parallel. The example illustrated in FIG. 19 is a construction joint. The solid lines shown represent joints created by construction, and joints are generated over a plurality of areas indicated by hatches, for example, over more than longitudinal cracks.

図20に図示する例は、くぼみである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡って口の字状にひび割れが発生している。図21に図示する例は、全体にまばらに存在する損傷である。図示する実線は、ひび割れなどの損傷を表し、ハッチで示す複数の領域でかつ所定区間にまばらに発生している。図22に図示する例は、亀甲状ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦横格子状、すなわち亀甲状に発生している。ここで、図22に示す2種のハッチは、損傷スコアが第1所定値以上第2所定値未満である領域と、第2所定値以上である領域である。ハッチ中央部分は、損傷スコアが高い領域、すなわち損傷スコアが第2所定値以上である領域である。図22に図示する例の場合、損傷スコアとして判定スコアの値、または損傷クラスの値を用いればよい。   The example illustrated in FIG. 20 is a recess. The solid line shown represents a crack, and a crack occurs in a mouth shape over a plurality of regions indicated by hatches. The example illustrated in FIG. 21 is a sparsely distributed injury throughout. The solid lines shown in the figure represent damage such as cracks, and occur sparsely in a plurality of areas indicated by hatches and in predetermined sections. The example illustrated in FIG. 22 is a turtle crack. The solid line shown in the figure represents a crack, and the crack is generated in a lattice pattern, that is, a turtle-like shape, over a plurality of regions indicated by hatches. Here, two types of hatches shown in FIG. 22 are an area where the damage score is equal to or more than a first predetermined value and less than a second predetermined value, and an area which is equal to or more than a second predetermined value. The hatch central portion is an area where the damage score is high, that is, an area where the damage score is equal to or more than a second predetermined value. In the case of the example illustrated in FIG. 22, the value of the determination score or the value of the damage class may be used as the damage score.

情報処理装置1Cは、図18から図22に示すような路面の損傷の種別を、路面の領域ごとの損傷スコアおよび損傷スコアが所定値以上である領域の分布に応じて分類判定する。   The information processing apparatus 1C classifies and determines the type of damage to the road surface as shown in FIGS. 18 to 22 according to the damage score for each area of the road surface and the distribution of the area where the damage score is equal to or more than a predetermined value.

図23は、本発明の第4の実施形態に係る情報処理装置1Cの構成の一例を示す概略ブロック図である。
情報処理装置1Cは、入力部10と、通信部13と、記憶部15と、制御部17と出力部19と、を含んで構成される。制御部17は、損傷スコア算出部177Cと、分類部179と、を含んで構成される。分類部179は、統合部1791と、分類判定部1793と、を含んで構成される。
FIG. 23 is a schematic block diagram showing an example of the configuration of an information processing apparatus 1C according to the fourth embodiment of the present invention.
The information processing apparatus 1 </ b> C includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 includes a damage score calculation unit 177C and a classification unit 179. The classification unit 179 includes an integration unit 1791 and a classification determination unit 1793.

損傷スコア算出部177Cは、上述した情報処理装置1、1A、1Bの制御部17の一部または全部の機能を有し、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、損傷スコアを算出する。具体的な説明は、上述した各実施形態、各変形例の説明を援用し、記載を省略する。
損傷スコア算出部177Cは、算出した損傷スコアと、該損傷スコアに対応する路面の領域の情報とを、分類部179に出力する。
The damage score calculation unit 177C has a function of part or all of the control unit 17 of the above-described information processing device 1, 1A, 1B, and the first embodiment, the second embodiment, the third embodiment, The damage score is calculated by combining the contents described in each modification, or some or all of them. The specific description uses the description of each embodiment and each modification described above, and the description is omitted.
The damage score calculation unit 177C outputs the calculated damage score and information on the area of the road surface corresponding to the damage score to the classification unit 179.

分類部179は、各メッシュの損傷スコアの分布に応じて路面の損傷種別を分類する。具体的には、統合部1791は、メッシュ毎の損傷スコアを算出する。   The classification unit 179 classifies the type of damage on the road surface according to the distribution of the damage score of each mesh. Specifically, the integration unit 1791 calculates the damage score for each mesh.

分類判定部1793は、所定区間における領域ごとの損傷スコアの分布と既知の損傷種別毎の損傷の分布を比較して損傷の種別を判定する。具体的には、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば3つ以上縦方向に連続して分布する場合、縦断ひび割れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば3つ以上横方向に連続して分布する場合、横断ひび割れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば2つ以上、縦方向に連続し、かつ所定値以上の損傷スコアの領域が所定数、例えば2つ以上、横方向に連続して分布する場合、亀甲状ひび割れと判定する。   The classification determination unit 1793 determines the type of damage by comparing the distribution of damage scores for each region in a predetermined section with the distribution of damage for each known damage type. Specifically, the classification determination unit 1793 determines that a longitudinal crack is generated, for example, when regions of damage scores equal to or greater than a predetermined value are distributed continuously in a predetermined number, for example, three or more in the longitudinal direction. In addition, for example, in a case where areas of damage scores equal to or more than a predetermined value are distributed continuously in a predetermined number, for example, three or more, in a lateral direction, the classification determination unit 1793 determines as a transverse crack. In addition, the classification determination unit 1793 may, for example, have a predetermined number, for example, two or more, vertically continuous areas with damage score areas having a predetermined value or more, and a predetermined number, for example, two or more areas. If the distribution is continuous in the lateral direction, it is judged to be turtle shell cracking.

また、分類判定部1793は、例えば、複数の縦断ひび割れが平行して分布する場合、縦断ひび割れかつ轍掘れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば6つ以上縦方向に連続して分布する場合、施工継ぎ目と判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば2つ以上、縦方向に連続し、かつ所定値以上の損傷スコアの領域が所定数、例えば2つ以上、横方向に連続して分布し、口の字状に分布する場合、くぼみと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、まばらに分布する場合、全体的にまばらに存在する損傷と判定する。   In addition, for example, when a plurality of longitudinal cracks are distributed in parallel, the classification determination unit 1793 determines that the longitudinal cracks are cracked and dug. In addition, for example, in a case where areas of damage scores equal to or larger than a predetermined value are distributed in a predetermined number, for example, six or more in a longitudinal direction, the classification determination unit 1793 determines that the area is a construction joint. In addition, the classification determination unit 1793 may, for example, have a predetermined number, for example, two or more, vertically continuous areas with damage score areas having a predetermined value or more, and a predetermined number, for example, two or more areas. If the distribution is continuous in the lateral direction and is distributed in the shape of the mouth, it is judged as a depression. The classification determination unit 1793 determines that the damage is sparse as a whole, for example, in a case where areas of damage scores equal to or larger than a predetermined value are distributed in a predetermined number or sparsely.

このように、分類判定部1793は、所定区間における損傷スコアの領域の分布に応じて路面の損傷の種別を判定する。分類判定部1793は、判定結果を出力部19に出力する。   Thus, the classification determination unit 1793 determines the type of damage to the road surface according to the distribution of the damage score area in the predetermined section. The classification determination unit 1793 outputs the determination result to the output unit 19.

なお、分類判定部1793が損傷の種別の判定に用いる所定値は、同じ値であってもよいし、それぞれ異なる値であってもよい。
なお、統合部1791は、各領域の情報に含まれる領域の位置情報に応じて、判定対象の路面の位置と領域とを対応付けを行わなくてもよい。すなわち、統合部1791は、位置情報を用いなくてもよい。この場合、分類部179として統合部1791、分類判定部1793の処理を行えばよい。例えば、分類部179は、路面の領域の情報に含まれる各領域の情報と、各領域の損傷スコアとを統合し、路面の各領域と各損傷スコアとを対応付けて、上述の分類判定部1793の処理を行えばよい。
The predetermined values used by the classification determination unit 1793 to determine the type of damage may be the same value or different values.
Note that the integration unit 1791 may not associate the position of the road surface to be determined with the area according to the position information of the area included in the information of each area. That is, the integration unit 1791 may not use the position information. In this case, the processing of the integration unit 1791 and the classification determination unit 1793 may be performed as the classification unit 179. For example, the classification unit 179 integrates the information of each area included in the information of the area of the road surface and the damage score of each area, associates each area of the road surface with each damage score, and The process of 1793 may be performed.

図24は、本発明の第4の実施形態に係る損傷種別判定処理の一例を示すフローチャートである。
ステップS601において、損傷スコア算出部177Cは、上述した情報処理装置1、1A、1Bの制御部17の一部または全部の機能を有し、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、損傷スコアを算出する。
ステップS603において、分類部179は、路面の領域の情報に含まれる各領域の情報と、各領域の損傷スコアとを統合する。
ステップS605において、分類部179は、所定区間における領域ごとの損傷スコアの分布に応じて複数の路面の損傷種別のうちのいずれの損傷の種別であるかを判定する。また、分布による判定は、上述したように既知の分布に基づくルールベースで行っても良いし、分布の教師データに基づく深層学習で行っても良い。
FIG. 24 is a flowchart showing an example of damage type determination processing according to the fourth embodiment of the present invention.
In step S601, the damage score calculation unit 177C has a function of part or all of the control unit 17 of the above-described information processing device 1, 1A, 1B, and the first embodiment, the second embodiment, the third embodiment. The damage score is calculated by combining the embodiment described above, the contents described in each modification, or some or all of them.
In step S603, the classification unit 179 integrates the information of each area included in the information of the area of the road surface and the damage score of each area.
In step S605, the classification unit 179 determines which type of damage among the damage types of the plurality of road surfaces according to the distribution of damage scores for each area in a predetermined section. Further, the determination based on the distribution may be performed on a rule basis based on a known distribution as described above, or may be performed on deep learning based on teacher data of the distribution.

このように、第4の実施形態によれば、情報処理装置1Cは、撮像装置で撮像された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、算出部177が算出した損傷度合に応じて面の損傷種別を判定する種別判定部(分類判定部1793)と、を備える。
また、情報処理装置1Cは、画像取得部171が取得した画像を分割し、画像の一部分である部分画像を複数生成する部分画像生成部(部分画像抽出部175B)、をさらに備え、種別判定部(分類判定部1793)は、部分画像生成部(部分画像抽出部175B)が抽出した部分画像中の面の損傷度合に基づいて、面の前記損傷種別を判定する。
As described above, according to the fourth embodiment, the information processing apparatus 1C is based on the image acquired by the image acquisition unit 171 which acquires an image of the area including the surface imaged by the imaging apparatus, and the image acquired by the image acquisition unit 171. And a type determination unit (classification determination unit 1793) that determines the type of damage on the surface according to the degree of damage calculated by the calculation unit 177.
The information processing apparatus 1C further includes a partial image generation unit (partial image extraction unit 175B) that divides the image acquired by the image acquisition unit 171 and generates a plurality of partial images that are a part of the image. The (classification determination unit 1793) determines the damage type of the surface based on the damage degree of the surface in the partial image extracted by the partial image generation unit (partial image extraction unit 175B).

また、種別判定部(分類判定部1793)は、損傷度合が所定値以上である部分画像の分布に基づいて、面の前記損傷種別を判定する。
また、種別判定部(分類判定部1793)は、1つの画像から生成された複数の部分画像の各々の中の面の損傷度合を統合して、面の損傷種別を判定する。
また、種別判定部(分類判定部1793)は、画像取得部171が取得した連続する複数の画像のそれぞれの前記画像中の面の損傷度合に基づいて、面の損傷種別を判定する。
また、種別判定部(分類判定部1793)は、損傷度合が所定値以上である複数の画像の分布に基づいて、面の前記損傷種別を判定する。
また、種別判定部(分類判定部1793)は、連続する複数の画像におけるぞれぞれの画像中の面の損傷度合を統合して、面の損傷種別を判定する。
また、算出部177は、深層学習により損傷度合を算出する。
In addition, the type determination unit (classification determination unit 1793) determines the type of damage on the surface based on the distribution of partial images in which the degree of damage is equal to or greater than a predetermined value.
In addition, the type determination unit (classification determination unit 1793) integrates the damage degree of the surface in each of the plurality of partial images generated from one image, and determines the damage type of the surface.
In addition, the type determination unit (classification determination unit 1793) determines the type of surface damage based on the damage level of the surface in each of the plurality of continuous images acquired by the image acquisition unit 171.
In addition, the type determination unit (classification determination unit 1793) determines the type of damage on the surface based on the distribution of a plurality of images in which the degree of damage is equal to or greater than a predetermined value.
In addition, the type determination unit (classification determination unit 1793) integrates the degree of damage to the surface in each of the plurality of continuous images to determine the type of surface damage.
Also, the calculation unit 177 calculates the degree of damage by deep learning.

これにより、いずれの損傷であるかを分類することができるため、ユーザの利便性を向上させることができる。   As a result, since it is possible to classify which damage it is, it is possible to improve the convenience of the user.

なお、上記各実施形態、各変形例において、位置情報と、路面の損傷種別または/および路面の損傷度合とを対応付けて、例えば地図上に出力してもよいし、位置情報と、路面の損傷種別または/および路面の損傷度合とを対応付けて、リストで出力してもよい。   In each of the above embodiments and modifications, the position information and the damage type of the road surface or / and the damage degree of the road surface may be associated with each other and output, for example, on the map. The damage type or / and the road surface damage degree may be correlated and output as a list.

なお、上記各実施形態、各変形例において、判定スコアの値に、判定クラスの値を重みとして乗算させて、損傷スコアとして用いたり、損傷度合を算出したりしてもよい。   In each embodiment and each modification, the value of the determination score may be multiplied by the value of the determination class as a weight to be used as a damage score or to calculate the degree of damage.

なお、上記各実施形態、各変形例において、損傷度合として轍掘れ量を用いる場合は、轍掘れの深さを深層学習によって算出してもよい。   In the above-described embodiments and modifications, in the case where the amount of burrow is used as the degree of damage, the depth of the burrow may be calculated by deep learning.

なお、各実施形態、各変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。   Although each embodiment and each modification were explained, it is an example and it is not restricted to these, for example, either of each embodiment or each modification, a part of each embodiment, or each modification A part may be combined with one or more other embodiments or one or more other variations to realize one aspect of the present invention.

なお、本実施形態における情報処理装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、情報処理装置1に係る上述した種々の処理を行ってもよい。   Note that a program for executing each process of the information processing apparatus 1 in the present embodiment is recorded in a computer readable recording medium, and the computer system reads the program recorded in the recording medium and executes it. The above-described various processes related to the information processing apparatus 1 may be performed by the above.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。   Note that the “computer system” referred to here may include an OS and hardware such as peripheral devices. The "computer system" also includes a homepage providing environment (or display environment) if the WWW system is used. In addition, “computer readable recording medium” means flexible disk, magneto-optical disk, ROM, writable nonvolatile memory such as flash memory, portable medium such as CD-ROM, hard disk incorporated in computer system, etc. Storage devices.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。   Furthermore, “computer readable recording medium” refers to volatile memory (for example, DRAM (Dynamic Memory) inside a computer system serving as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line). As Random Access Memory), it is assumed that the program which holds the program for a fixed time is included. The program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by transmission waves in the transmission medium.

ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Here, the “transmission medium” for transmitting the program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within the scope of the present invention.

sys 情報処理システム
1、1A、1B、1C 情報処理装置
10 入力部
13 通信部
15 記憶部
17 制御部
171 画像取得部
173 画像抽出部
175 領域抽出部
175A 重複領域抽出部
175B 部分画像抽出部
177 算出部
1771 状態判定部
1773 度合算出部
177C 損傷スコア算出部
179 分類部
1791 統合部
1793 分類判定部
19 出力部
sys information processing system 1, 1A, 1B, 1C information processing apparatus 10 input unit 13 communication unit 15 storage unit 17 control unit 171 image acquisition unit 173 image extraction unit 175 area extraction unit 175A overlapping area extraction unit 175B partial image extraction unit 177 calculation Unit 1771 State determination unit 1773 Degree calculation unit 177C Damage score calculation unit 179 Classification unit 1791 Integration unit 1793 Classification determination unit 19 Output unit

Claims (11)

撮像装置で撮影された面を含む領域の画像を取得する画像取得部と、
複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、
前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定部と、
前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出部と、を備え
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、
情報処理装置。
An image acquisition unit that acquires an image of an area including a surface captured by an imaging device;
A plurality of images are selected, the selected inter-image distance is compared with a predetermined set distance, and when the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, An image extraction unit which does not set an image being selected as an inspection image candidate when the inter-distance is smaller than a set distance;
Based on the position information corresponding to the inspection image candidate, at least a part of the area of the road surface in the image of one road surface and the area of the road surface in the image of another road overlap between the images of a plurality of road surfaces. An overlapping area extraction unit that extracts an inspection image from among the inspection image candidates extracted by the image extraction unit;
A state determination unit that determines the state of the surface in the inspection image for each of the inspection images extracted by the overlapping area extraction unit;
And a calculation unit that calculates the degree of damage to the surface in the inspection image based on the state of the surface in the inspection image for each of the inspection images .
The predetermined set distance is
By setting the larger the recognition accuracy of the road surface damage in one inspection image, the duplication of the road surface shown in each inspection image is reduced.
By setting the smaller the lower the road surface damage recognition accuracy in one inspection image, the road surface overlap shown in each inspection image is increased.
Information processing device.
前記部分画像中の面の損傷度合に応じて、複数の段階のいずれであるかを分類する分類判定部をさらに備える、
請求項に記載の情報処理装置。
The image processing apparatus further includes a classification determination unit that classifies any one of a plurality of stages according to the degree of damage to the surface in the partial image.
An information processing apparatus according to claim 1 .
前記画像取得部が取得した前記画像内において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する部分画像生成部を備える、
請求項1または2に記載の情報処理装置。
In the image acquired by the image acquisition unit, a part that divides the image and generates a divided first partial image and a second partial image including a vertex part or a side part of the first partial image Including an image generation unit,
The information processing apparatus according to claim 1 .
前記部分画像生成部は、前記画像取得部が取得した前記画像間において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する、
請求項3に記載の情報処理装置。
The partial image generation unit divides the image between the images acquired by the image acquisition unit, and divides the image into a first partial image and a second portion including a vertex portion or a side portion of the first partial image. Generate an image,
The information processing apparatus according to claim 3.
前記算出部は、前記画像取得部が取得した連続する複数の前記画像の各々について、それぞれの前記画像中の面の損傷度合を算出する、
請求項1に記載の情報処理装置。
The calculation unit calculates a degree of damage to a surface in each of the plurality of continuous images acquired by the image acquisition unit.
An information processing apparatus according to claim 1.
それぞれの前記画像中の面の状態を判定する状態判定部、をさらに備え、
前記算出部は、それぞれの前記画像中の面の状態に基づいて、それぞれの前記画像中の面の損傷度合を算出する、
請求項に記載の情報処理装置。
A state determination unit that determines the state of the surface in each of the images;
The calculation unit calculates the degree of damage to the surface in each of the images based on the state of the surface in each of the images.
The information processing apparatus according to claim 5 .
それぞれの前記画像中の面の損傷度合に応じて、複数の段階のいずれであるかを分類する分類判定部をさらに備える、
請求項または請求項に記載の情報処理装置。
The image processing apparatus further includes a classification determination unit that classifies any one of a plurality of stages according to the damage degree of the surface in each of the images.
The information processing apparatus according to claim 5 or claim 6.
前記画像取得部が取得した連続する複数の前記画像間において、前記画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する、
請求項から請求項のいずれか一項に記載の情報処理装置。
The first partial image obtained by dividing the image and dividing the plurality of continuous images obtained by the image acquisition unit, and a second partial image including a vertex portion or a side portion of the first partial image; To generate
The information processing apparatus according to any one of claims 5 to 7 .
撮像装置で撮影された面を含む領域の画像を取得する画像取得部と、
複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、
前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定部と、
前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出部と、を備え
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、
情報処理システム。
An image acquisition unit that acquires an image of an area including a surface captured by an imaging device;
A plurality of images are selected, the selected inter-image distance is compared with a predetermined set distance, and when the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, An image extraction unit which does not set an image being selected as an inspection image candidate when the inter-distance is smaller than a set distance;
At least a part of an area of a road surface in an image of a road surface and an area of a road surface in an image of another road surface overlap between images of a plurality of road surfaces based on position information corresponding to the inspection image candidate As described above, an overlapping area extraction unit that extracts an inspection image from among the inspection image candidates extracted by the image extraction unit;
A state determination unit that determines the state of the surface in the inspection image for each of the inspection images extracted by the overlapping area extraction unit;
And a calculation unit that calculates the degree of damage to the surface in the inspection image based on the state of the surface in the inspection image for each of the inspection images .
The predetermined set distance is
By setting the larger the recognition accuracy of the road surface damage in one inspection image, the duplication of the road surface shown in each inspection image is reduced.
By setting the smaller the lower the road surface damage recognition accuracy in one inspection image, the road surface overlap shown in each inspection image is increased.
Information processing system.
情報処理装置のコンピュータが、
撮像装置で撮像された面を含む領域の画像を取得する画像取得過程と、
複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出過程にて抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、
前記重複領域抽出過程にて抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定過程と、
前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出過程と、を有し
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、
情報処理方法。
The computer of the information processing apparatus is
An image acquisition process of acquiring an image of an area including a surface imaged by an imaging device;
A plurality of images are selected, the selected inter-image distance is compared with a predetermined set distance, and when the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, An image extraction process in which the image being selected is not set as an inspection image candidate when the inter-distance is smaller than the set distance;
At least a part of an area of a road surface in an image of a road surface and an area of a road surface in an image of another road surface overlap between images of a plurality of road surfaces based on position information corresponding to the inspection image candidate Thus, an overlapping area extraction process of extracting an inspection image from among the inspection image candidates extracted in the image extraction process;
A state determination step of determining the state of the surface in the inspection image for each of the inspection images extracted in the overlapping region extraction step;
Calculating , for each of the inspection images, the degree of damage to the surface in the inspection image based on the state of the surface in the inspection image ;
The predetermined set distance is
By setting the larger the recognition accuracy of the road surface damage in one inspection image, the duplication of the road surface shown in each inspection image is reduced.
By setting the smaller the lower the road surface damage recognition accuracy in one inspection image, the road surface overlap shown in each inspection image is increased.
Information processing method.
情報処理装置のコンピュータ
撮像装置で撮像された面を含む領域の画像を取得する画像取得過程と、
複数の画像を選択し、選択している画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域とのうちの少なくとも一部が重複するように、前記画像抽出過程にて抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、
前記重複領域抽出過程にて抽出された検査画像の各々について、前記検査画像中の面の状態を判定する状態判定過程と、
前記検査画像の各々について、前記検査画像中の面の状態に基づいて、前記検査画像中の面の損傷度合を算出する算出過程と、実行させるためのプログラムであり、
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くする、
プログラム。
In the computer of the information processing apparatus
An image acquisition process of acquiring an image of an area including a surface imaged by an imaging device;
A plurality of images are selected, the selected inter-image distance is compared with a predetermined set distance, and when the inter-image distance is larger than the set distance, the image being selected is set as an examination image candidate, An image extraction process in which the image being selected is not set as an inspection image candidate when the inter-distance is smaller than the set distance;
At least a part of an area of a road surface in an image of a road surface and an area of a road surface in an image of another road surface overlap between images of a plurality of road surfaces based on position information corresponding to the inspection image candidate Thus, an overlapping area extraction process of extracting an inspection image from among the inspection image candidates extracted in the image extraction process;
A state determination step of determining the state of the surface in the inspection image for each of the inspection images extracted in the overlapping region extraction step;
A calculation process of calculating the degree of damage to the surface in the inspection image based on the state of the surface in the inspection image for each of the inspection images ;
The predetermined set distance is
By setting the larger the recognition accuracy of the road surface damage in one inspection image, the duplication of the road surface shown in each inspection image is reduced.
By setting the smaller the lower the road surface damage recognition accuracy in one inspection image, the road surface overlap shown in each inspection image is increased.
program.
JP2017182452A 2017-09-22 2017-09-22 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM Active JP6516384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017182452A JP6516384B2 (en) 2017-09-22 2017-09-22 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017182452A JP6516384B2 (en) 2017-09-22 2017-09-22 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2019057221A JP2019057221A (en) 2019-04-11
JP6516384B2 true JP6516384B2 (en) 2019-05-22

Family

ID=66107569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182452A Active JP6516384B2 (en) 2017-09-22 2017-09-22 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP6516384B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6764842B2 (en) * 2017-09-22 2020-10-07 エヌ・ティ・ティ・コムウェア株式会社 Information processing equipment, information processing system, information processing method, and information processing program
CN111126460B (en) * 2019-12-10 2024-04-02 福建省高速公路集团有限公司 Automatic pavement disease inspection method, medium, equipment and device based on artificial intelligence

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2002188998A (en) * 2001-10-03 2002-07-05 Keisoku Kensa Kk Method of detecting crack of inner wall face in tunnel, and method for display thereof
JP2003216953A (en) * 2002-01-22 2003-07-31 Kitakyushu Foundation For The Advancement Of Industry Science & Technology Method and device for extracting object from image
JP4149179B2 (en) * 2002-03-05 2008-09-10 東京都下水道サービス株式会社 Endotracheal examination diagnosis support device, intratracheal inspection diagnosis support method, and storage medium storing intratracheal inspection diagnosis support program
JP2004210459A (en) * 2002-12-27 2004-07-29 Fuji Heavy Ind Ltd Device and method of monitoring transport device
JP2005043324A (en) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd Method of checking defective condition of road surface, and method of specifying defective position of the road surface
JP4344007B2 (en) * 2009-02-10 2009-10-14 計測検査株式会社 Fine crack width calibration method
JP5479944B2 (en) * 2010-02-26 2014-04-23 東日本高速道路株式会社 Extraction of cracks on pavement and evaluation method of damage level
JP5645730B2 (en) * 2011-03-25 2014-12-24 公益財団法人鉄道総合技術研究所 Method for detecting closed cracks on concrete surface
JP5894013B2 (en) * 2012-05-30 2016-03-23 公益財団法人鉄道総合技術研究所 Deterioration management method for concrete surface
JP5936239B2 (en) * 2014-08-19 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Road surface degradation degree estimation method and algorithm (crack detection method using Gabor filter output image of multi-resolution image)
JP6594039B2 (en) * 2015-05-20 2019-10-23 株式会社東芝 Image processing apparatus, method, and program
US10648922B2 (en) * 2015-07-21 2020-05-12 Kabushiki Kaisha Toshiba Crack analysis device, crack analysis method, and crack analysis program

Also Published As

Publication number Publication date
JP2019057221A (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP6764842B2 (en) Information processing equipment, information processing system, information processing method, and information processing program
Hoang Detection of surface crack in building structures using image processing technique with an improved Otsu method for image thresholding
Peraka et al. Pavement asset management systems and technologies: A review
US8873837B2 (en) Image-based crack detection
Lemy et al. Discontinuity trace map construction using photographs of rock exposures
US11893724B2 (en) Methods of artificial intelligence-assisted infrastructure assessment using mixed reality systems
Mansuri et al. Artificial intelligence-based automatic visual inspection system for built heritage
Brackenbury et al. Automated defect detection for masonry arch bridges
JP6516384B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
JP2020038132A (en) Crack on concrete surface specification method, crack specification device, and crack specification system, and program
Malek et al. Methodology to integrate augmented reality and pattern recognition for crack detection
Das et al. Application of deep convolutional neural networks for automated and rapid identification and computation of crack statistics of thin cracks in strain hardening cementitious composites (SHCCs)
JP6980208B2 (en) Structure maintenance work support system
KR20200123537A (en) Method for detecting sinkhole using deep learning and data association and sinkhole detecting system using it
JP5097629B2 (en) Feature shape change detection program and feature shape change detection system
Park et al. A framework for improving object recognition of structural components in construction site photos using deep learning approaches
JP6434834B2 (en) Inspection object extraction device and inspection object extraction method
JP6894339B2 (en) Crack detection device, crack detection method, and computer program
Wang et al. Instance segmentation of soft‐story buildings from street‐view images with semiautomatic annotation
KR20230003730A (en) Method, system and non-transitory computer-readable recording medium for inspecting external cracks in structures using drone
Ichi Validating NDE Dataset and Benchmarking Infrared Thermography for Delamination Detection in Bridge Decks
Koch et al. Machine vision techniques for condition assessment of civil infrastructure
Bosurgi et al. Automatic crack detection results using a novel device for survey and analysis of road pavement condition
Serifoglu Yilmaz et al. Automated detection of damaged buildings in post-disaster scenarios: a case study of Kahramanmaraş (Türkiye) earthquakes on February 6, 2023
JP2022056219A (en) Information processor, method for processing information, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6516384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250