JP6764842B2 - Information processing equipment, information processing system, information processing method, and information processing program - Google Patents
Information processing equipment, information processing system, information processing method, and information processing program Download PDFInfo
- Publication number
- JP6764842B2 JP6764842B2 JP2017182453A JP2017182453A JP6764842B2 JP 6764842 B2 JP6764842 B2 JP 6764842B2 JP 2017182453 A JP2017182453 A JP 2017182453A JP 2017182453 A JP2017182453 A JP 2017182453A JP 6764842 B2 JP6764842 B2 JP 6764842B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- road surface
- damage
- inspection image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 70
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000006378 damage Effects 0.000 claims description 270
- 238000007689 inspection Methods 0.000 claims description 157
- 238000000605 extraction Methods 0.000 claims description 109
- 238000004364 calculation method Methods 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 33
- 238000012360 testing method Methods 0.000 claims description 15
- 238000013135 deep learning Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 9
- 239000006185 dispersion Substances 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 10
- 230000010354 integration Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011158 quantitative evaluation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000270666 Testudines Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Landscapes
- Bridges Or Land Bridges (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
- Road Repair (AREA)
Description
本発明は、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method, and an information processing program.
道路、橋梁、施設等の老朽化に伴い、建造物のメンテナンスを効率的に実施することが求められている。建造物のメンテナンスの実施には、建造物の損傷を発見する必要があるが、損傷の目視による確認においては定量的な評価や網羅的な解析が困難である。そのため、機械による自動検出が求められている。特許文献1は、例えば、車載カメラで、日向ができた路面の路面画像、日影ができた路面の路面画像を、それぞれ前後左右の画像中の一部の領域が重複するように撮影し、台形補正、重複した領域の一致度の算出等を行うことで路面画像を接合処理するものである。 With the aging of roads, bridges, facilities, etc., it is required to efficiently maintain buildings. In order to carry out maintenance of a building, it is necessary to detect damage to the building, but it is difficult to quantitatively evaluate or comprehensively analyze the damage visually. Therefore, automatic detection by a machine is required. In Patent Document 1, for example, an in-vehicle camera captures a road surface image of a road surface with a sun and a road surface image of a road surface with a shade so that some areas in the front, rear, left, and right images overlap. The road surface image is joined by performing keystone correction, calculation of the degree of coincidence of overlapping areas, and the like.
しかしながら、特許文献1の技術を用いて接合処理された画像をそのまま解析すると、解析に要する負荷が大きくなる。また、このような接合処理された画像だけでは建造物の損傷の自動検出ができず、建造物の損傷の定量的な評価や網羅的な解析もできなかった。このように、建造物の損傷の自動検出の際の利便性が十分でないという課題があった。 However, if the image subjected to the joining process is analyzed as it is by using the technique of Patent Document 1, the load required for the analysis becomes large. In addition, it was not possible to automatically detect damage to buildings using only such images that had been joined, and it was not possible to quantitatively evaluate or comprehensively analyze damage to buildings. As described above, there is a problem that the convenience in the automatic detection of damage to the building is not sufficient.
本発明の一態様は、上述の課題を鑑みてなされたものであり、建造物の損傷の自動検出の際の利便性を向上させることができる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供することを目的の一つとする。 One aspect of the present invention has been made in view of the above-mentioned problems, and is an information processing device, an information processing system, an information processing method, and an information processing method capable of improving convenience in automatic detection of damage to a building. One of the purposes is to provide a program.
(1)本発明は、上述した課題を解決するためになされたもので、本発明の一態様は、撮像装置で撮像された路面を含む領域の画像を取得する画像取得部と、複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定部と、前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出部と、前記算出部が算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定部と、を備え、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、前記種別判定部は、複数の路面の領域において、前記算出部が算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、情報処理装置である。 (1) The present invention has been made in order to solve the above problems, one aspect of the present invention includes an image acquisition unit that acquires an image of an area including the road surface captured by the imaging device, a plurality of Select an image, compare the inter-image distance, which is the distance of the position information corresponding to each selected image, with the predetermined set distance, and if the inter-image distance is larger than the set distance, it is being selected. An image is set as an inspection image candidate, and when the distance between images is smaller than the set distance, the selected image is not set as an inspection image candidate. For the image extraction unit and the position information corresponding to the inspection image candidate. Based on this, the inspection image extracted by the image extraction unit so that at least a part of the road surface region in the image of one road surface and the road surface region in the image of another road surface overlap between the images of the plurality of road surfaces. and overlap region extraction unit that extracts an inspection image from the candidate, and the overlap for each of the test images extracted by the area extracting unit, the inspection of the state of the road surface is judged state determining section in the image, the inspection image for each of, based on the state of the road surface in the inspection image, a calculation unit that calculates damage degree of the road surface in the inspection image, damage of the road surface in accordance with the degree of damage to the calculating unit has calculated A type determination unit for determining the type is provided, and the predetermined set distance is set larger as the recognition accuracy of road surface damage in one inspection image is higher, thereby reducing duplication of the road surface reflected in each inspection image. The lower the recognition accuracy of road surface damage in one inspection image, the smaller the setting, so that the overlap of the road surface reflected in each inspection image is increased, and the type determination unit is calculated by the calculation unit in a plurality of road surface areas. The damage type is determined based on the number of consecutive regions in which the degree of damage is equal to or greater than a predetermined value, the directions between regions in which the degree of continuous damage is equal to or greater than a predetermined value, and the dispersion of the entire region of a plurality of road surfaces. It is an information processing device that makes a judgment.
(2)また、本発明の一態様は、上記に記載の情報処理装置であって、前記算出部は、深層学習により前記損傷度合を算出する。 ( 2 ) Further, one aspect of the present invention is the information processing apparatus described above, and the calculation unit calculates the degree of damage by deep learning.
(3)また、本発明の一態様は、撮像装置と、撮像装置で撮像された路面を含む領域の画像を取得する画像取得部と、複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定部と、前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出部と、前記算出部が算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定部と、を備え、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、前記種別判定部は、複数の路面の領域において、前記算出部が算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、情報処理システムである。 (3) Further, an embodiment of the present invention includes an imaging apparatus, an image acquiring unit that acquires an image of an area including the road surface captured by the imaging device, select a group of images, each being selected The distance between images, which is the distance of the position information corresponding to the image, is compared with the predetermined set distance, and if the distance between images is larger than the set distance, the selected image is set as an inspection image candidate, and the distance between images is set. When the distance is smaller than the set distance, the selected image is not set as the inspection image candidate.The image extraction unit and the image of a plurality of road surfaces based on the position information corresponding to the inspection image candidate, An overlapping area for extracting an inspection image from the inspection image candidates extracted by the image extraction unit so that at least a part of the road surface area in the image of a certain road surface and the road surface area in the image of another road surface overlap. an extraction unit, for each of the test images extracted by the overlapping area extracting unit, and the inspection of the condition of the road surface is judged state determining section in the image, for each of the test image, road surfaces in the inspection image based on the state, comprising: a calculation unit for calculating a degree of damage of the road surface in the inspection image, and a type determination unit determines the damage type of the road surface in accordance with the degree of damage to the calculating unit has calculated The predetermined distance is set larger as the recognition accuracy of road surface damage in one inspection image is higher, so that the overlap of the road surface reflected in each inspection image is reduced and the recognition accuracy of road surface damage in one inspection image is improved. The lower the setting, the smaller the overlap of the road surface reflected in each inspection image, and the type determination unit is a region of a plurality of road surfaces in which the degree of damage calculated by the calculation unit is equal to or greater than a predetermined value. It is an information processing system that determines the damage type based on the integration of the number of continuations, the directions of regions in which the degree of continuous damage is equal to or higher than a predetermined value, and the dispersion of the entire region of a plurality of road surfaces.
(4)また、本発明の一態様は、情報処理装置のコンピュータが、撮像装置で撮像された路面を含む領域の画像を取得する画像取得過程と、複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出過程により抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、前記重複領域抽出過程により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定過程と、前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出過程と、前記算出過程により算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定過程と、を備え、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、前記種別判定過程は、複数の路面の領域において、前記算出過程により算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、情報処理方法である。 (4) Further, an embodiment of the present invention, a computer of the information processing apparatus, an image acquisition step of acquiring an image of an area including the road surface captured by the imaging device, select a group of images, select The distance between images, which is the distance of the position information corresponding to each image, is compared with the predetermined set distance, and if the distance between images is larger than the set distance, the selected image is set as an inspection image candidate. , When the distance between images is smaller than the set distance, the selected image is not set as an inspection image candidate. Based on the image extraction process and the position information corresponding to the inspection image candidate, images of a plurality of road surfaces An inspection image is extracted from the inspection image candidates extracted by the image extraction process so that at least a part of the road surface area in the image of a certain road surface and the road surface area in the image of another road surface overlap between the two. and overlap region extraction step of, for each of the test images extracted by the overlap region extraction process, a state determining state determination process of the road surface in the inspection image, for each of the test image, the test in the image based of the state of the road surface, the calculation step of calculating a degree of damage of the road surface in the inspection image, and determines the type determining process damage type of the road surface in accordance with the degree of damage was calculated by the calculating step , And the predetermined set distance is set larger as the recognition accuracy of the road surface damage in one inspection image is higher, thereby reducing the overlap of the road surface reflected in each inspection image and reducing the road surface damage in one inspection image. The lower the recognition accuracy is, the smaller the setting is made, so that the road surface overlaps in each inspection image is increased. In the type determination process, the degree of damage calculated by the calculation process is a predetermined value or more in a plurality of road surface areas. It is an information processing method that determines the damage type based on the number of consecutive regions, the directions of regions in which the degree of continuous damage is equal to or higher than a predetermined value, and the dispersion of the entire region of a plurality of road surfaces. ..
(5)また、本発明の一態様は、情報処理装置のコンピュータが、撮像装置で撮像された路面を含む領域の画像を取得する画像取得ステップと、複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出ステップと、前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出ステップにより抽出した検査画像候補の中から検査画像を抽出する重複領域抽出ステップと、前記重複領域抽出ステップにより抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定ステップと、前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出ステップと、前記算出ステップにより算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定ステップと、を実行し、前記所定設定距離は、1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、前記種別判定ステップは、複数の路面の領域において、前記算出ステップにより算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、プログラムである。
(5) Further, an embodiment of the present invention, a computer of the information processing apparatus, an image acquiring step of acquiring an image of an area including the road surface captured by the imaging device, select a group of images, select The distance between images, which is the distance of the position information corresponding to each image, is compared with the predetermined set distance, and if the distance between images is larger than the set distance, the selected image is set as an inspection image candidate. , When the distance between images is smaller than the set distance, the selected image is not set as the inspection image candidate. Based on the image extraction step and the position information corresponding to the inspection image candidate, images of a plurality of road surfaces. An inspection image is extracted from the inspection image candidates extracted by the image extraction step so that at least a part of the road surface area in the image of a certain road surface and the road surface area in the image of another road surface overlap between the two. and overlap region extraction step of, for each of the test images extracted by the overlap region extraction step, a state determining state determination step of the road surface in the inspection image, for each of the test image, the test in the image based on the state of the road surface of a calculation step of calculating a degree of damage of the road surface in the inspection image, and determines the type determination step damage type of the road surface in accordance with the degree of damage was calculated by the calculating step , And the predetermined set distance is set larger as the recognition accuracy of road surface damage in one inspection image is higher, thereby reducing the overlap of the road surface reflected in each inspection image and reducing the road surface damage in one inspection image. The lower the recognition accuracy is, the smaller the setting is made so that the road surface overlaps in each inspection image is increased. In the type determination step, the degree of damage calculated by the calculation step is equal to or more than a predetermined value in a plurality of road surface areas. It is a program that determines the damage type based on the number of consecutive regions, the directions of regions in which the degree of continuous damage is equal to or higher than a predetermined value, and the dispersion of the entire region of a plurality of road surfaces.
本発明によれば、建造物の損傷の自動検出の際の利便性を向上させることができる。 According to the present invention, convenience in automatic detection of damage to a building can be improved.
以下、本発明の各実施形態について図面を参照しながら説明する。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings.
<第1の実施形態>
図1は、本発明の第1の実施形態に係る情報処理システムsysの構成の一例を示す概略図である。
情報処理システムsysは、少なくとも情報処理装置1を含んで構成される。情報処理システムsysは、建造物の表面の状態を解析するシステムである。以下では、一例として、情報処理システムsysが建造物の表面の損傷を解析する場合について説明する。
建造物は、例えば、道路、橋梁、施設等であり、社会インフラも含まれる。また、表面は、建造物の外部表面又は内部表面である。つまり、建造物の表面とは、例えば、道路の路面や橋梁、施設の上面、側面、下面である。損傷とは、物理的な凹凸、色彩の変化、亀裂や破損等である。以下の説明では、一例として路面の損傷を評価、解析する場合について説明するが、これに限られず、各種建造物の損傷の評価、解析にも適用可能である。
<First Embodiment>
FIG. 1 is a schematic view showing an example of the configuration of the information processing system systems according to the first embodiment of the present invention.
The information processing system systems includes at least the information processing device 1. The information processing system systems is a system that analyzes the state of the surface of a building. In the following, as an example, a case where the information processing system systems analyzes damage on the surface of a building will be described.
Buildings are, for example, roads, bridges, facilities, etc., and also include social infrastructure. The surface is the outer surface or the inner surface of the building. That is, the surface of a building is, for example, a road surface or a bridge, an upper surface, a side surface, or a lower surface of a facility. Damage is physical unevenness, color change, cracks, breakage, and the like. In the following description, a case of evaluating and analyzing road surface damage as an example will be described, but the present invention is not limited to this, and can be applied to the evaluation and analysis of damage to various buildings.
路面の損傷は、例えば路面の轍掘れ、ポットホール、ひび割れ(クラックとも称する))、段差、施工継目などが含まれる。ひび割れには、線状ひび割れ、面状ひび割れが含まれる。線状ひび割れは、縦断ひび割れ、横断ひび割れ等が含まれる。面状ひび割れには、亀甲状ひび割れなどが含まれる。 Road surface damage includes, for example, road surface ruts, potholes, cracks (also referred to as cracks), steps, construction seams, and the like. The cracks include linear cracks and planar cracks. The linear cracks include longitudinal cracks, transverse cracks, and the like. Planar cracks include hexagonal cracks and the like.
情報処理システムsysにおいて、情報処理装置1は、1または複数の路面の画像Pを取得する。路面の画像Pは、情報処理システムsysに撮像装置が含まれる場合に、該撮像装置で撮像して取得してもよいし、定点カメラ、ユーザの手持ちのカメラ、車載カメラ等で撮影された路面の画像Pを、ネットワークまたは入力インタフェースを介して取得してもよい。 In the information processing system systems, the information processing device 1 acquires images P of one or a plurality of road surfaces. When the information processing system systems includes an image pickup device, the road surface image P may be captured and acquired by the image pickup device, or the road surface image taken by a fixed point camera, a user's handheld camera, an in-vehicle camera, or the like. Image P may be acquired via a network or input interface.
情報処理装置1は、取得した路面の画像に基づいて、画像中の路面の損傷度合を算出する。 The information processing device 1 calculates the degree of damage to the road surface in the image based on the acquired image of the road surface.
図2は、本発明の第1の実施形態に係る路面の画像の一例を示す説明図である。図3は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図4は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図5は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。図6は、本発明の第1の実施形態に係る路面の画像の他の一例を示す説明図である。
図2に示す路面の画像P1は、轍D1の例である。図3に示す路面の画像P2は、ポットホールD2の例である。図4に示す路面の画像P3は、ひび割れD3の例である。図5に示す路面の画像P4は、段差D4の例である。図6に示す路面の画像P5は、パッチングD5の例である。情報処理装置1は、図2から図6に図示する例の他、上述した各種の路面の損傷度合を評価、解析する。
FIG. 2 is an explanatory view showing an example of an image of a road surface according to the first embodiment of the present invention. FIG. 3 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention. FIG. 4 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention. FIG. 5 is an explanatory view showing another example of an image of the road surface according to the first embodiment of the present invention. FIG. 6 is an explanatory view showing another example of the image of the road surface according to the first embodiment of the present invention.
The road surface image P1 shown in FIG. 2 is an example of rut D1. The image P2 of the road surface shown in FIG. 3 is an example of the pothole D2. The image P3 of the road surface shown in FIG. 4 is an example of the crack D3. The image P4 of the road surface shown in FIG. 5 is an example of the step D4. The road surface image P5 shown in FIG. 6 is an example of patching D5. In addition to the examples shown in FIGS. 2 to 6, the information processing device 1 evaluates and analyzes the degree of damage to various road surfaces described above.
次に、情報処理システムsysを用いた路面の損傷の解析の概要を説明する。 Next, the outline of the analysis of road surface damage using the information processing system systems will be described.
まず、ユーザは、路面の画像を撮影する。路面の画像は、例えば、車載カメラで撮影された画像、路面や路肩を移動しながら撮影された画像等の移動体により撮影された画像や定点カメラで撮影された画像など、路面が含まれる画像であればいかなる撮影方法で撮影されたものであってもよい。画像は、静止画像に限られず動画像であってもよい。移動体は、例えば、車両、人、飛行体、無人撮影機器、動物などである。例えば、車載カメラで撮影する場合や、ユーザが路面や路肩を移動しながら撮影する場合は、車両やユーザの移動に応じて路面を適宜撮影する。 First, the user takes an image of the road surface. The image of the road surface includes an image including the road surface, for example, an image taken by an in-vehicle camera, an image taken by a moving body such as an image taken while moving the road surface or the shoulder, or an image taken by a fixed point camera. If it is, it may be taken by any shooting method. The image is not limited to a still image and may be a moving image. The moving body is, for example, a vehicle, a person, a flying object, an unmanned photographing device, an animal, or the like. For example, when shooting with an in-vehicle camera or when the user shoots while moving on the road surface or shoulder, the road surface is appropriately shot according to the movement of the vehicle or the user.
なお、以下の説明では、路面の画像に対して位置情報やタイムスタンプが標準形式(例えば、EXIFなど)で格納されている場合の一例を説明するが、位置情報やタイムスタンプの形式や格納方法および抽出方法は任意である。また、位置情報やタイムスタンプは、絶対値であってもよいし相対値であってもよい。
なお、位置情報やタイムスタンプの取得は、GPS(Global Positioning System)センサを搭載した撮影機器や外部装置を使用してもよい。
In the following description, an example of the case where the position information and the time stamp are stored in the standard format (for example, EXIF) for the image of the road surface will be described, but the format and the storage method of the position information and the time stamp will be described. And the extraction method is arbitrary. Further, the position information and the time stamp may be absolute values or relative values.
The position information and the time stamp may be acquired by using a photographing device or an external device equipped with a GPS (Global Positioning System) sensor.
次に、情報処理装置1は、通信網、メモリカード等の入力インタフェースを介して路面の画像を取得する。情報処理装置1は、例えば、取得した路面の画像を解析し、画像中の路面の損傷を解析する。情報処理装置1は、例えば、画像中の路面の特徴量を算出して路面の状態を解析したり、人工知能を用いて路面の状態を解析したりする。人工知能は、例えば、多層パーセプトロン(多層ニューラルネットワーク)を備える。人工知能は、路面損傷等の解析対象を撮像した教師画像(例えば、画像P1〜P5等)に基づいて、取得した路面の画像に対して深層学習(ディープラーニング)が行われる。なお、人工知能には、従来の人工知能で用いられてきた任意の技術やフレームワーク等を適用してもよい。
情報処理装置1は、路面の画像の解析結果として、路面の損傷度合や、路面の損傷の損傷種別などを出力する。本実施形態では、深層学習により解析する場合の一例について説明する。
Next, the information processing device 1 acquires an image of the road surface via an input interface such as a communication network or a memory card. The information processing device 1 analyzes, for example, the acquired image of the road surface and analyzes the damage to the road surface in the image. The information processing device 1 calculates, for example, the feature amount of the road surface in the image and analyzes the state of the road surface, or analyzes the state of the road surface by using artificial intelligence. Artificial intelligence includes, for example, a multi-layer perceptron (multi-layer neural network). In artificial intelligence, deep learning is performed on the acquired road surface image based on a teacher image (for example, images P1 to P5, etc.) obtained by capturing an analysis target such as road surface damage. In addition, any technique, framework, or the like used in the conventional artificial intelligence may be applied to the artificial intelligence.
The information processing device 1 outputs the degree of damage to the road surface, the type of damage to the road surface, and the like as the analysis result of the image of the road surface. In this embodiment, an example of analysis by deep learning will be described.
図7は、本発明の第1の実施形態に係る情報処理装置1の構成の一例を示す概略ブロック図である。
情報処理装置1は、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。制御部17は、画像取得部171と、画像抽出部173と、領域抽出部175と、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 7 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1 according to the first embodiment of the present invention.
The information processing device 1 includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 includes an image acquisition unit 171, an image extraction unit 173, a region extraction unit 175, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.
入力部10は、各種情報の入力を受け付ける。入力部10は、例えば、マウス、タッチパッド等のポインティングデバイスや、キーボードや、外部機器から情報を取得するための入力インタフェース等である。 The input unit 10 accepts input of various information. The input unit 10 is, for example, a pointing device such as a mouse or a touch pad, an input interface for acquiring information from a keyboard, an external device, or the like.
通信部13は、他の装置と各種情報を送受信する。通信部13は、例えば、通信用IC(Integrated Circuit)や通信用ポート等を備える。 The communication unit 13 transmits and receives various information to and from other devices. The communication unit 13 includes, for example, a communication IC (Integrated Circuit), a communication port, and the like.
記憶部15は、各種情報を記憶する。記憶部15は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。また、記憶部15は、HDD(Hard Disc Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュメモリ等を備えてもよい。記憶部15は、情報処理装置1が備えるCPU(Central Processing Unit、非図示)やGPU(Graphics Processing Unit、非図示)が実行するための各種プログラムやCPUやGPUが実行した処理の結果などを記憶する。また、記憶部15は、情報処理装置1による解析結果(学習結果)を記憶する。解析結果とは、例えば、ニューラルネットワークのネットワークの状態を示す情報である。ニューラルネットワークのネットワークの状態を示す情報とは、例えば、ニューラルネットワークを構成する各ノード(ユニット)に係る活性化関数のパラメータの値を示す情報等である。 The storage unit 15 stores various information. The storage unit 15 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. In addition, the storage unit 15 may include an HDD (Hard Disk Drive), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, and the like. The storage unit 15 stores various programs for execution by the CPU (Central Processing Unit, not shown) or GPU (Graphics Processing Unit, not shown) included in the information processing device 1, and the results of processing executed by the CPU or GPU. To do. Further, the storage unit 15 stores the analysis result (learning result) by the information processing device 1. The analysis result is, for example, information indicating the state of the network of the neural network. The information indicating the network state of the neural network is, for example, information indicating the value of the parameter of the activation function related to each node (unit) constituting the neural network.
出力部19は、各種情報を出力する。出力部19は、例えば、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等の表示装置、解析結果を出力する出力インタフェース等である。 The output unit 19 outputs various information. The output unit 19 is, for example, a display device such as a liquid crystal display, an organic EL display, or a plasma display, an output interface for outputting analysis results, and the like.
制御部17は、情報処理装置1を制御する。具体的には、例えば、記憶部15に予め記憶されたプログラムを、CPUやGPUが実行することにより制御する。なお、制御部17の一部又は全部を、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアの集積回路として実現してもよい。
制御部17は、画像取得部171と、画像抽出部173と、領域抽出部175と、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
The control unit 17 controls the information processing device 1. Specifically, for example, a program stored in advance in the storage unit 15 is controlled by being executed by a CPU or GPU. In addition, a part or all of the control unit 17 may be realized as an integrated circuit of hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).
The control unit 17 includes an image acquisition unit 171, an image extraction unit 173, a region extraction unit 175, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.
画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。画像取得部171は、取得した路面の画像を表す情報を、画像抽出部173に出力する。 The image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 and the communication unit 13. The image acquisition unit 171 outputs information representing the acquired image of the road surface to the image extraction unit 173.
画像抽出部173は、画像取得部171から路面の画像を表す情報が入力されると、路面の画像に対して各種画像処理を行う。画像抽出部173は、例えば、路面の画像がエンコードされた動画像である場合には、各フレームを静止画像に変換する。また、画像抽出部173は、路面の画像を表す情報に含まれる路面の画像のメタデータを参照して、タイムスタンプ、位置情報などを抽出する。画像抽出部173は、取得した一連の路面の画像から、検査画像候補の特定、該検査画像候補の抽出等の処理を実行する。なお、画像抽出部173は、取得した一連の路面の画像から、路面損傷の有無を解析しない画像の特定、抽出等の処理を実行してもよい。 When information representing the image of the road surface is input from the image acquisition unit 171, the image extraction unit 173 performs various image processing on the image of the road surface. The image extraction unit 173 converts each frame into a still image, for example, when the image of the road surface is an encoded moving image. Further, the image extraction unit 173 extracts time stamps, position information, and the like by referring to the metadata of the road surface image included in the information representing the road surface image. The image extraction unit 173 executes processing such as identification of inspection image candidates and extraction of the inspection image candidates from the acquired series of road surface images. The image extraction unit 173 may execute processing such as identification and extraction of an image that does not analyze the presence or absence of road surface damage from the acquired series of road surface images.
領域抽出部175は、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。ここで複数の路面の画像間は、複数フレームの画像間のことである。領域抽出部175は、抽出した検査画像を表す情報および対応する位置情報を算出部177に出力する。
なお、領域抽出部175は、位置情報を用いずに、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出してもよい。この場合、例えば、ある検査画像候補と、該検査画像候補と連続する検査画像候補との対応点マッチングを用いればよい。
The area extraction unit 175 was extracted by the image extraction unit 173 based on the position information extracted from the metadata so that there is no overlapping road surface area between the images of the plurality of road surfaces and there is no missing road surface area. An inspection image is extracted from the inspection image candidates. Here, the space between the images of the plurality of road surfaces is the space between the images of the plurality of frames. The area extraction unit 175 outputs information representing the extracted inspection image and the corresponding position information to the calculation unit 177.
The area extraction unit 175 does not use the position information, and the inspection image extracted by the image extraction unit 173 so that there is no overlapping road surface area between the images of the plurality of road surfaces and there is no missing road surface area. An inspection image may be extracted from the candidates. In this case, for example, correspondence point matching between a certain inspection image candidate and a continuous inspection image candidate with the inspection image candidate may be used.
算出部177は、深層学習により検査画像中の路面の損傷を解析する。具体的には、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。算出部177は、算出した損傷度合と、位置情報とを出力部19に出力させる。 The calculation unit 177 analyzes the damage on the road surface in the inspection image by deep learning. Specifically, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, sets the inspection image in which the road surface damage is detected as "1", and detects the road surface damage. The inspection image that has not been performed is binarized as “0” to calculate the damage presence / absence information. The degree calculation unit 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the sum of the damage presence / absence information in the predetermined section, for example, the 20 m section by the number of inspection images in the predetermined section. The calculation unit 177 causes the output unit 19 to output the calculated damage degree and the position information.
なお、算出部177は、損傷度合を算出せずに損傷有無情報をそのまま出力部19に出力してもよい。
なお、算出部177は、算出した損傷度合を、複数の閾値と比較し、損傷度合がいずれの閾値の範囲内であるかを判定し、判定結果に応じて複数の損傷区分に分類してもよい。複数の損傷区分は、例えば、損傷の程度が小さい区分1、損傷の程度が中程度の区分2、損傷の度合いが大きい区分3などの段階的な区分であればよい。この場合、算出部177は、損傷度合を出力部19に出力させる代わりに、又は加えて、損傷区分を出力させてもよい。
The calculation unit 177 may output the damage presence / absence information to the output unit 19 as it is without calculating the damage degree.
The calculation unit 177 may compare the calculated damage degree with a plurality of threshold values, determine which threshold value the damage degree is within, and classify the damage degree into a plurality of damage categories according to the determination result. Good. The plurality of damage categories may be, for example, gradual categories such as category 1 having a small degree of damage, category 2 having a moderate degree of damage, and category 3 having a large degree of damage. In this case, the calculation unit 177 may output the damage classification instead of or in addition to outputting the damage degree to the output unit 19.
図8は、本発明の第1の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS101において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS103において、画像抽出部173は、画像取得部171から路面の画像を表す情報が入力されると、路面の画像に対して各種画像処理を行う。また、画像抽出部173は、路面の画像を表す情報に含まれる路面の画像のメタデータを参照して、タイムスタンプ、位置情報などを抽出する。画像抽出部173は、取得した一連の路面の画像から、検査画像候補の特定、該検査画像候補の抽出等の処理を実行する。
FIG. 8 is a flowchart showing an example of the damage degree calculation process according to the first embodiment of the present invention.
In step S101, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 and the communication unit 13.
In step S103, when the image extraction unit 173 inputs information representing the image of the road surface from the image acquisition unit 171, the image extraction unit 173 performs various image processing on the image of the road surface. Further, the image extraction unit 173 extracts time stamps, position information, and the like by referring to the metadata of the road surface image included in the information representing the road surface image. The image extraction unit 173 executes processing such as identification of inspection image candidates and extraction of the inspection image candidates from the acquired series of road surface images.
ステップS105において、領域抽出部175は、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で重複する路面の領域がなく、且つ欠落する路面の領域が無いように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。
ステップS107において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。
In step S105, the area extraction unit 175 is an image extraction unit so that there is no overlapping road surface area between the images of the plurality of road surfaces and there is no missing road surface area based on the position information extracted from the metadata. An inspection image is extracted from the inspection image candidates extracted by 173.
In step S107, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, sets the inspection image in which the road surface damage is detected as “1”, and the road surface damage is detected. The damage presence / absence information is calculated by binarizing the unchecked inspection image as “0”.
ステップS109において、度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。 In step S109, the degree calculation unit 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the sum of the damage presence / absence information in the predetermined section, for example, the 20 m section by the number of inspection images in the predetermined section.
このように、第1の実施形態による情報処理装置1は、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1 according to the first embodiment is based on the image acquisition unit 171 that acquires an image of the region including the surface captured by the image pickup apparatus and the image acquired by the image acquisition unit 171. It is provided with a calculation unit 177 for calculating the degree of damage of the above.
As a result, damage to the surface can be automatically detected and quantitative evaluation can be performed, so that convenience in automatic detection of damage to the building can be improved.
<第2の実施形態>
第2の実施形態では、複数の路面の画像間で領域の一部を重複させて検査画像を抽出する場合の一例について説明する。なお、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
<Second embodiment>
In the second embodiment, an example will be described in which an inspection image is extracted by overlapping a part of a region between images of a plurality of road surfaces. In the second embodiment, a part different from the first embodiment will be mainly described.
図9は、第2の実施形態に係る情報処理装置1Aの構成の一例を示す概略ブロック図である。
情報処理装置1Aは、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。制御部17は、画像取得部171と、画像抽出部173と、重複領域抽出部175Aと、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 9 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1A according to the second embodiment.
The information processing device 1A includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 includes an image acquisition unit 171, an image extraction unit 173, an overlapping region extraction unit 175A, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.
重複領域抽出部175Aは、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域と重複する路面の領域とのうちの少なくとも一部が重複するように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。換言すれば、重複領域抽出部175Aは、複数の路面の画像間において、時間的に路面の領域が重複するように検査画像候補の中から検査画像を抽出する。また、重複領域抽出部175Aが抽出する各検査画像は、複数の路面の画像間において、ある路面の画像の路面の領域の頂点部分や辺部分が他の路面の画像の路面の領域に含まれる。重複領域抽出部175Aは、抽出した検査画像を表す情報および対応する位置情報を算出部177に出力する。 The overlapping area extraction unit 175A is based on the position information extracted from the metadata, and is a road surface that overlaps the road surface area in the image of a certain road surface and the road surface area in the image of another road surface between the images of the plurality of road surfaces. The inspection image is extracted from the inspection image candidates extracted by the image extraction unit 173 so that at least a part of the region overlaps. In other words, the overlapping area extraction unit 175A extracts the inspection image from the inspection image candidates so that the road surface regions overlap in time between the images of the plurality of road surfaces. Further, in each inspection image extracted by the overlapping region extraction unit 175A, the apex portion and the side portion of the road surface region of the image of a certain road surface are included in the road surface region of the image of another road surface between the images of the plurality of road surfaces. .. The overlapping area extraction unit 175A outputs information representing the extracted inspection image and the corresponding position information to the calculation unit 177.
図10は、本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS201において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS203において、画像抽出部173は、後述する画像抽出処理を実行する。
ステップS205において、重複領域抽出部175Aは、メタデータから抽出した位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域と重複する路面の領域とのうちの少なくとも一部が重複するように、画像抽出部173が抽出した検査画像候補の中から検査画像を抽出する。
FIG. 10 is a flowchart showing an example of the damage degree calculation process according to the second embodiment of the present invention.
In step S201, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 and the communication unit 13.
In step S203, the image extraction unit 173 executes an image extraction process described later.
In step S205, the overlapping area extraction unit 175A sets the road surface area in the image of a certain road surface and the road surface area in the image of another road surface between the images of the plurality of road surfaces based on the position information extracted from the metadata. The inspection image is extracted from the inspection image candidates extracted by the image extraction unit 173 so that at least a part of the overlapping road surface areas overlaps.
ステップS207において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを判定し、路面の損傷が検出された検査画像を「1」、路面の損傷が検出されていない検査画像を「0」のように2値化して損傷有無情報を算出する。
ステップS209において、度合算出部1773は、損傷有無情報に基づいて損傷度合を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における損傷有無情報の総和を、該所定区間における検査画像数で除算することで損傷度合を算出する。
In step S207, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning, sets the inspection image in which the road surface damage is detected as “1”, and the road surface damage is detected. The damage presence / absence information is calculated by binarizing the unchecked inspection image as “0”.
In step S209, the degree calculation unit 1773 calculates the degree of damage based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the sum of the damage presence / absence information in the predetermined section, for example, the 20 m section by the number of inspection images in the predetermined section.
図11は、本発明の第2の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS301において、画像抽出部173は、フレームの路面の画像を選択する。具体的には、路面の画像が未選択の場合、画像抽出部173は、最初のフレームの路面の画像を選択する。一方、既にフレームを選択している場合、画像抽出部173は、選択中のフレームの次のフレームの路面の画像を選択する。
FIG. 11 is a flowchart showing an example of the damage degree calculation process according to the second embodiment of the present invention.
In step S301, the image extraction unit 173 selects an image of the road surface of the frame. Specifically, when the road surface image is not selected, the image extraction unit 173 selects the road surface image of the first frame. On the other hand, when the frame has already been selected, the image extraction unit 173 selects the image of the road surface of the frame next to the selected frame.
ステップS303において、画像抽出部173は、選択中のフレームの画像に対応する位置情報を参照し、1つ前のフレームに対応する位置情報からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称する。
ステップS305において、画像抽出部173は、算出した移動距離を、移動距離合計に加算する。移動距離合計は、画像抽出処理の開始時に初期化される。
In step S303, the image extraction unit 173 refers to the position information corresponding to the image of the selected frame, and calculates the moving distance from the position information corresponding to the previous frame. Hereinafter, this moving distance is referred to as "distance between images".
In step S305, the image extraction unit 173 adds the calculated movement distance to the total movement distance. The total travel distance is initialized at the start of the image extraction process.
ステップS307において、画像抽出部173は、移動距離合計と、所定設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS307;YES)、制御部17は、ステップS309の処理を実行する。一方、移動距離合計が設定距離に比して小さい場合(ステップS307;NO)、制御部17は、ステップS315に処理を実行する。 In step S307, the image extraction unit 173 compares the total movement distance with the predetermined set distance. When the total movement distance is larger than the set distance (step S307; YES), the control unit 17 executes the process of step S309. On the other hand, when the total movement distance is smaller than the set distance (step S307; NO), the control unit 17 executes the process in step S315.
ステップS309において、画像抽出部173は、移動距離合計を0に設定して初期化する。
ステップS311において、画像抽出部173は、選択中の画像を検査画像候補に設定する。
In step S309, the image extraction unit 173 initializes the total movement distance by setting it to 0.
In step S311 the image extraction unit 173 sets the selected image as an inspection image candidate.
ステップS313において、画像抽出部173は、次のフレームの路面の画像の有無を確認する。画像が存在する場合(ステップS313;YES)、制御部17、ステップS301の処理を実行する。画像が存在しない場合(ステップS313;NO)、制御部17は、ステップS315に処理を実行する。
ステップS315において、画像抽出部173は、検査画像候補を重複領域抽出部175Aに出力する。
In step S313, the image extraction unit 173 confirms the presence or absence of an image of the road surface of the next frame. When the image exists (step S313; YES), the process of the control unit 17 and step S301 is executed. If the image does not exist (step S313; NO), the control unit 17 executes the process in step S315.
In step S315, the image extraction unit 173 outputs the inspection image candidate to the overlap region extraction unit 175A.
なお、設定距離は、例えば、1つの検査画像における路面損傷の認識精度に応じて設定されてよい。また、例えば、1つの検査画像において、近傍だけでなく遠くに写る路面損傷を検出できる場合には、設定距離を大きくし、各検査画像に写る路面の重複を少なくしてよい。また、1つの検査画像において、遠くに写る路面損傷を検出不可能な場合には、設定距離を小さくし、各検査画像に写る路面の重複を多くしてよい。これにより、路面損傷の解析に要する負荷を低減しつつ、路面損傷の認識精度を維持することができる。 The set distance may be set according to, for example, the recognition accuracy of road surface damage in one inspection image. Further, for example, when it is possible to detect road surface damage not only in the vicinity but also in the distance in one inspection image, the set distance may be increased to reduce the overlap of the road surface in each inspection image. If it is not possible to detect damage to the road surface that appears in the distance in one inspection image, the set distance may be reduced and the road surface that appears in each inspection image may overlap more. As a result, it is possible to maintain the recognition accuracy of the road surface damage while reducing the load required for the analysis of the road surface damage.
このように、第2の実施形態による情報処理装置1Aは、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
また、算出部177は、画像取得部171が取得した連続する複数の画像の各々について、それぞれの画像中の面の損傷度合を算出する。また、情報処理装置1Aは、それぞれの画像中の面の状態を判定する状態判定部1771、をさらに備え、算出部177は、それぞれの画像中の面の状態に基づいて、それぞれの画像中の面の損傷度合を算出する。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1A according to the second embodiment is based on the image acquisition unit 171 that acquires an image of the region including the surface captured by the image pickup apparatus and the image acquired by the image acquisition unit 171. It is provided with a calculation unit 177 for calculating the degree of damage of the above.
In addition, the calculation unit 177 calculates the degree of damage to the surface in each of the plurality of consecutive images acquired by the image acquisition unit 171. Further, the information processing device 1A further includes a state determination unit 1771 that determines the state of the surface in each image, and the calculation unit 177 is based on the state of the surface in each image in each image. Calculate the degree of surface damage.
As a result, damage to the surface can be automatically detected and quantitative evaluation can be performed, so that convenience in automatic detection of damage to the building can be improved.
<第3の実施形態>
第3の実施形態では、1つの路面の画像内で複数の領域に分割し、該複数の領域のそれぞれが、該画像内の他の領域と一部が重複する場合の一例について説明する。なお、第3の実施形態では、第1の実施形態と異なる部分を中心に説明する。
<Third embodiment>
In the third embodiment, an example will be described in which the image of one road surface is divided into a plurality of regions, and each of the plurality of regions partially overlaps with other regions in the image. In the third embodiment, a part different from the first embodiment will be mainly described.
図12は、本発明の第3の実施形態に係る情報処理装置1Bの構成の一例を示す概略ブロック図である。
情報処理装置1Bは、入力部10と、通信部13と、記憶部15と、制御部17と、出力部19と、を含んで構成される。
制御部17は、画像取得部171と、画像抽出部173と、部分画像抽出部175Bと、算出部177と、を含んで構成される。算出部177は、状態判定部1771と、度合算出部1773と、を含んで構成される。
FIG. 12 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1B according to the third embodiment of the present invention.
The information processing device 1B includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19.
The control unit 17 includes an image acquisition unit 171, an image extraction unit 173, a partial image extraction unit 175B, and a calculation unit 177. The calculation unit 177 includes a state determination unit 1771 and a degree calculation unit 1773.
部分画像抽出部175Bは、メタデータから抽出した位置情報に基づいて、それぞれの検査画像候補から互いに一部が重複する複数の路面の領域を抽出する。換言すれば、部分画像抽出部175Bは、ある検査画像候補内で路面を含む複数の領域を抽出し、該複数の領域のそれぞれは、ある領域の頂点部や辺部が他の領域に含まれる。部分画像抽出部175Bは、複数の領域を抽出した検査画像候補を、検査画像として特定し、検査画像を表す情報、および検査画像候補から抽出された複数の領域を表す領域情報と、位置情報とを算出部177に出力する。 The partial image extraction unit 175B extracts a plurality of road surface regions that partially overlap each other from each inspection image candidate based on the position information extracted from the metadata. In other words, the partial image extraction unit 175B extracts a plurality of regions including the road surface in a certain inspection image candidate, and each of the plurality of regions includes the apex portion and the side portion of the certain region in the other region. .. The partial image extraction unit 175B identifies the inspection image candidate obtained by extracting a plurality of regions as an inspection image, and represents information representing the inspection image, region information representing a plurality of regions extracted from the inspection image candidate, and position information. Is output to the calculation unit 177.
算出部177は、深層学習により検査画像中の路面の損傷を解析する。具体的には、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを複数の領域のそれぞれで判定して判定スコア(確信度)の値を算出する。
度合算出部1773は、損傷有無情報に基づいて損傷度合、例えば、ひび割れ率を算出する。具体的には、度合算出部1773は、所定区間、例えば20m区間における判定スコアの値の総和を、該所定区間における検査画像中の領域数で除算することで損傷度合を算出する。算出部177は、算出した損傷度合と、位置情報とを出力部19に出力させる。ここで、移動距離が所定区間に満たない場合、算出部177は、検査画像毎に損傷度合を算出する。
The calculation unit 177 analyzes the damage on the road surface in the inspection image by deep learning. Specifically, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning in each of the plurality of regions, and calculates the value of the determination score (confidence).
The degree calculation unit 1773 calculates the degree of damage, for example, the crack rate based on the damage presence / absence information. Specifically, the degree calculation unit 1773 calculates the degree of damage by dividing the sum of the judgment score values in the predetermined section, for example, the 20 m section by the number of regions in the inspection image in the predetermined section. The calculation unit 177 causes the output unit 19 to output the calculated damage degree and the position information. Here, when the moving distance is less than the predetermined section, the calculation unit 177 calculates the degree of damage for each inspection image.
なお、算出部177は、算出した判定スコアの値と所定閾値とを比較してもよく、例えば、判定スコアの値が所定閾値以上であるときは「1」、判定スコアの値が所定閾値未満であるときは「0」のように2値化してもよい。また、判定スコアの値が所定閾値以下であるときは、判定スコアの値を「0」としてもよい。 The calculation unit 177 may compare the calculated value of the determination score with the predetermined threshold value. For example, when the value of the determination score is equal to or greater than the predetermined threshold value, it is "1", and the value of the determination score is less than the predetermined threshold value. When is, it may be binarized like "0". Further, when the value of the determination score is equal to or less than the predetermined threshold value, the value of the determination score may be set to "0".
図13は、本発明の第3の実施形態に係る損傷度合算出処理の一例を示すフローチャートである。
ステップS401において、画像取得部171は、入力部10や通信部13を介して、1または複数の路面の画像を取得する。
ステップS403において、画像抽出部173は、後述する画像抽出処理を実行する。
ステップS405において、部分画像抽出部175Bは、メタデータから抽出した位置情報に基づいて、それぞれの検査画像候補から互いに一部が重複する複数の路面の領域を抽出する。部分画像抽出部175Bは、複数の領域を抽出した検査画像候補を、検査画像として特定し、検査画像を表す情報、および検査画像候補から抽出された複数の領域を表す領域情報と、位置情報とを算出部177に出力する。
FIG. 13 is a flowchart showing an example of the damage degree calculation process according to the third embodiment of the present invention.
In step S401, the image acquisition unit 171 acquires an image of one or more road surfaces via the input unit 10 and the communication unit 13.
In step S403, the image extraction unit 173 executes an image extraction process described later.
In step S405, the partial image extraction unit 175B extracts a plurality of road surface regions that partially overlap each other from the respective inspection image candidates based on the position information extracted from the metadata. The partial image extraction unit 175B identifies the inspection image candidate obtained by extracting a plurality of regions as an inspection image, and represents information representing the inspection image, region information representing a plurality of regions extracted from the inspection image candidate, and position information. Is output to the calculation unit 177.
ステップS407において、状態判定部1771は、深層学習により各検査画像中の路面に損傷があるか否かを複数の領域のそれぞれで判定して判定スコア(確信度)の値を算出する。
ステップS409において、所定区間、例えば20m区間における判定スコアの値の総和を、該所定区間における検査画像中の領域数で除算することで損傷度合を算出する。
In step S407, the state determination unit 1771 determines whether or not the road surface in each inspection image is damaged by deep learning in each of the plurality of regions, and calculates the value of the determination score (confidence).
In step S409, the degree of damage is calculated by dividing the sum of the judgment score values in the predetermined section, for example, the 20 m section by the number of regions in the inspection image in the predetermined section.
図14は、本発明の第3の実施形態に係る損傷度合の算出処理の一例を示すフローチャートである。
ステップS501において、画像抽出部173は、フレームの路面の画像を選択する。具体的には、路面の画像が未選択の場合、画像抽出部173は、最初のフレームの路面の画像を選択する。一方、既にフレームを選択している場合、画像抽出部173は、選択中のフレームの次のフレームの路面の画像を選択する。
FIG. 14 is a flowchart showing an example of the damage degree calculation process according to the third embodiment of the present invention.
In step S501, the image extraction unit 173 selects an image of the road surface of the frame. Specifically, when the road surface image is not selected, the image extraction unit 173 selects the road surface image of the first frame. On the other hand, when the frame has already been selected, the image extraction unit 173 selects the image of the road surface of the frame next to the selected frame.
ステップS503において、画像抽出部173は、選択中のフレームの画像に対応する位置情報を参照し、1つ前のフレームに対応する位置情報からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称する。
ステップS505において、画像抽出部173は、算出した移動距離を、移動距離合計に加算する。移動距離合計は、画像抽出処理の開始時に初期化される。
In step S503, the image extraction unit 173 refers to the position information corresponding to the image of the selected frame, and calculates the moving distance from the position information corresponding to the previous frame. Hereinafter, this moving distance is referred to as "distance between images".
In step S505, the image extraction unit 173 adds the calculated movement distance to the total movement distance. The total travel distance is initialized at the start of the image extraction process.
ステップS507において、画像抽出部173は、移動距離合計と、所定設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS507;YES)、制御部17は、ステップS509の処理を実行する。一方、移動距離合計が設定距離に比して小さい場合(ステップS507;NO)、制御部17は、ステップS515に処理を実行する。 In step S507, the image extraction unit 173 compares the total movement distance with the predetermined set distance. When the total movement distance is larger than the set distance (step S507; YES), the control unit 17 executes the process of step S509. On the other hand, when the total movement distance is smaller than the set distance (step S507; NO), the control unit 17 executes the process in step S515.
ステップS509において、画像抽出部173は、移動距離合計を0に設定して初期化する。
ステップS511において、画像抽出部173は、選択中の画像を検査画像候補に設定する。
In step S509, the image extraction unit 173 initializes the total movement distance by setting it to 0.
In step S511, the image extraction unit 173 sets the selected image as an inspection image candidate.
ステップS513において、画像抽出部173は、次のフレームの路面の画像の有無を確認する。画像が存在する場合(ステップS513;YES)、制御部17、ステップS501の処理を実行する。画像が存在しない場合(ステップS513;NO)、制御部17は、ステップS515に処理を実行する。
ステップS515において、画像抽出部173は、検査画像候補と、領域情報とを部分画像抽出部175Bに出力する。
In step S513, the image extraction unit 173 confirms the presence or absence of an image of the road surface of the next frame. When the image exists (step S513; YES), the process of the control unit 17 and step S501 is executed. If the image does not exist (step S513; NO), the control unit 17 executes the process in step S515.
In step S515, the image extraction unit 173 outputs the inspection image candidate and the area information to the partial image extraction unit 175B.
このように、第3の実施形態による情報処理装置1Bは、撮像装置で撮影された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、を備える。
情報処理装置1Bは、画像取得部171が取得した画像を分割し、画像の一部分である部分画像を複数生成する部分画像生成部(部分画像抽出部175B)、をさらに備え、算出部177は、部分画像生成部(部分画像抽出部175B)が生成した部分画像の各々について、部分画像中の面の損傷度合を算出する。
情報処理装置1Bは、部分画像生成部(部分画像抽出部175B)が生成した部分画像の各々について、部分画像中の面の状態を判定する状態判定部1771、をさらに備え、算出部177は、部分画像中の面の状態に基づいて、部分画像中の面の損傷度合を算出する。
部分画像生成部(部分画像抽出部175B)は、画像取得部171が取得した画像内において、画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分または辺部分を含む第2部分画像と、を生成する。
これにより、面の損傷を自動検出するとともに、定量的な評価ができるため、建造物の損傷の自動検出の際の利便性を向上させることができる。
As described above, the information processing apparatus 1B according to the third embodiment is based on the image acquisition unit 171 that acquires an image of the region including the surface captured by the image pickup apparatus and the image acquired by the image acquisition unit 171. It is provided with a calculation unit 177 for calculating the degree of damage of the above.
The information processing device 1B further includes a partial image generation unit (partial image extraction unit 175B) that divides the image acquired by the image acquisition unit 171 and generates a plurality of partial images that are a part of the image, and the calculation unit 177 includes a calculation unit 177. For each of the partial images generated by the partial image generation unit (partial image extraction unit 175B), the degree of damage to the surface in the partial image is calculated.
The information processing device 1B further includes a state determination unit 1771 that determines the state of a surface in the partial image for each of the partial images generated by the partial image generation unit (partial image extraction unit 175B), and the calculation unit 177 includes a calculation unit 177. The degree of damage to the surface in the partial image is calculated based on the state of the surface in the partial image.
The partial image generation unit (partial image extraction unit 175B) divides the image in the image acquired by the image acquisition unit 171 and divides the divided first partial image and the apex portion or side portion of the first partial image. A second partial image, including, is generated.
As a result, damage to the surface can be automatically detected and quantitative evaluation can be performed, so that convenience in automatic detection of damage to the building can be improved.
なお、状態判定部1771は、損傷種別に応じた損傷クラスを算出してもよい。具体的には、例えば、亀甲状ひび割れや複数本の線状ひび割れなどの面状ひび割れを、損傷クラス「1」、縦断ひび割れ、横断ひび割れなどの単数の線状ひび割れを、損傷クラス「0.6」、ひび割れなどの損傷がない損傷クラスを、損傷クラス「0」のように機械学習により領域ごとの損傷クラスを算出してもよい。この場合、第3の実施形態における判定スコアの値の代わりに、損傷クラスの値を用いて損傷度合を算出すればよい。 The state determination unit 1771 may calculate the damage class according to the damage type. Specifically, for example, planar cracks such as turtle shell-shaped cracks and multiple linear cracks, single linear cracks such as damage class "1", longitudinal cracks, and transverse cracks, damage class "0.6" , The damage class without damage such as cracks may be calculated for each region by machine learning as in the damage class "0". In this case, the degree of damage may be calculated using the value of the damage class instead of the value of the determination score in the third embodiment.
なお、損傷度合がひび割れ率の一例について説明したが、損傷度合は、轍掘れ量であってもよい。また、損傷度合は、ひび割れ率や轍掘れ量の他、損傷区分であってもよい。 Although the degree of damage has been described as an example of the crack rate, the degree of damage may be the amount of rut digging. In addition, the degree of damage may be a damage category in addition to the crack rate and the amount of rut digging.
<第4の実施形態>
第1の実施形態から第3の実施形態では、損傷度合を算出する場合の一例について説明した。
第4の実施形態では、損傷の種別を判定する場合の一例について説明する。ここで、第4の実施形態では、第1の実施形態、第2の実施形態、第3の実施形態、各変形例と異なる部分を中心に説明する。
ここで、路面を修繕するときには、路面の損傷の種別に応じて、修繕に係る作業工程、作業日数、費用等が変わる。そのため、路面の損傷の種別が検出できれば、すなわち、路面の状態を評価できれば、これらの見積りが可能となり、ユーザの利便性を向上させることができる。
<Fourth Embodiment>
In the first to third embodiments, an example of calculating the degree of damage has been described.
In the fourth embodiment, an example of determining the type of damage will be described. Here, in the fourth embodiment, the first embodiment, the second embodiment, the third embodiment, and the parts different from each modification will be mainly described.
Here, when repairing the road surface, the work process, the number of working days, the cost, etc. related to the repair change depending on the type of damage to the road surface. Therefore, if the type of damage to the road surface can be detected, that is, if the state of the road surface can be evaluated, these estimates can be made, and the convenience of the user can be improved.
なお、以下の説明では、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、状態判定部1771が路面の領域ごとの判定スコアの値、損傷クラスの値、損傷有無情報のいずれかを損傷スコアとして算出した場合の一例について説明する。
また、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、度合算出部1773が算出した損傷度合を、損傷スコアとして用いてもよい。この場合、損傷度合を算出した所定区間の路面を、1つの路面の領域として扱ってもよいし、所定区間を短い区間として該短い所定区間の路面を1つの路面の領域として扱ってもよい。
In the following description, the state determination unit 1771 is a road surface by combining the first embodiment, the second embodiment, the third embodiment, the contents described in each modification, or a part or all of them. An example will be described when any one of the judgment score value, the damage class value, and the damage presence / absence information for each area is calculated as the damage score.
In addition, the degree of damage calculated by the degree calculation unit 1773 by combining the first embodiment, the second embodiment, the third embodiment, the contents described in each modification, or a part or all of them. It may be used as an injury score. In this case, the road surface of the predetermined section for which the degree of damage has been calculated may be treated as one road surface area, or the predetermined section may be treated as a short section and the road surface of the short predetermined section may be treated as one road surface area.
第4の実施形態では、複数の路面の領域と、それぞれの領域における損傷スコアとの分布に基づいて、路面の損傷の種別を判定する。路面の損傷の種別は、例えば、縦断ひび割れ、横断ひび割れ、亀甲状ひび割れ、縦断ひび割れかつ轍掘れ、施工継目、くぼみ、全体的にまばらに存在する損傷などである。図15から図22を参照して説明する。 In the fourth embodiment, the type of road surface damage is determined based on the distribution of the plurality of road surface regions and the damage scores in each region. Types of road surface damage include, for example, longitudinal cracks, transverse cracks, hexagonal cracks, longitudinal cracks and ruts, construction seams, dents, and overall sparse damage. This will be described with reference to FIGS. 15 to 22.
図15は、本発明の第4の実施形態に係る路面の損傷種別の一例を示す図である。図16は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図17は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図18は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図19は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図20は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図21は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。図22は、本発明の第4の実施形態に係る路面の損傷種別の他の一例を示す図である。
ここで、各図は、路面の一部を表したものであり、各図におけるマス目、すなわち路面の領域数が多い方向が走行方向、路面の領域数が少ない方向が幅員方向である。
FIG. 15 is a diagram showing an example of a road surface damage type according to a fourth embodiment of the present invention. FIG. 16 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 17 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 18 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 19 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 20 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 21 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention. FIG. 22 is a diagram showing another example of the road surface damage type according to the fourth embodiment of the present invention.
Here, each figure represents a part of the road surface, and the squares in each figure, that is, the direction in which the number of road surface areas is large is the traveling direction, and the direction in which the number of road surface areas is small is the width direction.
図15に図示する例は、縦断ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦断している。図16に図示する例は、横断ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが横断している。図17に図示する例は、亀甲状ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦横格子状、すなわち亀甲状に発生している。図18に図示する例は、縦断ひび割れかつ轍掘れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが複数本縦断し、また、複数本縦断するひび割れが略平行に発生している。図19に図示する例は、施工継ぎ目である。図示する実線は、施工によって生じた継ぎ目を表し、ハッチで示す複数の領域に渡って、例えば縦断ひび割れよりも多くの領域に渡って継ぎ目が発生している。 The example illustrated in FIG. 15 is a longitudinal crack. The solid line shown represents a crack, and the crack runs through a plurality of regions indicated by hatches. The example illustrated in FIG. 16 is a transverse crack. The solid line shown represents a crack, and the crack traverses a plurality of regions indicated by hatches. The example illustrated in FIG. 17 is a hexagonal crack. The solid line shown represents cracks, and the cracks occur in a vertical and horizontal grid pattern, that is, a hexagonal pattern over a plurality of regions indicated by hatches. The example illustrated in FIG. 18 is a longitudinal crack and rut. The solid line shown in the figure represents a crack, and a plurality of cracks are vertically traversed over a plurality of regions indicated by hatches, and a plurality of vertically traversing cracks are generated substantially in parallel. The example illustrated in FIG. 19 is a construction seam. The solid line shown represents the seam created by the construction, and the seam is generated over a plurality of regions indicated by the hatch, for example, over more regions than the longitudinal cracks.
図20に図示する例は、くぼみである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡って口の字状にひび割れが発生している。図21に図示する例は、全体にまばらに存在する損傷である。図示する実線は、ひび割れなどの損傷を表し、ハッチで示す複数の領域でかつ所定区間にまばらに発生している。図22に図示する例は、亀甲状ひび割れである。図示する実線は、ひび割れを表し、ハッチで示す複数の領域に渡ってひび割れが縦横格子状、すなわち亀甲状に発生している。ここで、図22に示す2種のハッチは、損傷スコアが第1所定値以上第2所定値未満である領域と、第2所定値以上である領域である。ハッチ中央部分は、損傷スコアが高い領域、すなわち損傷スコアが第2所定値以上である領域である。図22に図示する例の場合、損傷スコアとして判定スコアの値、または損傷クラスの値を用いればよい。 The example illustrated in FIG. 20 is a depression. The solid line shown in the figure represents a crack, and the crack is generated in the shape of a mouth over a plurality of regions indicated by the hatch. The example illustrated in FIG. 21 is an overall sparsely present damage. The solid line shown represents damage such as cracks, and occurs sparsely in a plurality of regions indicated by hatches and in predetermined sections. The example illustrated in FIG. 22 is a hexagonal crack. The solid line shown represents cracks, and the cracks occur in a vertical and horizontal grid pattern, that is, a hexagonal pattern over a plurality of regions indicated by hatches. Here, the two types of hatches shown in FIG. 22 are a region in which the damage score is equal to or more than the first predetermined value and less than the second predetermined value, and a region in which the damage score is equal to or greater than the second predetermined value. The central portion of the hatch is a region where the damage score is high, that is, a region where the damage score is equal to or higher than the second predetermined value. In the case of the example shown in FIG. 22, the value of the determination score or the value of the damage class may be used as the damage score.
情報処理装置1Cは、図18から図22に示すような路面の損傷の種別を、路面の領域ごとの損傷スコアおよび損傷スコアが所定値以上である領域の分布に応じて分類判定する。 The information processing device 1C classifies and determines the types of road surface damage as shown in FIGS. 18 to 22 according to the damage score for each road surface area and the distribution of the area where the damage score is equal to or higher than a predetermined value.
図23は、本発明の第4の実施形態に係る情報処理装置1Cの構成の一例を示す概略ブロック図である。
情報処理装置1Cは、入力部10と、通信部13と、記憶部15と、制御部17と出力部19と、を含んで構成される。制御部17は、損傷スコア算出部177Cと、分類部179と、を含んで構成される。分類部179は、統合部1791と、分類判定部1793と、を含んで構成される。
FIG. 23 is a schematic block diagram showing an example of the configuration of the information processing apparatus 1C according to the fourth embodiment of the present invention.
The information processing device 1C includes an input unit 10, a communication unit 13, a storage unit 15, a control unit 17, and an output unit 19. The control unit 17 includes a damage score calculation unit 177C and a classification unit 179. The classification unit 179 includes an integration unit 1791 and a classification determination unit 1793.
損傷スコア算出部177Cは、上述した情報処理装置1、1A、1Bの制御部17の一部または全部の機能を有し、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、損傷スコアを算出する。具体的な説明は、上述した各実施形態、各変形例の説明を援用し、記載を省略する。
損傷スコア算出部177Cは、算出した損傷スコアと、該損傷スコアに対応する路面の領域の情報とを、分類部179に出力する。
The damage score calculation unit 177C has a part or all of the functions of the control units 17 of the information processing devices 1, 1A and 1B described above, and has the first embodiment, the second embodiment, and the third embodiment. The damage score is calculated by combining the contents described in each modification or a part or all of them. For the specific description, the description of each embodiment and each modification described above will be incorporated, and the description will be omitted.
The damage score calculation unit 177C outputs the calculated damage score and the information of the road surface area corresponding to the damage score to the classification unit 179.
分類部179は、各メッシュの損傷スコアの分布に応じて路面の損傷種別を分類する。具体的には、統合部1791は、メッシュ毎の損傷スコアを算出する。 The classification unit 179 classifies the damage type of the road surface according to the distribution of the damage score of each mesh. Specifically, the integration unit 1791 calculates the damage score for each mesh.
分類判定部1793は、所定区間における領域ごとの損傷スコアの分布と既知の損傷種別毎の損傷の分布を比較して損傷の種別を判定する。具体的には、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば3つ以上縦方向に連続して分布する場合、縦断ひび割れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば3つ以上横方向に連続して分布する場合、横断ひび割れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば2つ以上、縦方向に連続し、かつ所定値以上の損傷スコアの領域が所定数、例えば2つ以上、横方向に連続して分布する場合、亀甲状ひび割れと判定する。 The classification determination unit 1793 determines the type of damage by comparing the distribution of damage scores for each region in a predetermined section with the distribution of damage for each known damage type. Specifically, the classification determination unit 1793 determines, for example, a longitudinal crack when a predetermined number, for example, three or more regions having a damage score of a predetermined value or more are continuously distributed in the vertical direction. Further, the classification determination unit 1793 determines, for example, a transverse crack when a predetermined number, for example, three or more regions having a damage score of a predetermined value or more are continuously distributed in the lateral direction. In addition, the classification determination unit 1793 has, for example, a predetermined number of damage score regions having a predetermined value or more, for example, two or more regions, which are continuous in the vertical direction and have a predetermined number or more damage score regions, for example, two or more regions. , If it is continuously distributed in the lateral direction, it is judged to be a hexagonal crack.
また、分類判定部1793は、例えば、複数の縦断ひび割れが平行して分布する場合、縦断ひび割れかつ轍掘れと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば6つ以上縦方向に連続して分布する場合、施工継ぎ目と判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、例えば2つ以上、縦方向に連続し、かつ所定値以上の損傷スコアの領域が所定数、例えば2つ以上、横方向に連続して分布し、口の字状に分布する場合、くぼみと判定する。また、分類判定部1793は、例えば、所定値以上の損傷スコアの領域が所定数、まばらに分布する場合、全体的にまばらに存在する損傷と判定する。 Further, the classification determination unit 1793 determines, for example, that when a plurality of longitudinal cracks are distributed in parallel, it is determined to be longitudinal cracks and ruts. Further, the classification determination unit 1793 determines, for example, a construction seam when a predetermined number of areas having a damage score of a predetermined value or more, for example, six or more areas are continuously distributed in the vertical direction. Further, in the classification determination unit 1793, for example, there are a predetermined number of areas with damage scores of a predetermined value or more, for example, two or more, and there are a predetermined number of areas having a damage score of a predetermined value or more, for example, two or more. , If it is continuously distributed in the horizontal direction and distributed in the shape of a mouth, it is judged as a depression. Further, the classification determination unit 1793 determines that, for example, when a predetermined number of areas having a damage score equal to or higher than a predetermined value are sparsely distributed, the damage is sparsely present as a whole.
このように、分類判定部1793は、所定区間における損傷スコアの領域の分布に応じて路面の損傷の種別を判定する。分類判定部1793は、判定結果を出力部19に出力する。 In this way, the classification determination unit 1793 determines the type of road surface damage according to the distribution of the damage score region in the predetermined section. The classification determination unit 1793 outputs the determination result to the output unit 19.
なお、分類判定部1793が損傷の種別の判定に用いる所定値は、同じ値であってもよいし、それぞれ異なる値であってもよい。
なお、統合部1791は、各領域の情報に含まれる領域の位置情報に応じて、判定対象の路面の位置と領域とを対応付けを行わなくてもよい。すなわち、統合部1791は、位置情報を用いなくてもよい。この場合、分類部179として統合部1791、分類判定部1793の処理を行えばよい。例えば、分類部179は、路面の領域の情報に含まれる各領域の情報と、各領域の損傷スコアとを統合し、路面の各領域と各損傷スコアとを対応付けて、上述の分類判定部1793の処理を行えばよい。
The predetermined values used by the classification determination unit 1793 for determining the type of damage may be the same value or different values.
It should be noted that the integration unit 1791 does not have to associate the position of the road surface to be determined with the area according to the position information of the area included in the information of each area. That is, the integration unit 1791 does not have to use the position information. In this case, the classification unit 179 may be processed by the integration unit 1791 and the classification determination unit 1793. For example, the classification unit 179 integrates the information of each area included in the information of the road surface area and the damage score of each area, associates each area of the road surface with each damage score, and describes the above-mentioned classification determination unit. The process of 1793 may be performed.
図24は、本発明の第4の実施形態に係る損傷種別判定処理の一例を示すフローチャートである。
ステップS601において、損傷スコア算出部177Cは、上述した情報処理装置1、1A、1Bの制御部17の一部または全部の機能を有し、第1の実施形態、第2の実施形態、第3の実施形態、各変形例で説明した内容、またはこれらの一部または全部を組み合わせて、損傷スコアを算出する。
ステップS603において、分類部179は、路面の領域の情報に含まれる各領域の情報と、各領域の損傷スコアとを統合する。
ステップS605において、分類部179は、所定区間における領域ごとの損傷スコアの分布に応じて複数の路面の損傷種別のうちのいずれの損傷の種別であるかを判定する。また、分布による判定は、上述したように既知の分布に基づくルールベースで行っても良いし、分布の教師データに基づく深層学習で行っても良い。
FIG. 24 is a flowchart showing an example of the damage type determination process according to the fourth embodiment of the present invention.
In step S601, the damage score calculation unit 177C has a part or all of the functions of the control units 17 of the information processing devices 1, 1A, and 1B described above, and has the functions of the first embodiment, the second embodiment, and the third. The damage score is calculated by combining the embodiments of the above, the contents described in each modification, or a part or all of them.
In step S603, the classification unit 179 integrates the information of each region included in the information of the region of the road surface and the damage score of each region.
In step S605, the classification unit 179 determines which of the damage types of the plurality of road surfaces is the damage type according to the distribution of the damage score for each region in the predetermined section. Further, the determination based on the distribution may be performed based on a rule based on a known distribution as described above, or may be performed by deep learning based on the teacher data of the distribution.
このように、第4の実施形態によれば、情報処理装置1Cは、撮像装置で撮像された面を含む領域の画像を取得する画像取得部171と、画像取得部171が取得した画像に基づいて、面の損傷度合を算出する算出部177と、算出部177が算出した損傷度合に応じて面の損傷種別を判定する種別判定部(分類判定部1793)と、を備える。
また、情報処理装置1Cは、画像取得部171が取得した画像を分割し、画像の一部分である部分画像を複数生成する部分画像生成部(部分画像抽出部175B)、をさらに備え、種別判定部(分類判定部1793)は、部分画像生成部(部分画像抽出部175B)が抽出した部分画像中の面の損傷度合に基づいて、面の前記損傷種別を判定する。
As described above, according to the fourth embodiment, the information processing apparatus 1C is based on the image acquisition unit 171 that acquires an image of the region including the surface imaged by the image pickup apparatus and the image acquired by the image acquisition unit 171. A calculation unit 177 for calculating the degree of damage to the surface and a type determination unit (classification determination unit 1793) for determining the type of damage to the surface according to the degree of damage calculated by the calculation unit 177 are provided.
Further, the information processing device 1C further includes a partial image generation unit (partial image extraction unit 175B) that divides the image acquired by the image acquisition unit 171 and generates a plurality of partial images that are a part of the image, and is a type determination unit. (Classification determination unit 1793) determines the damage type of the surface based on the degree of damage to the surface in the partial image extracted by the partial image generation unit (partial image extraction unit 175B).
また、種別判定部(分類判定部1793)は、損傷度合が所定値以上である部分画像の分布に基づいて、面の前記損傷種別を判定する。
また、種別判定部(分類判定部1793)は、1つの画像から生成された複数の部分画像の各々の中の面の損傷度合を統合して、面の損傷種別を判定する。
また、種別判定部(分類判定部1793)は、画像取得部171が取得した連続する複数の画像のそれぞれの前記画像中の面の損傷度合に基づいて、面の損傷種別を判定する。
また、種別判定部(分類判定部1793)は、損傷度合が所定値以上である複数の画像の分布に基づいて、面の前記損傷種別を判定する。
また、種別判定部(分類判定部1793)は、連続する複数の画像におけるぞれぞれの画像中の面の損傷度合を統合して、面の損傷種別を判定する。
また、算出部177は、深層学習により損傷度合を算出する。
Further, the type determination unit (classification determination unit 1793) determines the damage type of the surface based on the distribution of the partial images in which the degree of damage is equal to or higher than a predetermined value.
In addition, the type determination unit (classification determination unit 1793) integrates the degree of damage to the surface in each of the plurality of partial images generated from one image to determine the damage type of the surface.
Further, the type determination unit (classification determination unit 1793) determines the damage type of the surface based on the degree of damage to the surface in each of the plurality of consecutive images acquired by the image acquisition unit 171.
Further, the type determination unit (classification determination unit 1793) determines the damage type of the surface based on the distribution of a plurality of images whose damage degree is equal to or higher than a predetermined value.
Further, the type determination unit (classification determination unit 1793) determines the damage type of the surface by integrating the degree of damage to the surface in each of the plurality of consecutive images.
In addition, the calculation unit 177 calculates the degree of damage by deep learning.
これにより、いずれの損傷であるかを分類することができるため、ユーザの利便性を向上させることができる。 As a result, it is possible to classify which damage is caused, so that the convenience of the user can be improved.
なお、上記各実施形態、各変形例において、位置情報と、路面の損傷種別または/および路面の損傷度合とを対応付けて、例えば地図上に出力してもよいし、位置情報と、路面の損傷種別または/および路面の損傷度合とを対応付けて、リストで出力してもよい。 In each of the above embodiments and modifications, the position information may be associated with the road surface damage type and / or the road surface damage degree and output on a map, for example, or the position information and the road surface may be output. The damage type and / and the degree of damage to the road surface may be associated and output as a list.
なお、上記各実施形態、各変形例において、判定スコアの値に、判定クラスの値を重みとして乗算させて、損傷スコアとして用いたり、損傷度合を算出したりしてもよい。 In each of the above-described embodiments and modifications, the value of the determination score may be multiplied by the value of the determination class as a weight to be used as the damage score, or the degree of damage may be calculated.
なお、上記各実施形態、各変形例において、損傷度合として轍掘れ量を用いる場合は、轍掘れの深さを深層学習によって算出してもよい。 When the amount of rut digging is used as the degree of damage in each of the above embodiments and modifications, the depth of rut digging may be calculated by deep learning.
なお、各実施形態、各変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。 Although each embodiment and each modification have been described, the present invention is not limited to these examples, and for example, any one of each embodiment or each modification, a part of each embodiment, or each modification One aspect of the present invention may be realized by combining a part with another one or more embodiments or another one or more modifications.
なお、本実施形態における情報処理装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、情報処理装置1に係る上述した種々の処理を行ってもよい。 The program for executing each process of the information processing apparatus 1 in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read and executed by the computer system. Therefore, the above-mentioned various processes related to the information processing apparatus 1 may be performed.
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。 The "computer system" here may include hardware such as an OS and peripheral devices. In addition, the "computer system" includes a homepage providing environment (or display environment) if a WWW system is used. The "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a CD-ROM, and a hard disk built in a computer system. It refers to the storage device of.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。 Further, the "computer-readable recording medium" is a volatile memory (for example, DRAM (Dynamic)) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold the program for a certain period of time, such as Random Access Memory)). Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design within a range not deviating from the gist of the present invention is also included.
sys 情報処理システム
1、1A、1B、1C 情報処理装置
10 入力部
13 通信部
15 記憶部
17 制御部
171 画像取得部
173 画像抽出部
175 領域抽出部
175A 重複領域抽出部
175B 部分画像抽出部
177 算出部
1771 状態判定部
1773 度合算出部
177C 損傷スコア算出部
179 分類部
1791 統合部
1793 分類判定部
19 出力部
systems Information processing system 1, 1A, 1B, 1C Information processing device 10 Input unit 13 Communication unit 15 Storage unit 17 Control unit 171 Image acquisition unit 173 Image extraction unit 175 Area extraction unit 175A Overlapping area extraction unit 175B Partial image extraction unit 177 Calculation Unit 1771 Condition determination unit 177 Degree calculation unit 177C Damage score calculation unit 179 Classification unit 1791 Integration unit 1793 Classification determination unit 19 Output unit
Claims (5)
複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、
前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定部と、
前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出部と、
前記算出部が算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定部と、を備え、
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、
前記種別判定部は、複数の路面の領域において、前記算出部が算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、
情報処理装置。 An image acquisition unit that acquires an image of an area including the captured road surface in the image pickup device,
Select multiple images, compare the distance between images, which is the distance of the position information corresponding to each selected image, with the predetermined set distance, and select if the distance between images is larger than the set distance. An image extraction unit that sets the image inside as an inspection image candidate and does not set the selected image as an inspection image candidate when the distance between images is smaller than the set distance.
Based on the position information corresponding to the inspection image candidate, at least a part of the road surface area in the image of one road surface and the road surface area in the image of another road surface overlap between the images of the plurality of road surfaces. , An overlapping area extraction unit that extracts an inspection image from the inspection image candidates extracted by the image extraction unit,
And wherein each for the overlapping area checking image extracted by the extraction section, the inspection of the condition of the road surface is judged state determining section in the image,
For each of the test image, a calculation unit based on the state of the road surface in the inspection image, and calculates the degree of damage of the road surface in the inspection image,
And a type determination unit determines the damage type of the road surface in accordance with the degree of damage that the calculation unit is calculated,
The predetermined set distance is
The higher the recognition accuracy of road surface damage in one inspection image, the larger the setting, so that the overlap of the road surface reflected in each inspection image is reduced.
The lower the recognition accuracy of road surface damage in one inspection image, the smaller the setting, which increases the overlap of the road surface in each inspection image.
In a plurality of road surface regions, the type determination unit includes a continuous number of regions in which the degree of damage calculated by the calculation unit is equal to or higher than a predetermined value, directions between regions in which the degree of continuous damage is equal to or higher than a predetermined value, and a plurality of regions. The damage type is determined based on integrating the dispersion over the entire road surface area.
Information processing device.
請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the calculation unit calculates the degree of damage by deep learning.
前記撮像装置で撮像された路面を含む領域の画像を取得する画像取得部と、
複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出部と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出部が抽出した検査画像候補の中から検査画像を抽出する重複領域抽出部と、
前記重複領域抽出部により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定部と、
前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出部と、
前記算出部が算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定部と、を備え、
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、
前記種別判定部は、複数の路面の領域において、前記算出部が算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、
情報処理システム。 Imaging device and
An image acquisition unit that acquires an image of an area including the captured road surface by the imaging device,
Select multiple images, compare the distance between images, which is the distance of the position information corresponding to each selected image, with the predetermined set distance, and select if the distance between images is larger than the set distance. An image extraction unit that sets the image inside as an inspection image candidate and does not set the selected image as an inspection image candidate when the distance between images is smaller than the set distance.
Based on the position information corresponding to the inspection image candidate, at least a part of the road surface area in the image of one road surface and the road surface area in the image of another road surface overlap between the images of the plurality of road surfaces. , An overlapping area extraction unit that extracts an inspection image from the inspection image candidates extracted by the image extraction unit,
And wherein each for the overlapping area checking image extracted by the extraction section, the inspection of the condition of the road surface is judged state determining section in the image,
For each of the test image, a calculation unit based on the state of the road surface in the inspection image, and calculates the degree of damage of the road surface in the inspection image,
And a type determination unit determines the damage type of the road surface in accordance with the degree of damage that the calculation unit is calculated,
The predetermined set distance is
The higher the recognition accuracy of road surface damage in one inspection image, the larger the setting, so that the overlap of the road surface reflected in each inspection image is reduced.
The lower the recognition accuracy of road surface damage in one inspection image, the smaller the setting, which increases the overlap of the road surface in each inspection image.
In a plurality of road surface regions, the type determination unit includes a continuous number of regions in which the degree of damage calculated by the calculation unit is equal to or higher than a predetermined value, directions between regions in which the degree of continuous damage is equal to or higher than a predetermined value, and a plurality of regions. The damage type is determined based on integrating the dispersion over the entire road surface area.
Information processing system.
撮像装置で撮像された路面を含む領域の画像を取得する画像取得過程と、
複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出過程と、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出過程により抽出した検査画像候補の中から検査画像を抽出する重複領域抽出過程と、
前記重複領域抽出過程により抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定過程と、
前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出過程と、
前記算出過程により算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定過程と、を備え、
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、
前記種別判定過程は、複数の路面の領域において、前記算出過程により算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、
情報処理方法。 The computer of the information processing device
An image acquisition step of acquiring an image of a region including the imaged road surface in the image pickup device,
Select multiple images, compare the distance between images, which is the distance of the position information corresponding to each selected image, with the predetermined set distance, and select if the distance between images is larger than the set distance. The image extraction process, in which the image inside is set as an inspection image candidate and the selected image is not set as an inspection image candidate when the distance between images is smaller than the set distance,
Based on the position information corresponding to the inspection image candidate, at least a part of the road surface area in the image of one road surface and the road surface area in the image of another road surface overlap between the images of the plurality of road surfaces. , An overlapping region extraction process for extracting an inspection image from the inspection image candidates extracted by the image extraction process, and
For each of the test images extracted by the overlap region extraction process, a state determination process determines the state of the road surface in the inspection image,
For each of the test images, a calculation process based on the state of the road surface in the inspection image, and calculates the degree of damage of the road surface in the inspection image,
And a type determination step determines the damage type of the road surface in accordance with the degree of damage was calculated by the calculating step,
The predetermined set distance is
The higher the recognition accuracy of road surface damage in one inspection image, the larger the setting, so that the overlap of the road surface reflected in each inspection image is reduced.
The lower the recognition accuracy of road surface damage in one inspection image, the smaller the setting, which increases the overlap of the road surface in each inspection image.
In the type determination process, in a plurality of road surface regions, the number of consecutive regions in which the degree of damage calculated by the calculation process is equal to or higher than a predetermined value, the direction between regions in which the degree of continuous damage is equal to or higher than a predetermined value, and a plurality of regions. The damage type is determined based on integrating the dispersion over the entire road surface area.
Information processing method.
撮像装置で撮像された路面を含む領域の画像を取得する画像取得ステップと、
複数の画像を選択し、選択している各々の画像に対応する位置情報の隔たりである画像間距離と所定設定距離とを比較し、画像間距離が設定距離に比して大きい場合には選択中の画像を検査画像候補に設定し、画像間距離が設定距離に比して小さい場合には選択中の画像を検査画像候補に設定しない、画像抽出ステップと、
前記検査画像候補に対応する位置情報に基づいて、複数の路面の画像間で、ある路面の画像における路面の領域と、他の路面の画像における路面の領域との少なくとも一部が重複するように、前記画像抽出ステップにより抽出した検査画像候補の中から検査画像を抽出する重複領域抽出ステップと、
前記重複領域抽出ステップにより抽出された検査画像の各々について、前記検査画像中の路面の状態を判定する状態判定ステップと、
前記検査画像の各々について、前記検査画像中の路面の状態に基づいて、前記検査画像中の路面の損傷度合を算出する算出ステップと、
前記算出ステップにより算出した損傷度合に応じて前記路面の損傷種別を判定する種別判定ステップと、を実行し、
前記所定設定距離は、
1つの検査画像における路面損傷の認識精度が高いほど大きく設定されることにより、各検査画像に写る路面の重複を少なくし、
1つの検査画像における路面損傷の認識精度が低いほど小さく設定されることにより、各検査画像に写る路面の重複を多くし、
前記種別判定ステップは、複数の路面の領域において、前記算出ステップにより算出した損傷度合が所定値以上である領域の連続数、連続する損傷度合が所定値以上である領域同士の方向、および複数の路面の領域全体の分散を統合することに基づいて、前記損傷種別を判定する、
プログラム。 The computer of the information processing device
An image acquisition step of acquiring an image of an area including the captured road surface in the image pickup device,
Select multiple images, compare the distance between images, which is the distance of the position information corresponding to each selected image, with the predetermined set distance, and select if the distance between images is larger than the set distance. An image extraction step in which the image inside is set as an inspection image candidate and the selected image is not set as an inspection image candidate when the distance between images is smaller than the set distance.
Based on the position information corresponding to the inspection image candidate, at least a part of the road surface area in the image of one road surface and the road surface area in the image of another road surface overlap between the images of the plurality of road surfaces. , An overlapping area extraction step for extracting an inspection image from the inspection image candidates extracted by the image extraction step, and
For each of the test images extracted by the overlap region extraction step, a state determination step determines the state of the road surface in the inspection image,
For each of the test images, a calculating step based on the state of the road surface in the inspection image, and calculates the degree of damage of the road surface in the inspection image,
Perform a type determination step of determining damage type of the road surface in accordance with the degree of damage was calculated by the calculation step,
The predetermined set distance is
The higher the recognition accuracy of road surface damage in one inspection image, the larger the setting, so that the overlap of the road surface reflected in each inspection image is reduced.
The lower the recognition accuracy of road surface damage in one inspection image, the smaller the setting, which increases the overlap of the road surface in each inspection image.
In the type determination step, in a plurality of road surface regions, the number of consecutive regions in which the degree of damage calculated by the calculation step is equal to or higher than a predetermined value, the direction between regions in which the degree of continuous damage is equal to or higher than a predetermined value, and a plurality of regions. The damage type is determined based on integrating the dispersion over the entire road surface area.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017182453A JP6764842B2 (en) | 2017-09-22 | 2017-09-22 | Information processing equipment, information processing system, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017182453A JP6764842B2 (en) | 2017-09-22 | 2017-09-22 | Information processing equipment, information processing system, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019056668A JP2019056668A (en) | 2019-04-11 |
JP6764842B2 true JP6764842B2 (en) | 2020-10-07 |
Family
ID=66107260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017182453A Active JP6764842B2 (en) | 2017-09-22 | 2017-09-22 | Information processing equipment, information processing system, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6764842B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220254169A1 (en) * | 2019-06-28 | 2022-08-11 | Nec Corporation | Road surface inspection apparatus, road surface inspection method, and program |
JP7166225B2 (en) * | 2019-07-08 | 2022-11-07 | ソフトバンク株式会社 | Abnormality inspection system, abnormality inspection device, abnormality inspection method and abnormality inspection program |
JP7323380B2 (en) * | 2019-08-22 | 2023-08-08 | 本四高速道路ブリッジエンジ株式会社 | Net-like structure maintenance method and net-like structure maintenance device |
JP7219192B2 (en) * | 2019-08-29 | 2023-02-07 | 株式会社奥村組 | Structure deterioration diagnosis method |
JP7323694B2 (en) * | 2019-08-29 | 2023-08-08 | 株式会社奥村組 | Structure deterioration diagnosis method |
JP7437188B2 (en) * | 2020-02-27 | 2024-02-22 | 株式会社サキコーポレーション | Inspection equipment |
JP7450517B2 (en) * | 2020-10-23 | 2024-03-15 | 株式会社荏原製作所 | Machining surface determination device, machining surface determination program, machining surface determination method, and machining system |
JP7506624B2 (en) | 2021-03-15 | 2024-06-26 | 株式会社奥村組 | Pipe damage identification device, pipe damage identification method, and pipe damage identification program |
US20240183793A1 (en) * | 2021-04-05 | 2024-06-06 | Panasonic Intellectual Property Management Co., Ltd. | Inspection device, inspection method, and program |
JP2023076903A (en) * | 2021-11-24 | 2023-06-05 | 三菱電機株式会社 | Road surface deterioration detection system and road surface deterioration detection method |
WO2023195180A1 (en) * | 2022-04-08 | 2023-10-12 | 三菱電機株式会社 | Facility management information display device, facility management information display system, facility management information display method, and facility management information display program |
JP2023157278A (en) * | 2022-04-14 | 2023-10-26 | 株式会社アーステクニカ | Determination device, selection device, and determination method |
JP7571261B1 (en) | 2023-11-27 | 2024-10-22 | オリエンタル白石株式会社 | Building inspection system and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006009571A (en) * | 2005-07-12 | 2006-01-12 | Yagi Corporation Kk | Bridge management system |
CN102182137A (en) * | 2011-02-25 | 2011-09-14 | 广州飒特电力红外技术有限公司 | Pavement defect detection system and method |
CA2862762C (en) * | 2012-08-31 | 2015-03-10 | Systemes Pavemetrics Inc. | Method and apparatus for detection of foreign object debris |
US10648922B2 (en) * | 2015-07-21 | 2020-05-12 | Kabushiki Kaisha Toshiba | Crack analysis device, crack analysis method, and crack analysis program |
EP3410102B1 (en) * | 2016-01-26 | 2022-07-06 | FUJIFILM Corporation | Crack information detection device, crack information detection method, and crack information detection program |
JP6615066B2 (en) * | 2016-07-29 | 2019-12-04 | エヌ・ティ・ティ・コムウェア株式会社 | Information processing apparatus, information processing method, and program |
JP6516384B2 (en) * | 2017-09-22 | 2019-05-22 | エヌ・ティ・ティ・コムウェア株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
-
2017
- 2017-09-22 JP JP2017182453A patent/JP6764842B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019056668A (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6764842B2 (en) | Information processing equipment, information processing system, information processing method, and information processing program | |
Li et al. | Recognition and evaluation of bridge cracks with modified active contour model and greedy search-based support vector machine | |
Hoang et al. | Metaheuristic optimized edge detection for recognition of concrete wall cracks: a comparative study on the performances of roberts, prewitt, canny, and sobel algorithms | |
US11494891B2 (en) | Method of inspecting and evaluating coating state of steel structure and system therefor | |
US9235902B2 (en) | Image-based crack quantification | |
Mansuri et al. | Artificial intelligence-based automatic visual inspection system for built heritage | |
Brackenbury et al. | Automated defect detection for masonry arch bridges | |
US11574395B2 (en) | Damage detection using machine learning | |
KR102185225B1 (en) | Method for detecting sinkhole using deep learning and data association and sinkhole detecting system using it | |
JP6811217B2 (en) | Crack identification method, crack identification device, crack identification system and program on concrete surface | |
Zhafran et al. | Computer vision system based for personal protective equipment detection, by using convolutional neural network | |
CN113167742A (en) | Point inspection support device, point inspection support method, and point inspection support program for concrete structure | |
Das et al. | Application of deep convolutional neural networks for automated and rapid identification and computation of crack statistics of thin cracks in strain hardening cementitious composites (SHCCs) | |
Camilleri et al. | Detecting road potholes using computer vision techniques | |
JP6516384B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM | |
CN116152219A (en) | Concrete member damage detection and assessment method and system thereof | |
JP6980208B2 (en) | Structure maintenance work support system | |
JP5097629B2 (en) | Feature shape change detection program and feature shape change detection system | |
Chianese et al. | Influence of image noise on crack detection performance of deep convolutional neural networks | |
Tilon et al. | Infrastructure degradation and post-disaster damage detection using anomaly detecting generative adversarial networks | |
Myrans et al. | Using Automatic Anomaly Detection to Identify Faults in Sewers:(027) | |
JP6894339B2 (en) | Crack detection device, crack detection method, and computer program | |
CN109901619A (en) | Bridge deck pavement bulge detection method, device, system and storage medium | |
Kong et al. | Toward the automatic detection of access holes in disaster rubble | |
KR20230003730A (en) | Method, system and non-transitory computer-readable recording medium for inspecting external cracks in structures using drone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20171020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180425 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6764842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |