JP6647171B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6647171B2 JP6647171B2 JP2016150719A JP2016150719A JP6647171B2 JP 6647171 B2 JP6647171 B2 JP 6647171B2 JP 2016150719 A JP2016150719 A JP 2016150719A JP 2016150719 A JP2016150719 A JP 2016150719A JP 6647171 B2 JP6647171 B2 JP 6647171B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- road surface
- defect
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 15
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000007547 defect Effects 0.000 claims description 237
- 238000003384 imaging method Methods 0.000 claims description 65
- 238000004458 analytical method Methods 0.000 description 204
- 238000007689 inspection Methods 0.000 description 125
- 238000000605 extraction Methods 0.000 description 54
- 238000000034 method Methods 0.000 description 49
- 238000012545 processing Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 31
- 230000008859 change Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000013473 artificial intelligence Methods 0.000 description 16
- 239000003550 marker Substances 0.000 description 13
- 238000013211 curve analysis Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Road Repair (AREA)
- Working Measures On Existing Buildindgs (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
道路、橋梁、施設等の老朽化に伴い、建造物のメンテナンスを効率的に行うことが求められている。建造物のメンテナンスを実施するためには、建造物の不具合を発見する作業が必要になるが、目視での確認では定量的な評価と網羅的な解析は困難である。そのため、機械による自動検出が普及しつつある。例えば、特許文献1には、車両に搭載され、道路幅員の一部を撮影範囲とし、互いの前記撮影範囲が一部重複しつつ道路幅員の全部が撮影可能に配置された複数のカメラを有し、車両の所定走行距離毎に、同時に、日向における路面画像を識別可能に撮影する日向撮像手段と、車両に搭載され、道路幅員の一部を撮影範囲とし、互いの前記撮影範囲が一部重複しつつ道路幅員の全部が撮影可能に配置された複数のカメラを有し、車両の所定走行距離毎に、同時に、日陰における路面画像を識別可能に撮影する日陰撮像手段と、…前記日向撮像手段における複数のカメラで撮影し、前記補正データにより補正後の路面画像の前記道路幅員方向及び車両の進行方向の重なり領域及び前記日陰撮像手段における複数のカメラで撮影し、前記補正データにより補正後の路面画像の前記道路幅員方向及び車両の進行方向の重なり領域の一致度を算出し、前記一致度に基づいて路面画像の接合部の編集を行う編集手段と、を備えることを特徴とする路面画像撮影・編集装置が記載されている。 With the aging of roads, bridges, facilities, etc., efficient maintenance of buildings is required. In order to carry out maintenance of the building, it is necessary to find the defect of the building, but it is difficult to perform quantitative evaluation and comprehensive analysis by visual confirmation. Therefore, automatic detection by a machine is spreading. For example, Patent Literature 1 has a plurality of cameras mounted on a vehicle and arranged so that a part of a road width can be used as an imaging range, and the imaging ranges partially overlap each other so that the entire road width can be imaged. For each predetermined traveling distance of the vehicle, a sun photographing means for simultaneously and identifiably photographing a road surface image in the sun, mounted on the vehicle, a part of the road width is taken as a photographing range, and the photographing ranges of each other are partially A plurality of cameras arranged so as to be able to capture the entire width of the road while overlapping each other, and for each predetermined traveling distance of the vehicle, at the same time, shade image capturing means for identifying a road surface image in the shade in a distinguishable manner; A plurality of cameras in the shade imaging means and the overlapping region in the road width direction and the traveling direction of the vehicle on the road surface image corrected by the correction data; Editing means for calculating the degree of coincidence of the overlapping area in the road width direction and the traveling direction of the vehicle of the road surface image after correction, and editing the joint of the road surface image based on the degree of coincidence. Is described.
ところで、撮像した画像には、解析したい対象物が複数写り込む場合がある。このような場合に、撮像した画像をそのまま分析すると、解析したい対象物を正しく分類できないことがある。そのため、解析の精度を向上できないことがあった。 In some cases, a plurality of objects to be analyzed appear in a captured image. In such a case, if the captured image is analyzed as it is, an object to be analyzed may not be correctly classified. For this reason, the accuracy of analysis may not be improved.
本発明のいくつかの態様は、建造物等の面の状態を、精度良く解析することができる情報処理装置、情報処理方法、及びプログラムを提供することを目的の一つとする。 It is an object of some aspects of the present invention to provide an information processing device, an information processing method, and a program capable of accurately analyzing a state of a surface of a building or the like.
また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする情報処理装置、情報処理方法、及びプログラムを提供することを目的の一つとする。 Another embodiment of the present invention has an object to provide an information processing device, an information processing method, and a program that can achieve the effects described in the embodiments described below.
上述した課題を解決するために、本発明の一態様は、面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、当該面を含む領域が撮像された画像を取得する画像取得部と、前記画像取得部が取得した画像を分割し、前記画像の一部分である部分画像を複数出力する部分画像生成部と、前記部分画像生成部が出力した部分画像の各々について、当該部分画像中の面の状態を判定する状態判定部と、を備える情報処理装置である。
また、本発明の別の一態様は、情報処理装置が、面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、当該面を含む領域が撮像された画像を取得する第1ステップと、前記第1ステップにおいて取得した画像を分割し、前記画像の一部分である部分画像を複数出力する第2ステップと、前記第2ステップにおいて出力した部分画像の各々について、当該部分画像中の面の状態を判定する第3ステップと、を含む情報処理方法である。
また、本発明の別の一態様は、コンピュータに、面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、当該面を含む領域が撮像された画像を取得する第1ステップと、前記第1ステップにおいて取得した画像を分割し、前記画像の一部分である部分画像を複数出力する第2ステップと、前記第2ステップにおいて出力した部分画像の各々について、当該部分画像中の面の状態を判定する第3ステップと、を実行させるためのプログラムである。
In order to solve the above-described problem, one embodiment of the present invention is an image in which an image is continuously captured by an imaging device mounted on a moving object that moves along a surface, and an image including a region including the surface is captured. An acquiring unit, a partial image generating unit that divides the image acquired by the image acquiring unit, and outputs a plurality of partial images that are a part of the image, and, for each of the partial images output by the partial image generating unit, An information processing apparatus comprising: a state determination unit that determines a state of a surface in an image.
Further, another aspect of the present invention is a method in which the information processing device is continuously imaged by an imaging device mounted on a moving body moving along a surface, and acquires an image in which a region including the surface is imaged. One step, a second step of dividing the image obtained in the first step, and outputting a plurality of partial images that are part of the image, and for each of the partial images output in the second step, And a third step of determining the state of the surface.
Further, another aspect of the present invention is a computer including: a first step of acquiring an image in which an image is continuously captured by an imaging device mounted on a moving object that moves along a surface, and a region including the surface is captured; And a second step of dividing the image obtained in the first step and outputting a plurality of partial images that are a part of the image; and for each of the partial images output in the second step, a surface in the partial image And a third step of determining the state of the program.
本発明の一実施形態によれば、建造物等の面の状態を、精度良く解析することができる。 According to an embodiment of the present invention, the state of a surface of a building or the like can be analyzed with high accuracy.
以下、本発明の一実施形態について、図面を参照して説明する。
[第1の実施形態]
〔不具合解析システム1の概要〕
本発明の第1の実施形態について説明する。
図1は、不具合解析システム1の概要を示す図である。
本実施形態に係る不具合解析システム1は、建造物の表面の状態を解析するシステムである。以下では、一例として、不具合解析システム1が建造物の表面に現れた視認可能な不具合を解析する場合について説明する。
建造物とは、例えば、道路、橋梁、施設等であり、社会インフラを含む。
表面とは、建造物の外部又は内部の表面である。つまり、建造物の表面とは、例えば、道路の路面や橋梁、施設の上面、側面、下面である。
視認可能な不具合とは、物理的な凹凸、色彩の変化等である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
[Overview of the failure analysis system 1]
A first embodiment of the present invention will be described.
FIG. 1 is a diagram showing an outline of the failure analysis system 1.
The failure analysis system 1 according to the present embodiment is a system that analyzes the state of the surface of a building. In the following, as an example, a case where the failure analysis system 1 analyzes a visible failure that appears on the surface of a building will be described.
The buildings are, for example, roads, bridges, facilities, and the like, and include social infrastructure.
A surface is an exterior or interior surface of a building. That is, the surface of the building is, for example, the road surface or bridge, the upper surface, the side surface, or the lower surface of the facility.
Visible defects are physical irregularities, color changes, and the like.
以下では、一例として、路面に現れた不具合(以下、「路面不具合」と称する。)を解析する場合について説明する。
路面不具合には、例えば、轍、ポットホール、ひび割れ(クラック)、段差がある。図2から図6は、路面不具合を撮像した画像の例を示す図である。図2に示す画像P1は、轍D1の例を示す。図3に示す画像P2は、ポットホールD2の例を示す。図4に示す画像P3は、ひび割れD3の例を示す。図5に示す画像P4は、段差D4の例を示す。なお、不具合解析システム1は、路面不具合以外にも、パッチング等の路面の状態を解析してよい。図6に示す画像P5は、パッチングD5の例を示す。
Hereinafter, as an example, a case in which a defect that appears on a road surface (hereinafter, referred to as “road surface defect”) is analyzed will be described.
Road surface defects include, for example, ruts, potholes, cracks, and steps. FIG. 2 to FIG. 6 are diagrams illustrating examples of images of road surface defects. The image P1 shown in FIG. 2 shows an example of the rut D1. The image P2 shown in FIG. 3 shows an example of the pothole D2. An image P3 shown in FIG. 4 shows an example of a crack D3. An image P4 shown in FIG. 5 shows an example of the step D4. In addition, the failure analysis system 1 may analyze the state of the road surface such as patching in addition to the road surface failure. An image P5 shown in FIG. 6 shows an example of patching D5.
次に、不具合解析システム1を用いた路面不具合の解析の概要について説明する。
まず、ユーザは、撮像部11を備える車両10に運転して、路面不具合を解析する道路を走行する。撮像部11は、路面を撮像可能に車両10に設置されている。そして、撮像部11は、車両10の走行に応じて移り変わる路面を随時撮像する。以下では、路面の画像を「路面画像」と称する。また、ユーザは、路面画像の撮像中、車両10の位置を随時計測する。以下では、測位結果を示す情報(データ)を「測位情報」と称する。
Next, an outline of analysis of a road surface defect using the defect analysis system 1 will be described.
First, the user drives the vehicle 10 including the imaging unit 11 to travel on a road for analyzing a road surface problem. The imaging unit 11 is installed in the vehicle 10 so that a road surface can be imaged. Then, the imaging unit 11 images a road surface changing as the vehicle 10 travels as needed. Hereinafter, the road surface image is referred to as a “road surface image”. In addition, the user measures the position of the vehicle 10 as needed during the imaging of the road surface image. Hereinafter, information (data) indicating the positioning result is referred to as “positioning information”.
次に、不具合解析システム1は、路面画像を示す情報(以下、「路面画像情報」と称する。)とを、不具合解析用人工知能を用いて解析する。不具合解析用人工知能は、例えば、多層パーセプトロン(多層ニューラルネットワーク)を備える。不具合解析用人工知能には、路面不具合等の解析対象を撮像した教示画像(例えば、画像P1〜P5)により深層学習(ディープラーニング)が予め行われている。不具合解析用人工知能には、従来の人工知能で用いられてきた任意の技術やフレームワーク等を適用してよい。深層学習により、不具合解析システム1は、路面画像に写り込んだ路面不具合を、不具合解析用人工知能を用いることにより検出することができる。また、不具合解析システム1は、路面不具合が検出された路面画像の撮像時の測位結果を特定することにより、不具合が存在する場所を特定することができる。 Next, the failure analysis system 1 analyzes information indicating the road surface image (hereinafter, referred to as “road surface image information”) using the artificial intelligence for failure analysis. The artificial intelligence for failure analysis includes, for example, a multilayer perceptron (multilayer neural network). In the artificial intelligence for failure analysis, deep learning (deep learning) is performed in advance using a teaching image (for example, images P1 to P5) that captures an analysis target such as a road surface failure. Any technology or framework that has been used in the conventional artificial intelligence may be applied to the artificial intelligence for failure analysis. By the deep learning, the defect analysis system 1 can detect the road surface defect reflected in the road surface image by using the defect analysis artificial intelligence. Further, the failure analysis system 1 can identify the location where the failure exists by specifying the positioning result at the time of capturing the road surface image where the road surface failure is detected.
不具合解析システム1は、路面画像情報の解析の結果、検出された路面不具合と路面不具合の位置とを対応付けて出力する。不具合解析システム1は、例えば、地図上に路面不具合の場所を示すとともに、路面不具合の種類を対応付けて示す。解析結果は、ユーザにより編集可能としてよい。
このように、不具合解析システム1は、深層学習した人工知能を用いて、画像中に写り込んだ不具合を検出する。深層学習は、適切な教示情報により学習が行われれば、高い認識精度が得られるという特性がある。そのため、不具合解析システム1は、撮像した範囲については、建造物の不具合を網羅的に検出することができる。
The failure analysis system 1 associates and outputs the detected road surface defect and the position of the road surface defect as a result of the analysis of the road surface image information. The defect analysis system 1 shows, for example, the location of the road surface defect on a map and shows the type of the road surface defect in association with the location. The analysis result may be editable by a user.
As described above, the defect analysis system 1 detects a defect reflected in an image using the artificial intelligence that has undergone deep learning. The deep learning has a characteristic that high learning accuracy can be obtained if learning is performed with appropriate teaching information. Therefore, the failure analysis system 1 can comprehensively detect the failure of the building in the imaged range.
また、不具合解析システム1は、例えば、従来の路面性状測定車のようにレーザー照射器、電子ストリーク撮像装置、加速度センサ等の特別な測定機器を備えなくてもよい。従って、不具合解析システム1は、安価に精度よく建造物の不具合を検出することができる。なお、不具合解析システム1は、レーザー照射器、電子ストリーク撮像装置、加速度センサ等を備えてもよい。
以上が、不具合解析システム1の概要についての説明である。
Further, the failure analysis system 1 does not need to include special measuring devices such as a laser irradiator, an electronic streak imaging device, and an acceleration sensor, unlike a conventional road surface property measuring vehicle. Therefore, the failure analysis system 1 can accurately and inexpensively detect the failure of the building. The failure analysis system 1 may include a laser irradiator, an electronic streak imaging device, an acceleration sensor, and the like.
The above is the description of the outline of the failure analysis system 1.
〔不具合解析システム1の構成〕
次に、不具合解析システム1の構成について説明する。
図7は、不具合解析システム1の構成を示すブロック図である。
不具合解析システム1は、車両10と、不具合解析装置30と、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90と、を備える。車両10には、撮像部11と、測位部12と、情報端末装置13とが搭載されている。情報端末装置13と、不具合解析装置30と、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90と、は、それぞれ、ネットワークNWに接続し、互いに通信を行うことができる。
[Configuration of the failure analysis system 1]
Next, the configuration of the failure analysis system 1 will be described.
FIG. 7 is a block diagram illustrating a configuration of the failure analysis system 1.
The failure analysis system 1 includes a vehicle 10, a failure analysis device 30, a failure information management device 50, a ledger information management device 70, and a map information management device 90. The vehicle 10 includes an imaging unit 11, a positioning unit 12, and an information terminal device 13. The information terminal device 13, the defect analysis device 30, the defect information management device 50, the ledger information management device 70, and the map information management device 90 can connect to the network NW and communicate with each other. .
車両10は、路面を撮像可能に移動する移動体である。例えば、車両10は、自動車、自転車、電車等であり、建造物上を移動する移動体である。なお、車両10のような建造物に接触しながら移動する移動体の代わりに、ラジオコントロールヘリコプター、ドローン等の建造物に接触しない移動体を用いてもよい。 The vehicle 10 is a moving body that moves so as to be able to image a road surface. For example, the vehicle 10 is an automobile, a bicycle, a train, or the like, and is a moving body that moves on a building. Note that, instead of a moving body that moves while contacting a building such as the vehicle 10, a moving body that does not contact the building such as a radio control helicopter or a drone may be used.
撮像部11は、路面を撮像して路面画像情報を生成する。撮像部11は、動画像(映像)を撮像してもよいし、静止画像を連続して撮像してもよい。ここでは、一例として、動画像のフレームレート、或いは、静止画像の撮像間隔が一定である場合について説明する。撮像部11が生成した路面画像情報は、記憶媒体を介して他の装置に出力可能としてもよいし、ネットワークを介して他の装置に送信可能としてもよい。撮像部11は、車両10の車内に設置されてもよい。このような場合には、撮像部11は、車両10のフロントガラスやリアガラス越しに路面を撮像することがある。ガラスによる反射が路面画像に写り込むことを抑制するため、撮像部11のレンズに偏光フィルタを取り付けてよい。 The imaging unit 11 captures an image of a road surface and generates road surface image information. The imaging unit 11 may capture a moving image (video) or may continuously capture still images. Here, as an example, a case where the frame rate of a moving image or the imaging interval of a still image is constant will be described. The road surface image information generated by the imaging unit 11 may be output to another device via a storage medium, or may be transmitted to another device via a network. The imaging unit 11 may be installed inside the vehicle 10. In such a case, the imaging unit 11 may image the road surface through a windshield or a rear glass of the vehicle 10. A polarizing filter may be attached to the lens of the imaging unit 11 in order to suppress the reflection by the glass from being reflected in the road surface image.
測位部12は、測位を行う。測位部12は、例えば、GPS(Global Positioning System)センサである。測位部12は、静止衛星型衛星航法補強システム、ODB2(On−board diagnostics 2)等の速度センサ、加速度センサ等を用いて測位を行ってもよい。測位部12は、所定の時間間隔で測位を行ってもよいし、撮像部11による路面画像の取得と同期して測位を行ってもよい。撮像部11による路面画像の取得と同期していない場合には、測位の開始と撮像の開始とを合致させておく。そして、撮像のタイミングと測位のタイミングとのずれは、2つの測位点の移動を、その間の路面画像の数で除算して、各路面画像に対応する位置を特定してよい。 The positioning unit 12 performs positioning. The positioning unit 12 is, for example, a GPS (Global Positioning System) sensor. The positioning unit 12 may perform positioning using a geostationary satellite-type satellite navigation reinforcement system, a speed sensor such as ODB2 (On-board diagnostics 2), an acceleration sensor, or the like. The positioning unit 12 may perform positioning at a predetermined time interval, or may perform positioning in synchronization with acquisition of a road surface image by the imaging unit 11. If the acquisition of the road surface image by the imaging unit 11 is not synchronized, the start of positioning and the start of imaging are matched. Then, for the difference between the timing of imaging and the timing of positioning, the position corresponding to each road surface image may be specified by dividing the movement of two positioning points by the number of road surface images therebetween.
情報端末装置13は、例えば、カーナビゲーション端末等の車載端末、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)端末、パーソナルコンピュータ、ウェアラブル端末等のコンピュータシステムを備える電子機器である。情報端末装置13は、ネットワークNWに接続する他の装置から情報を受信して、受信した情報の内容を表示したり、音声出力したりする。例えば、情報端末装置13は、路面不具合の解析結果を示す情報を受信して、解析結果を表示する。また、情報端末装置13は、タッチパネル、機械式ボタン、キーボード、マイク等の入力部を備えてよい。この場合、入力部が、ユーザから受け付けたユーザ入力情報の内容を、ネットワークNWに接続する他の装置に送信してもよい。 The information terminal device 13 is an electronic device including a computer system such as a vehicle-mounted terminal such as a car navigation terminal, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant) terminal, a personal computer, and a wearable terminal. The information terminal device 13 receives information from another device connected to the network NW, and displays the content of the received information or outputs sound. For example, the information terminal device 13 receives the information indicating the analysis result of the road surface defect and displays the analysis result. The information terminal device 13 may include an input unit such as a touch panel, mechanical buttons, a keyboard, a microphone, and the like. In this case, the input unit may transmit the content of the user input information received from the user to another device connected to the network NW.
なお、撮像部11、測位部12、情報端末装置13は、一体の装置であってもよいし、別体の装置であってもよい。例えば、路面画像の撮像と、GPSによる測位と、路面不具合の解析結果の表示との全てを1台のスマートフォンが行ってもよい。また、撮像部11、測位部12、情報端末装置13は、音声入力により操作されてもよい。これにより、車両10の走行中であっても、車両10の運転手が1人で各種装置を操作することができる。また、撮像部11、測位部12、情報端末装置13は、ネットワークNWを介して遠隔操作されてもよいし、赤外線等の近距離無線通信を介して操作されてもよい。 The imaging unit 11, the positioning unit 12, and the information terminal device 13 may be an integrated device or may be separate devices. For example, one smartphone may perform all of imaging of a road surface image, positioning by GPS, and displaying the analysis result of a road surface defect. Further, the imaging unit 11, the positioning unit 12, and the information terminal device 13 may be operated by voice input. Thereby, even while the vehicle 10 is running, the driver of the vehicle 10 can operate various devices by itself. Further, the imaging unit 11, the positioning unit 12, and the information terminal device 13 may be remotely operated via a network NW, or may be operated via short-range wireless communication such as infrared rays.
不具合解析装置30は、路面画像から路面不具合を解析する装置である。不具合情報管理装置50は、例えば、パーソナルコンピュータ、サーバ装置等のコンピュータシステムを備える電子機器である。不具合解析装置30には、不具合解析用人工知能が実装されている。 The failure analysis device 30 is a device that analyzes a road surface defect from a road surface image. The defect information management device 50 is, for example, an electronic device including a computer system such as a personal computer and a server device. The failure analysis device 30 is equipped with a failure analysis artificial intelligence.
不具合情報管理装置50は、不具合情報を管理する装置である。ここで、「情報の管理」とは、情報を、新規に書き込んだり、編集したり、削除したり、読み出したり、受信したり、送信したりすることをいう。不具合情報管理装置50は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。
不具合情報とは、路面不具合の内容、路面不具合の場所等の路面不具合に関する情報である。つまり、不具合情報とは、面の状態を示す情報の一例である。不具合情報には、路面不具合が存在していないことが記述されてもよい。
The defect information management device 50 is a device that manages defect information. Here, "information management" refers to writing, editing, deleting, reading, receiving, and transmitting information newly. The defect information management device 50 is an electronic device including a computer system such as a server device, for example.
The defect information is information on the road surface defect such as the content of the road surface defect and the location of the road surface defect. That is, the defect information is an example of information indicating the state of the surface. The defect information may describe that there is no road surface defect.
不具合情報管理装置50は、第1種不具合情報記憶部51と、第2種不具合情報記憶部52と、を備える。第1種不具合情報記憶部51は、第1種不具合情報を記憶する。第2種不具合情報記憶部52は、第2種不具合情報を記憶する。
第1種不具合情報とは、人手により確認された路面不具合に関する情報である。第1種不具合情報は、不具合解析用人工知能の機械学習に用いられる。
第2種不具合情報とは、不具合解析用人工知能により検出された路面不具合に関する情報である。つまり、第2種不具合情報とは、不具合解析装置30による解析結果を示す情報である。
The defect information management device 50 includes a first type defect information storage unit 51 and a second type defect information storage unit 52. The first type defect information storage unit 51 stores the first type defect information. The second type defect information storage unit 52 stores the second type defect information.
The first type defect information is information on road surface defects confirmed manually. The first type defect information is used for machine learning of the artificial intelligence for defect analysis.
The second type of defect information is information relating to a road surface defect detected by the defect analysis artificial intelligence. That is, the second type defect information is information indicating an analysis result by the defect analysis device 30.
台帳情報管理装置70は、道路台帳情報を管理する装置である。台帳情報管理装置70は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。台帳情報管理装置70は、道路台帳情報を記憶する台帳情報記憶部71を備える。
地図情報管理装置90は、地図情報を管理する装置である。台帳情報管理装置70は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。地図情報管理装置90は、地図情報を記憶する地図情報記憶部91を備える。地図情報とは、建造物の名称、座標、住所、範囲等を含む情報であり、地図の生成に用いられる情報である。
以上が、不具合解析システム1の構成についての説明である。
The ledger information management device 70 is a device that manages road ledger information. The ledger information management device 70 is an electronic device including a computer system such as a server device, for example. The ledger information management device 70 includes a ledger information storage unit 71 that stores road ledger information.
The map information management device 90 is a device that manages map information. The ledger information management device 70 is an electronic device including a computer system such as a server device, for example. The map information management device 90 includes a map information storage unit 91 that stores map information. The map information is information including a name, coordinates, an address, a range, and the like of a building, and is information used for generating a map.
The above is the description of the configuration of the failure analysis system 1.
〔情報のデータ構成〕
次に、不具合解析システム1が処理する情報のデータ構成について説明する。
まず、路面画像情報について説明する。ここでは、一例として、路面画像情報が動画像である場合について説明する。
図8は、路面画像情報のデータ構成を示す図である。
図8に示す例では、路面画像情報は、フレーム番号情報(図8の「フレーム番号」)と、フレーム時間情報(図8の「フレーム時間」)と、フレーム画像情報(図8における「フレーム画像」)と、を含み、これらを対応付けて構成される。
フレーム番号情報とは、路面画像の動画像を構成する各フレームの識別情報である。フレーム番号情報は、例えば、動画像の開始から終了までの各フレームに対して昇順に割当てられた番号である。
[Data structure of information]
Next, a data configuration of information processed by the failure analysis system 1 will be described.
First, the road surface image information will be described. Here, a case where the road surface image information is a moving image will be described as an example.
FIG. 8 is a diagram illustrating a data configuration of road surface image information.
In the example illustrated in FIG. 8, the road surface image information includes frame number information (“frame number” in FIG. 8), frame time information (“frame time” in FIG. 8), and frame image information (“frame image” in FIG. 8). )), And these are associated with each other.
The frame number information is identification information of each frame forming a moving image of the road surface image. The frame number information is, for example, a number assigned to each frame from the start to the end of the moving image in ascending order.
フレーム時間情報とは、動画像の再生を行う場合に、各フレームを表示するタイミングを示す情報である。
フレーム画像情報とは、各フレームの画像を示す情報である。フレーム画像は、エンコードされていてもよい。
以上が、路面画像情報のデータ構成についての説明である。
The frame time information is information indicating the timing of displaying each frame when a moving image is reproduced.
The frame image information is information indicating an image of each frame. The frame image may be encoded.
The above is the description of the data configuration of the road surface image information.
次に、測位情報について説明する。
図9は、測位情報のデータ構成を示す図である。
図9に示す例では、測位情報は、タイムスタンプ情報(図9の「タイムスタンプ」)と、測位座標情報(図9の「座標」)とを含み、これらを対応付けて構成される。
タイムスタンプ情報とは、測位を行った時刻を示す情報である。
測位座標情報とは、測位の結果、特定された位置を示す情報である。
以上が、測位情報のデータ構成についての説明である。
Next, positioning information will be described.
FIG. 9 is a diagram illustrating a data configuration of the positioning information.
In the example illustrated in FIG. 9, the positioning information includes time stamp information (“time stamp” in FIG. 9) and positioning coordinate information (“coordinates” in FIG. 9), and is configured by associating them.
The time stamp information is information indicating the time at which positioning was performed.
The positioning coordinate information is information indicating a position specified as a result of positioning.
The above is the description of the data configuration of the positioning information.
次に、不具合情報について説明する。
図10は、不具合情報のデータ構成を示す図である。
図10に示す例では、不具合情報は、路面不具合ID(図10の「路面不具合ID」)と、住所情報(図10の「住所」)と、不具合座標情報(図10の「座標」)と、路面不具合種別情報(図10の「路面不具合種別」)と、不具合画像情報(図10の「画像」)と、を含み、これらを互いに対応付けて構成される。
Next, the defect information will be described.
FIG. 10 is a diagram illustrating a data configuration of the defect information.
In the example shown in FIG. 10, the defect information includes a road defect ID (“road defect ID” in FIG. 10), address information (“address” in FIG. 10), and defect coordinate information (“coordinate” in FIG. 10). , Road surface defect type information (“road surface defect type” in FIG. 10) and defect image information (“image” in FIG. 10), and are configured to correspond to each other.
路面不具合ID(Identifier)とは、不具合解析装置30により検出された、又は、人手により確認された路面不具合を個別に識別する識別情報である。
住所情報とは、路面不具合が存在する場所の住所を示す情報である。
不具合座標情報とは、路面不具合が存在する場所の座標を示す情報である。
路面不具合種別情報とは、路面不具合の種別を示す情報である。
不具合画像情報とは、路面不具合を撮像した画像を示す情報である。
以上が、不具合情報のデータ構成についての説明である。
The road surface defect ID (Identifier) is identification information for individually identifying a road surface defect detected by the defect analysis device 30 or manually confirmed.
The address information is information indicating an address of a place where a road surface defect exists.
The defect coordinate information is information indicating coordinates of a place where a road surface defect exists.
The road surface defect type information is information indicating the type of road surface defect.
The defect image information is information indicating an image of a road surface defect.
The above is the description of the data configuration of the defect information.
次に、台帳情報について説明する。
図11は、台帳情報のデータ構成を示す図である。
図11に示す例では、台帳情報は、路線番号情報(図11の「路線番号」)と、道路種別情報(図11の「道路種別」)と、路線名称情報(図11の「路線名称」)と、区間番号情報(図11の「区間番号」)と、改良区分情報(図11の「改良区分」)と、路面種別情報(図11の「路面種別」)と、全幅員情報(図11の「全幅員」)と、道路幅員情報(図11の「道路幅員」)と、を含み、これらを対応付けて構成される。
Next, ledger information will be described.
FIG. 11 is a diagram showing a data structure of ledger information.
In the example illustrated in FIG. 11, the ledger information includes route number information (“route number” in FIG. 11), road type information (“road type” in FIG. 11), and route name information (“route name” in FIG. 11). ), Section number information (“section number” in FIG. 11), improved section information (“improved section” in FIG. 11), road surface type information (“road surface type” in FIG. 11), and full width information (FIG. 11 "wide width") and road width information ("road width" in FIG. 11), and are configured to correspond to each other.
路線番号情報とは、道路の路線を識別する識別情報である。
道路種別情報とは、道路の種別を示す情報である。
路線名称情報とは、道路の路線の名称を示す情報である。
区間番号情報とは、路線における道路の区間を示す情報である。
改良区分情報とは、道路の改良区分を示す情報である。
路面種別情報とは、道路の路線の種別を示す情報である。
全幅員情報とは、道路の全幅員を示す情報である。
道路幅員情報とは、道路の幅員を示す情報である。
以上が、台帳情報のデータ構成についての説明である。
The line number information is identification information for identifying a road line.
The road type information is information indicating the type of the road.
The route name information is information indicating the name of the route of the road.
Section number information is information indicating a section of a road on a route.
The improvement section information is information indicating an improvement section of the road.
The road surface type information is information indicating the type of the road line.
The full width information is information indicating the full width of the road.
The road width information is information indicating the width of the road.
The above is the description of the data structure of ledger information.
〔不具合解析装置30の構成〕
次に、不具合解析装置30の構成について説明する。
図12は、不具合解析装置30の構成を示すブロック図である。
図12に示す例において、不具合解析装置30は、入力部31と、表示部32と、音声再生部33と、通信部34と、記憶部35と、制御部360と、を備える。
入力部31は、不具合解析装置30のユーザから、各種情報の入力を受け付ける。入力部31は、例えば、マウス、タッチパッド等のポインティングデバイス、キーボード等を備える。
表示部32は、テキストや画像等の各種情報を表示する。表示部32は、例えば、有機EL(Electro−Luminscence)ディスプレイパネルや液晶ディスプレイパネル等を備える。不具合解析装置30による路面不具合の解析結果を表示する。
音声再生部33は、音声を再生する。音声再生部33は、例えば、スピーカ、アンプ等である。
通信部34は、他の装置と情報を送受信する。通信部34は、例えば、通信用IC(Integrated Circuit)や通信用ポート等を備える。
記憶部35は、各種情報を記憶する。記憶部35は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。また、記憶部35は、HDD(Hard Disc Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュメモリ等を備えてもよい。記憶部35は、不具合解析装置30が備えるCPU(Central Processing Unit、不図示)やGPU(Graphics Processing Unit、不図示)が実行するための各種プログラムやCPUやGPUが実行した処理の結果などを記憶する。また、記憶部35は、学習結果記憶部351を備える。
学習結果記憶部351は、不具合解析装置30が備える不具合解析用人工知能の学習結果を記憶する。学習結果とは、例えば、ニューラルネットワークのネットワークの状態を示す情報である。ニューラルネットワークのネットワークの状態を示す情報とは、例えば、ニューラルネットワークを構成する各ノード(ユニット)に係る活性化関数のパラメータの値を示す情報等である。
[Configuration of the failure analysis device 30]
Next, the configuration of the failure analysis device 30 will be described.
FIG. 12 is a block diagram illustrating the configuration of the failure analysis device 30.
In the example illustrated in FIG. 12, the failure analysis device 30 includes an input unit 31, a display unit 32, a sound reproduction unit 33, a communication unit 34, a storage unit 35, and a control unit 360.
The input unit 31 receives input of various information from the user of the failure analysis device 30. The input unit 31 includes, for example, a pointing device such as a mouse and a touch pad, a keyboard, and the like.
The display unit 32 displays various information such as texts and images. The display unit 32 includes, for example, an organic EL (Electro-Luminescence) display panel, a liquid crystal display panel, and the like. The analysis result of the road surface failure by the failure analysis device 30 is displayed.
The audio reproduction unit 33 reproduces audio. The sound reproducing unit 33 is, for example, a speaker, an amplifier, or the like.
The communication unit 34 transmits and receives information to and from other devices. The communication unit 34 includes, for example, a communication IC (Integrated Circuit), a communication port, and the like.
The storage unit 35 stores various information. The storage unit 35 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. In addition, the storage unit 35 may include an HDD (Hard Disc Drive), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, and the like. The storage unit 35 stores various programs to be executed by a CPU (Central Processing Unit, not shown) and a GPU (Graphics Processing Unit, not shown) included in the failure analysis device 30 and results of processing executed by the CPU and the GPU. I do. The storage unit 35 includes a learning result storage unit 351.
The learning result storage unit 351 stores the learning result of the failure analysis artificial intelligence provided in the failure analysis device 30. The learning result is, for example, information indicating the state of the neural network. The information indicating the state of the network of the neural network is, for example, information indicating a value of a parameter of an activation function related to each node (unit) configuring the neural network.
制御部360は、例えば、記憶部35に予め記憶されたプログラムを、不具合解析装置30が備えるCPUやGPUが実行することにより実現される。なお、制御部360の一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアの集積回路として実現されてもよい。制御部360は、情報取得部(画像取得部)361と、画像変換部362と、解析部365と、結果生成部368と、結果編集部369と、を備える。 The control unit 360 is realized by, for example, executing a program stored in the storage unit 35 in advance by the CPU or GPU included in the failure analysis device 30. A part or the whole of the control unit 360 may be realized as an integrated circuit of hardware such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit). The control section 360 includes an information acquisition section (image acquisition section) 361, an image conversion section 362, an analysis section 365, a result generation section 368, and a result editing section 369.
情報取得部361は、入力部31や通信部34を介して、路面不具合の解析に必要な各種情報を取得する。情報取得部361は、例えば、路面画像情報、測位情報を記憶媒体から読み出す。また、情報取得部361は、例えば、路面画像情報、測位情報、ユーザ入力情報を、情報端末装置13から取得する。また、情報取得部361は、例えば、不具合情報を、不具合情報管理装置50から取得する。また、情報取得部361は、例えば、台帳情報を、台帳情報管理装置70から取得する。情報取得部361は、取得した各種情報を、画像変換部362、解析部365、結果編集部369に出力する。 The information acquisition unit 361 acquires various types of information necessary for analyzing a road surface defect via the input unit 31 and the communication unit 34. The information acquisition unit 361 reads, for example, road surface image information and positioning information from a storage medium. The information acquisition unit 361 acquires, for example, road surface image information, positioning information, and user input information from the information terminal device 13. The information acquiring unit 361 acquires, for example, defect information from the defect information management device 50. The information acquiring unit 361 acquires, for example, ledger information from the ledger information management device 70. The information acquiring unit 361 outputs the acquired various information to the image converting unit 362, the analyzing unit 365, and the result editing unit 369.
画像変換部362は、情報取得部361から路面画像情報と測位情報と取得する。画像変換部362は、取得した路面画像情報を変換する。また、画像変換部362は、路面画像情報のフレーム時間情報と、測位情報のタイムスタンプとに基づいて、路面画像の各フレームと、測位座標情報とを対応付ける。なお、画像変換部362は、例えば、路面画像がエンコードされた動画像である場合には、各フレームを静止画像に変換してよい。また、画像変換部362は、画像抽出部363と、領域抽出部(部分画像生成部)364と、を備える。 The image conversion unit 362 acquires the road surface image information and the positioning information from the information acquisition unit 361. The image conversion unit 362 converts the acquired road surface image information. Further, the image conversion unit 362 associates each frame of the road surface image with the positioning coordinate information based on the frame time information of the road surface image information and the time stamp of the positioning information. Note that, for example, when the road surface image is an encoded moving image, the image conversion unit 362 may convert each frame into a still image. Further, the image conversion unit 362 includes an image extraction unit 363 and an area extraction unit (partial image generation unit) 364.
画像抽出部363は、画像抽出処理を実行する。
画像抽出処理とは、路面画像情報から、路面不具合の有無を解析する対象の画像(以下、「検査画像」と称する。)を抽出する処理である。換言すると、画像抽出処理とは、撮像部11が撮像した一連の画像から、検査画像を特定したり、抽出したり、抜き出したり、絞り込んだりする処理である。また、画像抽出処理とは、撮像部11が撮像した一連の画像から、路面不具合の有無を解析しない画像を特定したり、抽出したり、抜き出したり、間引いたりする処理である。
The image extracting unit 363 performs an image extracting process.
The image extraction process is a process of extracting an image to be analyzed for the presence or absence of a road surface defect (hereinafter, referred to as an “inspection image”) from the road surface image information. In other words, the image extraction process is a process of specifying, extracting, extracting, or narrowing down an inspection image from a series of images captured by the imaging unit 11. The image extraction process is a process of identifying, extracting, extracting, or thinning out an image for which the presence or absence of a road surface defect is not analyzed from a series of images captured by the imaging unit 11.
画像変換部362は、測位情報に基づいて、撮像範囲の時間的な重複が必要十分になるように検査画像を抽出する。例えば、路面画像情報の各フレームの撮像間隔が短く、車両10の移動速度が小さい場合には、複数のフレームに渡って、路面の同じ部分が繰り返し撮像されることになる。このように時間的に重複したフレームのそれぞれについて、路面不具合の有無を解析すると、路面不具合の検出漏れを低減することできるが、解析に要する負荷が増大してしまう。 The image conversion unit 362 extracts an inspection image based on the positioning information so that temporal overlap of the imaging ranges becomes necessary and sufficient. For example, when the imaging interval of each frame of the road surface image information is short and the moving speed of the vehicle 10 is low, the same portion of the road surface is repeatedly imaged over a plurality of frames. When the presence / absence of a road surface defect is analyzed for each of the temporally overlapping frames as described above, detection omission of the road surface defect can be reduced, but the load required for the analysis increases.
そこで、画像抽出部363は、測位情報に基づき、複数のフレームの検査領域において、路面の同じ部分が所定の頻度で含まれるように検査画像を抽出する。検査領域とは、例えば、画像内において、路面不具合の有無を解析する対象の領域である。検査画像の抽出において、路面の同じ部分が含まれる頻度は、測位部12の測位精度や不具合解析用人工知能の認識精度に基づいて決定されてよい。例えば、測位精度や認識精度が高い場合には、頻度を低くしてよいし、測位精度や認識精度が低い場合には、頻度を高くしてよい。 Therefore, the image extracting unit 363 extracts the inspection image based on the positioning information so that the same portion of the road surface is included at a predetermined frequency in the inspection regions of the plurality of frames. The inspection area is, for example, an area in the image to be analyzed for the presence or absence of a road surface defect. In the extraction of the inspection image, the frequency at which the same portion of the road surface is included may be determined based on the positioning accuracy of the positioning unit 12 or the recognition accuracy of the fault analysis artificial intelligence. For example, when the positioning accuracy or the recognition accuracy is high, the frequency may be low, and when the positioning accuracy or the recognition accuracy is low, the frequency may be high.
このように検査画像を抽出することにより、不具合解析装置30は、路面不具合の認識精度を保ちつつ、解析に要する負荷を低減することができる。また、不具合解析装置30は、検査画像を連続して表示した場合には、一定距離ごと、すなわち、一定の速度で車両10を走らせながら路面画像を撮像したように表示することができる。従って、不具合解析装置30は、路面画像の撮像後に、路面画像に写った路面不具合を目視で確認する場合であっても、確認しやすくすることができる。
画像抽出部363は、画像抽出処理により抽出した検査画像の情報を、領域抽出部364に出力する。
By extracting the inspection image in this way, the failure analysis device 30 can reduce the load required for the analysis while maintaining the recognition accuracy of the road surface failure. Further, when the inspection images are displayed continuously, the failure analysis device 30 can display the road surface image as if the road surface image was captured while the vehicle 10 was running at a constant distance, that is, at a constant speed. Therefore, the failure analysis device 30 can easily confirm the road surface defect in the road surface image even after the road surface image is captured.
The image extracting unit 363 outputs information of the inspection image extracted by the image extracting process to the region extracting unit 364.
領域抽出部364は、画像抽出部363から検出画像の情報を取得する。領域抽出部364は、検出画像に対して、領域抽出処理を実行する。
領域抽出処理とは、検査画像から、検査領域を抽出する処理である。換言すると、領域抽出処理とは、検査画像から検査領域を、特定したり、抽出したり、抜き出したり、絞り込んだり、生成したり、検査画像を分割したりする処理である。また、領域抽出処理とは、検査画像から、路面不具合の有無を解析しない領域を特定したり、抽出したり、抜き出したり、間引いたりする処理である。検査画像には、路面以外の物体が写り込む場合がある。例えば、検査画像には、道路脇の家屋や道路上の他の車両等が写り込むことがある。これら路面以外の物体についても路面不具合を解析すると、路面以外の物体について路面不具合であると誤認識してしまい、認識精度が低下する可能性がある。特に、路面以外の物体についての機械学習が不十分である場合には、このような誤認識が起こりやすい。また、これら路面以外の物体についても路面不具合を解析すると、路面不具合の解析に要する負荷が増大してしまう。
The region extracting unit 364 acquires information on the detected image from the image extracting unit 363. The region extraction unit 364 performs a region extraction process on the detected image.
The region extraction process is a process of extracting an inspection region from an inspection image. In other words, the region extraction process is a process of specifying, extracting, extracting, narrowing down, generating, or dividing the inspection image from the inspection image, and dividing the inspection image. The region extraction process is a process of specifying, extracting, extracting, or thinning out a region for which the presence or absence of a road surface defect is not analyzed from an inspection image. An object other than the road surface may appear in the inspection image. For example, a house beside a road, another vehicle on a road, or the like may appear in the inspection image. If a road surface defect is analyzed for objects other than the road surface, an object other than the road surface may be erroneously recognized as a road surface defect, and the recognition accuracy may be reduced. In particular, if the machine learning for objects other than the road surface is insufficient, such erroneous recognition is likely to occur. In addition, if a road surface defect is analyzed for objects other than the road surface, the load required for analyzing the road surface defect increases.
そこで、領域抽出処理では、検査画像から検査領域として、路面の領域を抽出する。また、領域抽出処理では、路面外の領域を除外してもよい。また、領域抽出処理では、1つの画像から互いに重複する複数の領域を抽出してもよい。複数の領域が重複する場合は、ある領域の頂点部分や辺部分が他の領域に含まれる。
領域抽出部364は、領域抽出処理により抽出した検査領域の情報を、解析部365に出力する。また、領域抽出部364は、検査領域の各々の検査画像における位置を示す情報を、解析部365に出力する。
Therefore, in the region extraction processing, a road surface region is extracted from a test image as a test region. In the region extraction processing, a region outside the road surface may be excluded. Further, in the region extraction processing, a plurality of overlapping regions may be extracted from one image. When a plurality of regions overlap, a vertex portion or a side portion of a certain region is included in another region.
The region extraction unit 364 outputs information on the inspection region extracted by the region extraction processing to the analysis unit 365. Further, the region extracting unit 364 outputs information indicating the position of each inspection region in the inspection image to the analysis unit 365.
解析部365は、不具合解析用人工知能として実装される。解析部365は、学習部366と、認識部367と、を備える。
学習部366は、不具合情報管理装置50が管理する第1種不具合情報を用いて機械学習を実行する。学習部366は、第1種不具合情報の他、路面画像に写り込む可能性がある路面不具合以外の物体を写した画像により強化学習を行ってもよい。例えば、マンホールの画像や側溝を写した画像等により強化学習を行ってもよい。これにより、不具合解析用人工知能は、路面不具合以外の物体を識別することができるため、路面不具合以外の物体を、路面不具合であると誤認識しにくくなる。従って、路面不具合の認識精度を向上させることができる。
The analysis unit 365 is implemented as a failure analysis artificial intelligence. The analysis unit 365 includes a learning unit 366 and a recognition unit 367.
The learning unit 366 executes machine learning using the first type defect information managed by the defect information management device 50. The learning unit 366 may perform the reinforcement learning using an image of an object other than a road surface defect that may appear in a road surface image, in addition to the first type defect information. For example, reinforcement learning may be performed using an image of a manhole, an image of a gutter, or the like. Accordingly, the fault analysis artificial intelligence can identify an object other than the road surface defect, and thus it is difficult to erroneously recognize an object other than the road surface defect as a road surface defect. Therefore, the recognition accuracy of the road surface defect can be improved.
認識部(状態判定部)367は、領域抽出部364から取得した検査領域の情報に基づいて、各検査領域における路面不具合の有無を解析する。つまり、認識部367は、各検査領域における路面の状態を判定する。認識部367は、各検査領域で検出された路面不具合の各々を1つの路面不具合として判定してもよいし、隣接する複数の検査領域で検出された路面不具合をまとめて1つの路面不具合として判定してもよい。また、認識部367は、各検査画像で検出された路面不具合の各々を1つの路面不具合として判定してもよいし、連続する検査画像で検出された路面不具合をまとめて1つの路面不具合として判定してもよい。このように、認識部367は、複数の検査領域や複数の検査画像の判定結果を統合して判定してもよい。 The recognition unit (state determination unit) 367 analyzes the presence or absence of a road surface defect in each inspection region based on the information on the inspection region acquired from the region extraction unit 364. That is, the recognition unit 367 determines the state of the road surface in each inspection area. The recognizing unit 367 may determine each of the road surface defects detected in each inspection area as one road surface defect, or collectively determine the road surface defects detected in a plurality of adjacent inspection regions as one road surface defect. May be. The recognizing unit 367 may determine each of the road surface defects detected in each inspection image as one road surface defect, or collectively determine the road surface defects detected in successive inspection images as one road surface defect. May be. As described above, the recognition unit 367 may perform the determination by integrating the determination results of the plurality of inspection regions and the plurality of inspection images.
また、認識部367は、路面不具合が検出された検査画像に対応する測位情報を特定することで、路面不具合の位置を特定することができる。また、認識部367は、検査領域の検査画像における位置を示す情報を、領域抽出部364から取得することにより、路面不具合の位置をさらに正確に特定することができる。また、不具合解析装置30は、加速度の変化に基づく路面の凹凸の検出結果や他の画像解析プログラムによる路面不具合の解析結果等の他の手法を用いた路面不具合の解析結果と組み合わせて、路面不具合の有無を解析してもよい。 In addition, the recognition unit 367 can specify the position of the road surface defect by specifying the positioning information corresponding to the inspection image in which the road surface defect has been detected. In addition, the recognition unit 367 can more accurately specify the position of the road surface defect by acquiring information indicating the position of the inspection region in the inspection image from the region extraction unit 364. In addition, the failure analysis device 30 combines a road surface failure analysis result using other methods such as a road surface irregularity detection result based on a change in acceleration or a road surface failure analysis result by another image analysis program. May be analyzed.
認識部367は、解析結果を不具合情報管理装置50に送信する。これにより、解析結果が第2種不具合情報として、不具合情報管理装置50に記憶される。解析結果は、例えば、路面不具合が検出された検査画像、検査領域、路面不具合の種別、判定スコア(確信度)等を含む。解析部365は、判定スコアの値、前後の路面画像における路面不具合の解析結果、同じ路面画像の複数の検査領域における路面不具合の解析結果等を参照して、路面不具合の度合いや発生範囲を特定することができる。解析部365は、例えば、路面不具合の種別の候補が複数ある場合には、判定スコアの最も高い種別を設定してもよいし、その全てを設定してもよい。 The recognizing unit 367 transmits the analysis result to the defect information management device 50. As a result, the analysis result is stored in the defect information management device 50 as the second type defect information. The analysis result includes, for example, an inspection image in which a road surface defect is detected, an inspection region, a type of the road surface defect, a determination score (certainty factor), and the like. The analysis unit 365 specifies the degree and range of occurrence of the road surface defect by referring to the value of the determination score, the analysis result of the road surface defect in the front and rear road surface images, the analysis result of the road surface defect in a plurality of inspection areas of the same road surface image, and the like. can do. For example, when there are a plurality of types of road surface defect types, the analysis unit 365 may set the type having the highest determination score, or may set all types.
また、解析部365は、重複した検査領域において、判定結果が別れた場合には、そのいずれを採用してもよい。例えば、解析部365は、一方の検査領域で「路面不具合あり」と判定し、他方の検査領域で「路面不具合なし」と判定した場合には、OR処理を行って「路面不具合あり」と判定してもよいし、AND処理を行って「路面不具合なし」と判定してもよい。OR処理を行って「路面不具合あり」と判定する場合は、不具合解析装置30は、路面不具合の検出漏れを防ぐことができる。また、AND処理を行って「路面不具合なし」と判定する場合は、路面不具合の誤検出を抑制することができる。 In the case where the determination result is different in the overlapping inspection area, the analysis unit 365 may employ any of the determination results. For example, when the analysis unit 365 determines that “there is a road surface defect” in one inspection region and determines that “there is no road surface defect” in the other inspection region, the analysis unit 365 performs OR processing and determines that “there is a road surface defect”. Alternatively, it may be determined that “there is no road surface defect” by performing an AND process. When the OR process is performed and it is determined that “there is a road surface defect”, the defect analysis device 30 can prevent omission of detection of the road surface defect. When it is determined that “there is no road surface defect” by performing the AND process, erroneous detection of the road surface defect can be suppressed.
結果生成部368は、第1種不具合情報や第2種不具合情報(すなわち、解析部365による解析結果)を示すテキストや画像、音声等の提示情報を生成する。結果生成部368は、例えば、不具合情報を付加した動画や検査画像をフレーム番号順に再生する動画を生成する。結果生成部368が生成する提示情報の画面の具体例については、後述する。結果生成部368は、生成した提示情報を表示部32や音声再生部33を介して提示する。このとき、結果生成部368は、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90とが管理する任意の情報を参照して、提示情報を生成してよい。 The result generation unit 368 generates presentation information such as text, an image, and sound indicating the first type defect information and the second type defect information (that is, the analysis result by the analysis unit 365). The result generation unit 368 generates, for example, a moving image to which defect information is added or a moving image that reproduces an inspection image in frame number order. A specific example of the presentation information screen generated by the result generation unit 368 will be described later. The result generation unit 368 presents the generated presentation information via the display unit 32 and the audio reproduction unit 33. At this time, the result generation unit 368 may generate presentation information with reference to arbitrary information managed by the defect information management device 50, the ledger information management device 70, and the map information management device 90.
結果編集部369は、ユーザからの指示に応じて不具合情報の編集を行う。例えば、結果編集部369は、不具合情報管理装置50に記憶された第2種不具合情報を、ユーザからの指示に応じて編集してもよい。また、例えば、結果編集部369は、不具合情報管理装置50に記憶された第2種不具合情報を、ユーザからの指示に応じて第1種不具合情報として記憶させてもよい。これにより、解析部365により検出された路面不具合の画像を、不具合人工知能の学習に利用することができる。なお、結果編集部369は、ユーザからの指示に代えて、他の路面不具合を検出するプログラムや、路面監視に用いる他のプログラムが出力する結果に応じて上記の処理を行ってもよい。
以上が、不具合解析装置30の構成についての説明である。
The result editing unit 369 edits the defect information according to an instruction from the user. For example, the result editing unit 369 may edit the second type defect information stored in the defect information management device 50 according to an instruction from a user. Further, for example, the result editing unit 369 may store the second type defect information stored in the defect information management device 50 as the first type defect information according to an instruction from the user. Thus, the image of the road surface defect detected by the analysis unit 365 can be used for learning the defect artificial intelligence. Note that the result editing unit 369 may perform the above-described processing according to a result output by another program for detecting a road surface defect or another program used for road surface monitoring, instead of an instruction from the user.
The above is the description of the configuration of the failure analysis device 30.
〔不具合解析装置30の動作〕
次に、不具合解析装置30の動作について説明する。
図13は、不具合解析装置30による全体的な処理の流れを示すフローチャートである。
(ステップS100)情報取得部361は、路面画像情報と、測位情報とを取得する。その後、制御部360は、ステップS102に処理を進める。
(ステップS102)画像変換部362は、画像抽出処理を実行し、検査画像を抽出する。その後、制御部360は、ステップS104に処理を進める。
[Operation of Failure Analysis Device 30]
Next, the operation of the failure analysis device 30 will be described.
FIG. 13 is a flowchart showing the flow of the overall processing performed by the failure analysis device 30.
(Step S100) The information acquisition unit 361 acquires road surface image information and positioning information. Thereafter, control unit 360 proceeds with the process to step S102.
(Step S102) The image conversion unit 362 performs an image extraction process to extract an inspection image. After that, the control section 360 advances the process to step S104.
(ステップS104)画像変換部362は、領域抽出処理を実行し、検査領域を抽出する。その後、制御部360は、ステップS106に処理を進める。
(ステップS106)解析部365は、各検査画像の各検査領域に含まれる路面不具合を解析する。解析部365は、解析結果を示す不具合情報を、第2種不具合情報として、不具合情報管理装置50に記憶させる。その後、制御部360は、ステップS108に処理を進める。
(ステップS108)結果生成部368は、不具合情報管理装置50が管理する不具合情報をユーザに提示するための提示情報を生成する。結果生成部368は、生成した提示情報を表示部32や音声再生部33に出力する。その後、制御部360は、図13に示す処理を終了する。
なお、ステップS102、S104の処理は、省略可能である。
以上が、不具合解析装置30による全体的な処理の流れについての説明である。
(Step S104) The image conversion unit 362 performs an area extraction process to extract an inspection area. After that, the control unit 360 advances the process to Step S106.
(Step S106) The analysis unit 365 analyzes a road surface defect included in each inspection region of each inspection image. The analysis unit 365 causes the defect information management device 50 to store the defect information indicating the analysis result as the second type defect information. Thereafter, control unit 360 proceeds with the process to step S108.
(Step S108) The result generation unit 368 generates presentation information for presenting the user with the defect information managed by the defect information management device 50. The result generation unit 368 outputs the generated presentation information to the display unit 32 and the audio reproduction unit 33. After that, the control unit 360 ends the processing illustrated in FIG.
Note that the processing of steps S102 and S104 can be omitted.
The above is the description of the overall processing flow by the failure analysis device 30.
〔画像抽出処理〕
次に、不具合解析装置30による画像抽出処理について説明する。
ここでは、一例として、車両10の移動に応じて変化する一連の路面画像から、所定の設定距離の移動に対応する路面画像を抽出する場合について説明する。
図14は、不具合解析装置30による画像抽出処理の流れを示すフローチャートである。
(ステップS200)画像抽出部363は、フレームIDに基づいてフレーム(画像)を選択する。例えば、画像抽出部363は、フレームを未選択の場合には、最初のフレームを選択する。また、画像抽出部363は、既にフレームを選択している場合には、選択中のフレームの次のフレームを選択する。その後、制御部360は、ステップS202に処理を進める。
(Image extraction processing)
Next, an image extraction process by the failure analysis device 30 will be described.
Here, as an example, a case where a road surface image corresponding to a movement of a predetermined set distance is extracted from a series of road surface images that change according to the movement of the vehicle 10 will be described.
FIG. 14 is a flowchart illustrating the flow of the image extraction process performed by the failure analysis device 30.
(Step S200) The image extracting unit 363 selects a frame (image) based on the frame ID. For example, when a frame has not been selected, the image extracting unit 363 selects the first frame. If a frame has already been selected, the image extracting unit 363 selects the next frame after the selected frame. After that, the control unit 360 advances the process to step S202.
(ステップS202)画像抽出部363は、選択中のフレームに対応する測位情報を参照し、1つ前のフレームに対応する測位結果からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称することがある。その後、制御部360は、ステップS204に処理を進める。
(ステップS204)画像抽出部363は、算出した移動距離を、移動距離合計に加算する。なお、移動距離合計は、画像抽出処理の開始時に初期化される。その後、制御部360は、ステップS206に処理を進める。
(Step S202) The image extracting unit 363 refers to the positioning information corresponding to the selected frame and calculates the moving distance from the positioning result corresponding to the immediately preceding frame. Hereinafter, this moving distance may be referred to as “distance between images”. After that, the control section 360 advances the process to step S204.
(Step S204) The image extracting unit 363 adds the calculated moving distance to the total moving distance. Note that the total moving distance is initialized at the start of the image extraction processing. After that, the control section 360 advances the process to step S206.
(ステップS206)画像抽出部363は、移動距離合計と、所定の設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS206;YES)、制御部360は、ステップS208に処理を進める。移動距離合計が設定距離に比して小さい場合(ステップS206;NO)、制御部360は、ステップS214に処理を進める。 (Step S206) The image extracting unit 363 compares the total moving distance with a predetermined set distance. If the total moving distance is larger than the set distance (step S206; YES), control unit 360 proceeds to step S208. When the total moving distance is smaller than the set distance (Step S206; NO), the control unit 360 advances the process to Step S214.
ここで、設定距離は、例えば、1つの検査画像における路面不具合の認識精度に応じて設定されてよい。例えば、1つの検査画像において、近傍だけでなく遠くに写る路面不具合を検出できる場合には、設定距離を大きくし、各検査画像に写る路面の重複を少なくしてよい。また、1つの検査画像において、遠くに写る路面不具合を検出できない場合には、設定距離を小さくし、各検査画像に写る路面の重複を多くしてよい。これにより、路面不具合の解析に要する負荷を低減しつつ、路面不具合の認識精度を維持することができる。 Here, the set distance may be set, for example, according to the recognition accuracy of a road surface defect in one inspection image. For example, when it is possible to detect a road surface defect not only in the vicinity but also in a distance in one inspection image, the set distance may be increased and the overlap of the road surface in each inspection image may be reduced. Further, if a road surface defect that is distant can not be detected in one inspection image, the set distance may be reduced, and the overlap of the road surface in each inspection image may be increased. This makes it possible to maintain the recognition accuracy of the road surface defect while reducing the load required for analyzing the road surface defect.
(ステップS208)画像抽出部363は、移動距離合計を0に設定し、初期化する。その後、制御部360は、ステップS210に処理を進める。
(ステップS210)画像抽出部363は、選択中の画像と測位情報とを対応付ける。その後、制御部360は、ステップS212に処理を進める。
(ステップS212)画像抽出部363は、選択画像を検査画像として設定する。その後、制御部360は、ステップS214に処理を進める。
(Step S208) The image extracting unit 363 sets the total moving distance to 0 and initializes it. Thereafter, control unit 360 proceeds with the process to step S210.
(Step S210) The image extracting unit 363 associates the currently selected image with the positioning information. After that, the control section 360 advances the process to step S212.
(Step S212) The image extracting unit 363 sets the selected image as the inspection image. After that, the control unit 360 advances the process to step S214.
(ステップS214)画像抽出部363は、次の画像の有無と、その画像に対応する測位結果の有無とを確認する。画像及び測位結果が存在する場合(ステップS214;YES)、制御部360、ステップS216に処理を進める。画像及び測位結果が存在しない場合(ステップS214;NO)、制御部360は、ステップS216に処理を進める。
(ステップS216)画像抽出部363は、検査画像と、検査画像に対応する測位情報とを記憶部35に記憶し、参照可能にする。その後、制御部360は、図14に示す処理を終了する。
なお、検出画像は、例えば、10フレーム間隔等、設定距離に依らずに抽出されてもよい。また、図14に示す処理では省略したが、測位情報は、車両10の速度情報等により補正されたものであってもよい。
以上が、画像抽出処理の説明である。
(Step S214) The image extracting unit 363 checks the presence / absence of the next image and the presence / absence of the positioning result corresponding to the next image. When the image and the positioning result are present (Step S214; YES), the control unit 360 advances the process to Step S216. When the image and the positioning result do not exist (Step S214; NO), the control unit 360 advances the process to Step S216.
(Step S216) The image extracting unit 363 stores the inspection image and the positioning information corresponding to the inspection image in the storage unit 35, and makes the reference possible. After that, the control unit 360 ends the processing illustrated in FIG.
Note that the detection image may be extracted regardless of the set distance, for example, at intervals of 10 frames. Although omitted in the processing illustrated in FIG. 14, the positioning information may be corrected based on speed information of the vehicle 10 or the like.
The above is the description of the image extraction processing.
〔領域抽出処理〕
次に、領域抽出処理について説明する。
図15は、検査画像の一例を示す図である。
図15に示す例において、撮像部11は、車両10の前方を撮像するように設置されている。この撮像部11によって撮像された検査画像P6には、3つのラインによって区切られた2車線の道路の路面が含まれている。また、検査画像P6には、縁石R4によって区切られた沿道が含まれている。
[Area extraction processing]
Next, the region extraction processing will be described.
FIG. 15 is a diagram illustrating an example of the inspection image.
In the example illustrated in FIG. 15, the imaging unit 11 is installed so as to capture an image in front of the vehicle 10. The inspection image P6 captured by the imaging unit 11 includes a road surface of a two-lane road divided by three lines. In addition, the inspection image P6 includes a roadside sectioned by the curb R4.
ここで、検査画像P6において、車両10の下側には車道が位置し、車両10の上側の空間は開けている。撮像部11の撮像面に近い物体は大きく映るため、検査画像P6の下側(手前側)、すなわち車両10に近い路面は大きく写り、検査画像P6の中央部(奥行側)、すなわち車両10から遠い路面は小さく写る。つまり、検査画像P6の下側の路面は、現実には同じ面積であっても、より多い画素数で撮像される。そのため、同じ面積の路面不具合であっても、検査画像P6の下側と中央部とでは、下側に写る路面不具合の方が高い精度で認識することができる。また、検査画像P6の撮像において、車両10の近傍に他の車両が存在している場合であっても、検査画像P6の下側には、車両10のごく近傍が撮像されるため、中央部よりも確実に路面が写ることになる。また、車両10が右左折する場合、撮像範囲の変化量は、検査画像P6の中央部よりも下側の方が少ない。従って、車両10が右左折する場合には、検査画像P6の中央部では解析されない部分が生じうる。また、車両10は、基本的に車線の中央付近を走行するので、撮像部11が車両10の進行方向を撮像するように設定されている場合、検査画像P6の横方向においては、特に画像の端部に路面以外の沿道や路肩等が写り込みやすい。 Here, in the inspection image P6, the roadway is located below the vehicle 10 and the space above the vehicle 10 is open. Since the object near the imaging surface of the imaging unit 11 is large, the lower side (front side) of the inspection image P6, that is, the road surface close to the vehicle 10 is large, and the center part (depth side) of the inspection image P6, that is, from the vehicle 10 A distant road surface appears small. That is, the lower road surface of the inspection image P6 is imaged with a larger number of pixels even though the road surface is actually the same area. Therefore, even if the road surface defect has the same area, the lower road surface defect can be recognized with higher accuracy between the lower part and the central part of the inspection image P6. Further, in the imaging of the inspection image P6, even if another vehicle is present in the vicinity of the vehicle 10, the image of the inspection image P6 is very close to the vehicle 10 below the inspection image P6. The road surface will be reflected more reliably than before. When the vehicle 10 makes a right or left turn, the amount of change in the imaging range is smaller at the lower side than at the center of the inspection image P6. Therefore, when the vehicle 10 makes a right or left turn, a part that is not analyzed may occur at the center of the inspection image P6. In addition, since the vehicle 10 basically travels near the center of the lane, when the imaging unit 11 is set to capture the traveling direction of the vehicle 10, particularly in the lateral direction of the inspection image P6, Roads other than the road surface, road shoulders, and the like are easily reflected at the ends.
図16は、領域抽出処理の一例を示す図である。
図16に示す検査画像P7は、図15に示す検査画像P6と同様に撮像された画像である。図16に示す領域A1〜A10は、それぞれ、検査画像P7に設定された検査領域を示す。このように検査領域A1〜A10を設定することにより、各検査領域A1〜A10は、路面以外の物体を含みにくくなる。これにより、路面不具合以外の物体を、路面不具合であると誤認識してしまうことが少なくなるため、不具合解析装置30は、路面不具合の認識精度を向上させることができる。また、路面不具合の画像内の位置を特定することができる。また、検査画像P7に複数の路面不具合が写る場合であっても、各検査領域A1〜A10に個々の路面不具合のみを含みやすくなる。これにより、不具合解析装置30は、個々の路面不具合の種別を精度よく認識することができる。
FIG. 16 is a diagram illustrating an example of the region extraction process.
The inspection image P7 shown in FIG. 16 is an image captured similarly to the inspection image P6 shown in FIG. Areas A1 to A10 shown in FIG. 16 each indicate an inspection area set in the inspection image P7. By setting the inspection areas A1 to A10 in this way, each of the inspection areas A1 to A10 is unlikely to include an object other than the road surface. This reduces the possibility of erroneously recognizing an object other than a road surface defect as a road surface defect, so that the defect analysis device 30 can improve the recognition accuracy of a road surface defect. Further, the position of the road surface defect in the image can be specified. Further, even when a plurality of road surface defects are shown in the inspection image P7, each of the inspection areas A1 to A10 is likely to include only individual road surface defects. Thereby, the failure analysis device 30 can accurately recognize the type of each road surface failure.
また、上記のように検査画像P7の下側と中央部とでは、下側に写る路面不具合の方が高い精度で認識できる。そのため、検査画像P7の縦方向については、中央部よりも下側に、より多くの検査領域を設定している。また、上記のように検査画像P7の縦方向では、中央側よりも下側に路面が写る。そして、上記のように検査画像P7の縦方向では、中央側よりも下側の方が右左折時の撮像範囲の変化が小さい。従って、下側により多くの検査領域を設定することにより、路面不具合を精度よく認識することができる。また、上記のように検査画像P7の横方向においては、画像の端部に路面以外の沿道等が写り込みやすい。そのため、検査画像P7の中央部の横方向においては、端部よりも中央近傍に、より多くの検査領域を設定している。また、検査領域A1〜A10は、その一部が互いに重複するように設定されている。これにより、路面不具合がある検査領域の境界や端部に含まれる場合であっても、その検査領域に重複して設定された検査領域において、路面不具合を中央近傍に含むことができる。従って、不具合解析装置30は、路面不具合の検出漏れを抑制し、認識精度を向上させることができる。
以上が、領域抽出処理についての説明である。
Further, as described above, between the lower side and the central part of the inspection image P7, a road surface defect that is photographed on the lower side can be recognized with higher accuracy. Therefore, in the vertical direction of the inspection image P7, more inspection areas are set below the center. Further, as described above, in the vertical direction of the inspection image P7, the road surface appears below the center side. As described above, in the vertical direction of the inspection image P7, the change in the imaging range when turning right or left is smaller on the lower side than on the center side. Therefore, by setting more inspection areas on the lower side, road surface defects can be recognized with high accuracy. Further, as described above, along the lateral direction of the inspection image P7, roadsides other than the road surface and the like are likely to be reflected at the end of the image. Therefore, in the lateral direction of the center of the inspection image P7, more inspection areas are set near the center than at the ends. In addition, the inspection areas A1 to A10 are set so that a part thereof overlaps each other. As a result, even when the road surface defect is included in the boundary or the end of the inspection region, the road surface defect can be included in the vicinity of the center in the inspection region set so as to overlap the inspection region. Therefore, the failure analysis device 30 can suppress detection omission of a road surface failure and improve recognition accuracy.
The above is the description of the region extraction processing.
〔不具合情報の提示〕
次に、不具合情報の提示について説明する。
不具合情報は、不具合解析装置30が提示してもよいし、情報端末装置13が提示してもよい。
図17は、不具合情報の提示画面の一例を示す図である。
図17に示す例において、画面O1は、複数の領域O2〜O4を含む。画面O1は、例えばウェブページ化され、任意の端末のウェブブラウザから参照可能である。
領域O2は、車両10の位置を示すマーカO21、路面不具合の位置を示すマーカO22、路面画像を取得した位置、すなわち車両10の走行経路O23を、地図上に表示した画像を提示する領域である。車両10のマーカO21、地図の縮尺、地図の範囲は、ユーザによる操作に応じて変更可能である。地図の範囲は、車両10のマーカO21の位置、路面不具合のマーカO22の位置、車両10の走行経路O23に応じて定められてもよい。
[Presentation of defect information]
Next, the presentation of the defect information will be described.
The defect information may be presented by the defect analysis device 30 or the information terminal device 13.
FIG. 17 is a diagram illustrating an example of a screen for presenting the defect information.
In the example shown in FIG. 17, the screen O1 includes a plurality of regions O2 to O4. The screen O1 is converted into a web page, for example, and can be referred to from a web browser of an arbitrary terminal.
The region O2 is a region where a marker O21 indicating the position of the vehicle 10, a marker O22 indicating the position of the road surface defect, and a position where the road surface image is acquired, that is, an image in which the traveling route O23 of the vehicle 10 is displayed on a map are presented. . The marker O21 of the vehicle 10, the scale of the map, and the range of the map can be changed according to the operation by the user. The range of the map may be determined according to the position of the marker O21 of the vehicle 10, the position of the marker O22 of the road surface defect, and the traveling route O23 of the vehicle 10.
また、路面不具合のマーカO22は、地図の縮尺や路面不具合の密集度に応じてまとめられてよい。例えば、不具合解析装置30は、1つの検査画像の複数の検査領域から検出された路面不具合、連続する複数の検査画像から検出された路面不具合等を1つのマーカO22にまとめてよい。まとめられたマーカO22は、ユーザからの選択に応じて個別に確認できるようにしてよい。また、路面不具合のマーカO22は、路面不具合の種別や度合い、発生範囲、第1種不具合情報か第2種不具合情報か等に応じて異なる表示態様(絵柄、色彩、形状、大きさ、透明度等)で示されてよい。 Further, the road surface defect markers O22 may be put together according to the scale of the map or the density of the road surface defects. For example, the defect analysis device 30 may combine the road surface defects detected from a plurality of inspection regions of one inspection image, the road surface defects detected from a plurality of continuous inspection images, and the like into one marker O22. The assembled markers O22 may be individually confirmed according to the selection from the user. In addition, the road surface defect marker O22 has different display modes (design, color, shape, size, transparency, etc.) depending on the type and degree of the road surface defect, the occurrence range, and whether it is the first type defect information or the second type defect information. ).
領域O3は、路面画像を表示する領域である。領域O3は、画像抽出処理により抽出された検査画像を連続的に表示する。画像抽出処理において各画像間の重複の頻度を一定にしている場合には、領域O3で再生される動画像は、一定の走行速度で撮像されたように表現される。従って、ユーザは、効率よく路面不具合を確認することができる。
領域O4は、検出された路面不具合を含む路面画像のフレームを一覧表示する領域である。領域O4には、各フレームにおいて、路面不具合を検出した検査領域O41が表示される。
The area O3 is an area for displaying a road surface image. The area O3 continuously displays the inspection images extracted by the image extraction processing. When the frequency of overlap between the images is constant in the image extraction processing, the moving image reproduced in the region O3 is expressed as if it were captured at a constant traveling speed. Therefore, the user can efficiently confirm the road surface trouble.
The region O4 is a region for displaying a list of frames of the road surface image including the detected road surface defect. In the area O4, an inspection area O41 in which a road surface defect is detected in each frame is displayed.
領域O2〜O4の表示は、互いに連携していてよい。例えば、領域O2における車両10の位置O21において撮像された路面画像が、領域O3に表示されるようにしてよい。また、車両10の位置O21から所定距離に位置する路面不具合を含む路面画像が、領域O4に表示されるようにしてもよい。例えば、領域O2において、車両10のマーカO21の位置を変更することに応じて、領域O3の表示や領域O4の表示が切り替わるようにしてよい。 The display of the regions O2 to O4 may be associated with each other. For example, a road surface image captured at the position O21 of the vehicle 10 in the region O2 may be displayed in the region O3. Further, a road surface image including a road surface defect located at a predetermined distance from the position O21 of the vehicle 10 may be displayed in the region O4. For example, in the area O2, the display of the area O3 or the display of the area O4 may be switched according to the change of the position of the marker O21 of the vehicle 10.
また、提示画面O1には、上記以外の任意の情報が表示されてよい。不具合解析装置30は、例えば、路面不具合のマーカO22が選択された場合に、その路面不具合について、位置、路面不具合種別、撮像時刻、路線番号、道路工事履歴等の各種情報を表示してもよい。また、不具合解析装置30は、提示画面O1に路面不具合の総数や路面不具合の走行距離ごとの平均等の数値を表示してもよい。また、不具合解析装置30は、撮像時刻、天候、他の手法を用いた路面不具合の解析結果(加速度の変化に基づく路面の凹凸の検出結果、他の画像解析プログラムによる路面不具合の解析結果)等を表示してもよい。 In addition, any information other than the above may be displayed on the presentation screen O1. For example, when the road surface defect marker O22 is selected, the defect analysis device 30 may display various kinds of information such as the position, the road surface defect type, the imaging time, the route number, the road construction history, and the like for the road surface defect. . Further, the failure analysis device 30 may display a numerical value such as the total number of road surface defects or the average of road surface defects for each traveling distance on the presentation screen O1. In addition, the failure analysis device 30 analyzes the road surface failure using the imaging time, the weather, and other methods (the detection result of the road surface unevenness based on the change in acceleration, the analysis result of the road surface failure by another image analysis program), and the like. May be displayed.
また、情報端末装置13、不具合解析装置30は、提示画面O1を介して、ユーザによる不具合情報の修正を受け付けてよい。例えば、ユーザにより路面不具合のマーカO22が選択された場合に、マーカO22の削除や路面不具合の種別の変更を受け付け可能としてよい。また、不具合解析装置30は、領域O3に表示されている路面画像と、当該路面画像内の領域とが選択された場合に、選択された領域及び路面画像と、その路面画像に対応する測位情報とに基づいて不具合情報を生成してもよい。そして、生成した不具合情報を、第1種不具合情報として、不具合情報管理装置50に記憶させてもよい。
以上が、不具合情報の提示についての説明である。
In addition, the information terminal device 13 and the failure analysis device 30 may receive correction of the failure information by the user via the presentation screen O1. For example, when the marker O22 of the road surface defect is selected by the user, the deletion of the marker O22 or the change of the type of the road surface defect may be accepted. Further, when the road surface image displayed in the region O3 and the region in the road surface image are selected, the failure analysis device 30 determines the selected region and the road surface image and the positioning information corresponding to the road surface image. May be generated based on the above. Then, the generated defect information may be stored in the defect information management device 50 as the first type defect information.
The above is the description of the presentation of the defect information.
〔第1の実施形態のまとめ〕
以上説明したように、不具合解析装置30は、面(例えば、路面)を撮像した画像について、当該面の状態を示す教示データ(例えば、第1種不具合情報)に基づいて、深層学習を行う学習部366と、面を含む領域が撮像された画像(例えば、路面画像)であって、撮像された位置を示す位置情報(例えば、測位情報)と対応付けられた画像を取得する情報取得部361と、前記学習部366の学習結果に基づいて、前記情報取得部361が取得した画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、撮像された面について、各場所の状態を網羅的に解析することができる。
[Summary of First Embodiment]
As described above, the defect analysis device 30 performs the learning for performing the deep learning on the image obtained by capturing the surface (for example, the road surface) based on the teaching data (for example, the first type defect information) indicating the state of the surface. A unit 366 and an information acquisition unit 361 for acquiring an image (for example, a road surface image) in which a region including a surface is captured and associated with position information (for example, positioning information) indicating the captured position. And a recognizing unit 367 that determines the state of the surface in the image acquired by the information acquiring unit 361 based on the learning result of the learning unit 366.
Thus, the failure analysis device 30 can comprehensively analyze the state of each location on the imaged surface.
また、不具合解析装置30において、認識部367は、1つの画像から出力された複数の部分画像の各々の中の面の状態の判定結果を統合して、当該面の状態を判定する。
これにより、不具合解析装置30は、面の各場所の状態を、周囲の状態を参照して判定する。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, in the failure analysis device 30, the recognizing unit 367 integrates the determination results of the state of the plane in each of the plurality of partial images output from one image, and determines the state of the plane.
Thus, the failure analysis device 30 determines the state of each location on the surface with reference to the surrounding state. Therefore, the failure analysis device 30 can improve the accuracy of determining the state of the surface.
また、不具合解析装置30において、認識部367は、情報取得部361が取得する、続けて撮像された複数の画像の各々の中の面の状態の判定結果を統合して、当該面の状態を判定する。
これにより、不具合解析装置30は、面の各場所の状態を、周囲の状態を参照して判定する。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, in the failure analysis device 30, the recognizing unit 367 integrates the determination results of the state of the surface in each of the plurality of continuously captured images acquired by the information acquiring unit 361, and determines the state of the surface. judge.
Thus, the failure analysis device 30 determines the state of each location on the surface with reference to the surrounding state. Therefore, the failure analysis device 30 can improve the accuracy of determining the state of the surface.
また、不具合解析装置30において、例えば、教示データ(例えば、第1種不具合情報)は、前記認識部367による判定結果を、ユーザからの入力又は他の装置による判定結果に基づいて確定させたデータである。
これにより、不具合解析装置30の判定結果の正当性をユーザが確認した場合、判定に用いられた画像を深層学習に用いることができる。不具合解析装置30は、例えば、判定結果が誤っている場合も、再学習を行うことができるため、より正しい判定結果を表示することができるようになる。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, in the defect analysis device 30, for example, the teaching data (for example, the first type defect information) is data obtained by determining the determination result by the recognition unit 367 based on an input from a user or a determination result by another device. It is.
Thus, when the user confirms the validity of the determination result of the failure analysis device 30, the image used for the determination can be used for deep learning. For example, even when the determination result is incorrect, the failure analysis device 30 can perform re-learning, so that a more correct determination result can be displayed. Therefore, the failure analysis device 30 can improve the accuracy of determining the state of the surface.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(例えば、車両10)に搭載された撮像部11で続けて撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記移動体の移動情報(例えば、測位情報)に基づいて、前記続けて撮像された画像(例えば、路面画像)から第1画像を間引くことで、残りの第2画像(例えば、検査画像)を抽出する画像抽出部363と、前記第2画像の各々について、当該第2画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、移動体の移動に応じて面の状態を判定する画像の量を調整する。従って、不具合解析装置30は、面の状態の判定精度を維持しつつ、判定に要する負荷を低減することができる。
Further, the failure analysis device 30 is continuously imaged by the imaging unit 11 mounted on a moving body (for example, the vehicle 10) moving along a surface (for example, a road surface), and an image in which a region including the surface is imaged. The first image is thinned out from an image (for example, a road surface image) that is continuously captured based on the information acquisition unit 361 that obtains the remaining information and the movement information (for example, positioning information) of the moving body, so that the remaining An image extracting unit 363 for extracting two images (for example, inspection images), and a recognizing unit 367 for determining a state of a surface in the second image for each of the second images.
Thereby, the failure analysis device 30 adjusts the amount of the image for determining the state of the surface according to the movement of the moving body. Therefore, the failure analysis device 30 can reduce the load required for the determination while maintaining the determination accuracy of the surface state.
また、不具合解析装置30において、画像抽出部363は、前記移動体(例えば、車両10)の時間に対する移動距離に基づいて、前記第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30は、移動体の移動速度に応じて、面の状態を判定する画像の量を調整する。従って、不具合解析装置30は、面の状態の判定精度を維持しつつ、判定に要する負荷を低減することができる。
Further, in the failure analysis device 30, the image extracting unit 363 extracts the second image (for example, an inspection image) based on a moving distance of the moving body (for example, the vehicle 10) with respect to time.
Thereby, the failure analysis device 30 adjusts the amount of the image for determining the state of the surface according to the moving speed of the moving object. Therefore, the failure analysis device 30 can reduce the load required for the determination while maintaining the determination accuracy of the surface state.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(車両10)に搭載された撮像部11で続けて撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記情報取得部361が取得した画像の一部分である部分画像を複数出力する領域抽出部364と、前記領域抽出部364が出力した部分画像の各々について、当該部分画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、画像の一部から面の状態を判定するため、画像に判定精度の低下させる要素が写り込んでいた場合、その要素を排除して判定を行うことができる。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, the failure analysis device 30 obtains an image in which an image including a region including the surface is continuously captured by the imaging unit 11 mounted on a moving body (vehicle 10) moving along a surface (for example, a road surface). Information extraction unit 361, an area extraction unit 364 that outputs a plurality of partial images that are a part of the image acquired by the information acquisition unit 361, and each of the partial images output by the area extraction unit 364, And a recognizing unit 367 for determining the state of the surface.
Thus, the failure analysis device 30 determines the state of the surface from a part of the image. Therefore, when an element that reduces the determination accuracy appears in the image, the failure analysis device 30 can perform the determination by excluding the element. Therefore, the failure analysis device 30 can improve the accuracy of determining the state of the surface.
また、不具合解析装置30において、領域抽出部364は、前記移動体(例えば、車両10)の進行方向に対して、手前の前記部分画像(例えば、図16における下側の検査領域A1)を、奥の前記部分画像(例えば、図16における中央部の検査領域A10)より多く出力する。
これにより、不具合解析装置30は、画像において、情報量の豊富な手前側に写る面の状態を重点的に判定する。また、画像の手前側には、移動体の近傍が写るため、面以外の物体が写り込みにくい。また、画像の手前側では、移動体の移動方向が変化した場合の撮像範囲の変化量が小さい。従って、不具合解析装置30は、面の状態の判定精度を向上させるとともに、判定に要する負荷を低減することができる。
Further, in the failure analysis device 30, the area extracting unit 364 converts the partial image (for example, the lower inspection area A1 in FIG. 16) in front of the moving body (for example, the vehicle 10) with respect to the traveling direction. More than the partial image at the back (for example, the inspection area A10 at the center in FIG. 16) is output.
Thereby, the failure analysis device 30 focuses on the image to determine the state of the surface on the near side where the amount of information is abundant. Further, since the vicinity of the moving object is photographed on the near side of the image, objects other than the surface are unlikely to be photographed. On the near side of the image, the amount of change in the imaging range when the moving direction of the moving object changes is small. Therefore, the failure analysis device 30 can improve the determination accuracy of the surface state and reduce the load required for the determination.
また、不具合解析装置30において、領域抽出部364は、画像(例えば、検査画像)を分割し、分割された第1部分画像(例えば、図16における検査領域A1)と、前記第1部分画像の頂点部分又は辺部分を含む第2部分画像(例えば、図16における領域A5)と、を出力する。
これにより、不具合解析装置30は、1つの画像から複数の重複した部分画像を生成する。従って、不具合解析装置30は、部分画像の境界の面の状態の判定精度を向上させることができる。
Further, in the failure analysis device 30, the region extracting unit 364 divides an image (for example, an inspection image), and divides the divided first partial image (for example, the inspection region A1 in FIG. 16) and the first partial image. A second partial image including a vertex portion or a side portion (for example, an area A5 in FIG. 16) is output.
Thereby, the failure analysis device 30 generates a plurality of overlapping partial images from one image. Therefore, the failure analysis device 30 can improve the accuracy of determining the state of the boundary surface between the partial images.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(例えば、車両10)に搭載された撮像部11で撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記画像取得部が取得する画像の各々ついて、前記画像中の面の状態を示す状態情報(例えば、不具合情報)と、前記面の位置を示す位置情報(例えば、測位情報)と、を出力する認識部367と、地図上に、前記位置情報が示す位置に、当該位置の面の状態を示す状態情報と、当該面を含む画像と、を対応付けて表示する表示部32と、を備える。
これにより、ユーザは、地図を参照すれば、どの位置のどの面がどのような状態にあるのかを即座に把握することができる。つまり、不具合解析装置30は、面の状態を分かりやすく提示することができる。
In addition, the failure analysis device 30 obtains an image obtained by capturing an image captured by the imaging unit 11 mounted on a moving object (for example, the vehicle 10) moving along a surface (for example, a road surface) and capturing an area including the surface. Information acquisition unit 361, state information (for example, defect information) indicating the state of a surface in the image, and position information (for example, positioning) indicating the position of the surface in each of the images acquired by the image acquisition unit. Information), and a display that displays, on a map, a position indicated by the position information, state information indicating a state of a surface at the position, and an image including the surface in association with each other. A unit 32.
Thus, the user can immediately grasp which surface at which position is in what state by referring to the map. That is, the failure analysis device 30 can present the state of the surface in an easily understandable manner.
また、不具合解析装置30において、表示部32は、予め定めた範囲内(例えば、所定距離以内)に前記位置情報(例えば、不具合座標情報)が属する面(例えば、路面)であって、前記状態情報(例えば、不具合情報)が同一(例えば、路面不具合が存在)である複数の面については、当該複数の面を代表する代表位置に、当該状態情報を対応付けて表示する。
これにより、不具合解析装置30は、地図上に複数の状態情報が密集する場合であっても、代表位置を示すため、面の状態を分かりやすく提示することができる。
以上が、第1の実施形態についての説明である。
Further, in the defect analysis device 30, the display unit 32 displays a surface (for example, a road surface) to which the position information (for example, defect coordinate information) belongs within a predetermined range (for example, within a predetermined distance), and For a plurality of surfaces having the same information (for example, defect information) (for example, a road surface defect exists), the state information is displayed in association with a representative position representing the plurality of surfaces.
Thereby, even when a plurality of pieces of state information are concentrated on the map, the failure analysis device 30 indicates the representative position, so that the state of the surface can be presented in an easily understandable manner.
The above is the description of the first embodiment.
[第2の実施形態]
第2の実施形態について説明する。ここでは、上述した各実施形態と同様の構成については、同一の符号を付し、説明を援用する。
〔不具合解析システム1Aの概要〕
本実施形態に係る不具合解析システム1A(不図示)は、第1の実施形態に係る不具合解析システム1と同様の構成を備える。ただし、不具合解析システム1Aは、画像抽出処理において、道路のカーブを検出する処理を行う点が異なる。カーブでは、車両の移動方向が変化する。カーブでは車両10の移動速度が一定であったとしても、路面画像の特に奥側の撮像範囲の変化が直線より大きくなる。そこで、カーブの度合いに応じて画像間の移動距離を補正する。これにより、路面不具合の解析精度を向上させることができるとともに、解析に要する処理の負荷を低減することができる。
[Second embodiment]
A second embodiment will be described. Here, the same components as those in the above-described embodiments are denoted by the same reference numerals, and the description is referred to.
[Overview of the failure analysis system 1A]
The failure analysis system 1A (not shown) according to the present embodiment has the same configuration as the failure analysis system 1 according to the first embodiment. However, the defect analysis system 1A is different in that in the image extraction process, a process for detecting a curve of a road is performed. In a curve, the moving direction of the vehicle changes. In a curve, even if the moving speed of the vehicle 10 is constant, the change in the imaging range of the road surface image, especially on the far side, becomes larger than a straight line. Therefore, the moving distance between the images is corrected according to the degree of the curve. As a result, the analysis accuracy of the road surface defect can be improved, and the load of the processing required for the analysis can be reduced.
〔不具合解析システム1Aの構成〕
不具合解析システム1Aは、不具合解析システム1が備える不具合解析装置30に代えて、不具合解析装置30A(不図示)を備える。不具合解析装置30Aは、不具合解析装置30が備える画像抽出部363に代えて、画像抽出部363A(不図示)を備える。
画像抽出部363Aは、画像抽出部363と同様に画像抽出処理を行う。ただし、画像抽出部363Aは、画像間の移動距離を、道路のカーブに応じて補正する点が異なる。画像抽出部363Aは、カーブの度合いが大きい程(すなわち、カーブが急である程)、画像間の移動距離が大きくなるように補正し、カーブの度合いが小さい程(すなわち、カーブが緩やかである程)、画像間の移動距離が小さくなるように補正する。つまり、カーブの度合いが大きい程、少ない路面画像が間引かれ、カーブの度合いが小さい程、多くの路面画像が間引かれるようにする。これにより、カーブの度合いが大きい程、より多くの画像が抽出され、カーブの度合いが小さい程、より少ない画像が抽出されるようになる。
[Configuration of failure analysis system 1A]
The failure analysis system 1A includes a failure analysis device 30A (not shown) instead of the failure analysis device 30 included in the failure analysis system 1. The failure analysis device 30A includes an image extraction unit 363A (not shown) instead of the image extraction unit 363 included in the failure analysis device 30.
The image extracting unit 363A performs an image extracting process in the same manner as the image extracting unit 363. However, the difference is that the image extracting unit 363A corrects the moving distance between the images according to the curve of the road. The image extracting unit 363A corrects the moving distance between the images as the degree of the curve is larger (ie, the steeper the curve), and increases the smaller the degree of the curve (ie, the curve is gentler). The correction is made so that the moving distance between the images is reduced. In other words, the smaller the degree of the curve, the thinner the road image, and the smaller the degree of the curve, the thinner the road image. As a result, more images are extracted as the degree of the curve is larger, and fewer images are extracted as the degree of the curve is smaller.
ここで、2種類のカーブの解析手法について説明する。
まず、第1のカーブ解析手法について説明する。
図18は、第1のカーブ解析手法の概要を示す図である。
図18に示す例では、道路R10上に8つの測位点m1〜m8が存在する。道路R10は、概ね位置m4〜m7に渡り、カーブしている。
第1のカーブ解析手法では、連続した3点の測位情報から傾き度合いを計測する。例えば、測位点m5におけるカーブを解析する場合、測位点m4から測位点m5への移動方向v4と、測位点m5から測位点m6への移動方向v5とを算出する。そして、2つの移動方向v4、v5のなす角度θを算出する。これにより、画像抽出部363Aは、カーブの度合いを示す角度θを算出することができる。
Here, two types of curve analysis methods will be described.
First, a first curve analysis method will be described.
FIG. 18 is a diagram illustrating an outline of the first curve analysis method.
In the example shown in FIG. 18, eight positioning points m1 to m8 exist on the road R10. The road R10 is substantially curved over the positions m4 to m7.
In the first curve analysis method, the degree of inclination is measured from the positioning information of three consecutive points. For example, when analyzing the curve at the positioning point m5, the moving direction v4 from the positioning point m4 to the positioning point m5 and the moving direction v5 from the positioning point m5 to the positioning point m6 are calculated. Then, the angle θ between the two moving directions v4 and v5 is calculated. Thereby, the image extracting unit 363A can calculate the angle θ indicating the degree of the curve.
次に、第2のカーブ解析手法について説明する。
図19は、第2のカーブ解析手法の概要を示す図である。
図19に示す例では、図18に示す例と同様に、道路R10上に8つの測位点m1〜m8が存在する。
第2のカーブ解析手法では、所定期間内に測定された位置間の距離の総和と、所定期間の最初と最後とで測定された位置の距離とを比較することにカーブの度合いを算出する。例えば、測位点m2の測定開始から所定期間内に特定された測位点が、測位点m3〜m7である場合、画像抽出部363は、測位点m2〜m3、m3〜m4、m4〜m5、m5〜m6、m6〜m7間のそれぞれの距離の総和L1を算出する。また、画像抽出部363Aは、測位点m2〜m7間の直線距離L2を算出する。画像抽出部363Aは、距離L1と距離L2とを比較することによりカーブの度合いを特定することができる。例えば、距離L1に比して距離L2が短い程、カーブの度合いが大きい。また、距離L1と距離L2が同程度であれば、カーブの度合いが小さい。
Next, a second curve analysis method will be described.
FIG. 19 is a diagram showing an outline of the second curve analysis method.
In the example shown in FIG. 19, as in the example shown in FIG. 18, eight positioning points m1 to m8 exist on the road R10.
In the second curve analysis method, the degree of the curve is calculated by comparing the sum of the distances between the positions measured within the predetermined period with the distance between the positions measured at the beginning and end of the predetermined period. For example, when the positioning points specified within a predetermined period from the start of the measurement of the positioning point m2 are the positioning points m3 to m7, the image extracting unit 363 determines the positioning points m2 to m3, m3 to m4, m4 to m5, and m5. M6, and the sum L1 of the distances between m6 and m7 is calculated. Further, the image extracting unit 363A calculates a linear distance L2 between the positioning points m2 to m7. The image extracting unit 363A can specify the degree of the curve by comparing the distance L1 and the distance L2. For example, as the distance L2 is shorter than the distance L1, the degree of the curve is greater. If the distance L1 and the distance L2 are approximately the same, the degree of the curve is small.
上記の第1のカーブ解析手法では、右折と左折とを判断することができる。
上記の第2のカーブ解析手法では、距離の算出及び距離の比較しか行わないため、処理に要する負荷を低減することができる。
以上が、不具合解析システム1Aの構成についての説明である。
In the first curve analysis method described above, a right turn and a left turn can be determined.
In the above-mentioned second curve analysis method, only the calculation of the distance and the comparison of the distance are performed, so that the load required for the processing can be reduced.
The above is the description of the configuration of the failure analysis system 1A.
〔不具合解析装置30Aの動作〕
次に、不具合解析装置30Aの動作について説明する。ここでは、画像抽出処理における動作について説明する。
図20は、不具合解析装置30Aによる画像抽出処理の流れを示すフローチャートである。
図20に示すステップS200、S202、S204〜S216の処理は、図14に示す処理と同様であるため、説明を援用する。
[Operation of Failure Analysis Device 30A]
Next, the operation of the failure analysis device 30A will be described. Here, the operation in the image extraction processing will be described.
FIG. 20 is a flowchart illustrating the flow of the image extraction process performed by the failure analysis device 30A.
The processes of steps S200, S202, and S204 to S216 shown in FIG. 20 are the same as the processes shown in FIG.
(ステップS203A)ステップS202の処理の後、画像抽出部363Aは、カーブの度合いを算出する。そして、画像抽出部363Aは、カーブの度合いに応じて、画像間の移動距離を補正する。その後、制御部360は、ステップS204に処理を進める。
なお、ここでは、画像間の移動距離を補正する場合について説明したが、画像間の移動距離の代わりに設定距離を補正してもよい。また、距離の補正は、任意の方法により行われてよい。例えば、カーブの度合いごとの補正量を予め設定し、この補正量に基づいて距離の補正が行われてもよいし、カーブの度合いを示すパラメータを含む関数により補正が行われてもよい。
以上が、不具合解析装置30Aの動作についての説明である。
(Step S203A) After the process of step S202, the image extracting unit 363A calculates the degree of the curve. Then, the image extracting unit 363A corrects the moving distance between the images according to the degree of the curve. After that, the control section 360 advances the process to step S204.
Here, the case where the moving distance between the images is corrected has been described, but the set distance may be corrected instead of the moving distance between the images. Further, the correction of the distance may be performed by an arbitrary method. For example, a correction amount for each degree of curve may be set in advance, and the distance may be corrected based on the correction amount, or the correction may be performed using a function including a parameter indicating the degree of curve.
The above is the description of the operation of the failure analysis device 30A.
〔第2の実施形態のまとめ〕
以上説明したように、不具合解析装置30Aは、移動体(例えば、車両10)の移動方向の変化量(例えば、カーブの度合い)に基づいて、第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30Aは、例えば移動体の移動方向の変化量に応じて第2画像の抽出量を変化させる。つまり、画像の撮像範囲の変化に応じて第2画像の抽出量を変化させる。従って、移動体の移動方向が一定でない場合であっても、面の状態の判定に必要十分な第2画像を抽出することができる。
[Summary of Second Embodiment]
As described above, the failure analysis device 30A extracts the second image (for example, the inspection image) based on the amount of change (for example, the degree of curve) in the moving direction of the moving body (for example, the vehicle 10).
Thus, the failure analysis device 30A changes the amount of extraction of the second image according to, for example, the amount of change in the moving direction of the moving object. That is, the extraction amount of the second image is changed in accordance with the change in the imaging range of the image. Therefore, even when the moving direction of the moving body is not constant, it is possible to extract the second image necessary and sufficient for determining the state of the surface.
また、移動体(例えば、車両10)の移動方向の変化量(例えば、カーブの度合い)が大きい場合に、前記移動体の移動方向の変化量が小さい場合と比較して多くの第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30Aは、移動体の移動方向が一定でない場合であっても、面の状態の判定に必要十分な第2画像を抽出することができる。
以上が、第2の実施形態についての説明である。
In addition, when the amount of change in the moving direction (for example, the degree of curve) of the moving body (for example, the vehicle 10) is large, compared to when the amount of change in the moving direction of the moving body is small, more second images ( For example, an inspection image) is extracted.
Thereby, even if the moving direction of the moving object is not constant, the failure analysis device 30A can extract the second image necessary and sufficient for determining the state of the surface.
The above is the description of the second embodiment.
[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1〜2の実施形態において説明した各構成は、任意に組み合わせることができる。また、例えば、上述の第1〜2の実施形態において説明した各構成は、特定の機能を発揮するのに不要である場合には、省略することができる。また、例えば、上述の第1〜2の実施形態において説明した各構成は、任意に分離して別体の装置に備えることができる。
[Modification]
As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes a design and the like within a range not departing from the gist of the present invention. For example, the components described in the first and second embodiments can be arbitrarily combined. In addition, for example, each configuration described in the above-described first and second embodiments can be omitted if it is not necessary to exhibit a specific function. Further, for example, each configuration described in the first and second embodiments can be arbitrarily separated and provided in a separate device.
なお、情報端末装置13は、車両10に搭載されず、ユーザにより携行されてもよい。そして、ユーザが車両10の内外で発見した路面不具合に関する不具合情報を、情報端末装置13において生成してもよい。例えば、ユーザによる「ひび割れ」という音声入力に応じて静止画像の撮像を行い、撮像した静止画像に路面不具合種別として「ひび割れ」を対応付けた不具合情報を生成してもよい。この場合、情報端末装置13が生成した不具合情報を、第1種不具合情報として、不具合情報管理装置50に記憶させてもよい。或いは、ユーザによる「ひび割れ」という音声入力に応じて撮像中の路面画像にフラグ情報を対応付けてもよい。このフラグ情報とは、ユーザによる路面不具合の確認結果を示す情報である。不具合解析装置30は、フラグ情報が対応付けられた路面画像を、画像抽出処理において検出画像として優先的に抽出するようにしたり、領域抽出処理において抽出する検査領域の数を増やしたりして、手厚く解析するようにしてもよい。これにより、不具合解析システム1、1Aは、路面不具合の検出漏れを防ぎ、路面不具合の認識精度を向上させることができる。 The information terminal device 13 may be carried by a user without being mounted on the vehicle 10. The information terminal device 13 may generate defect information on a road surface defect that the user has found inside and outside the vehicle 10. For example, a still image may be captured in response to a voice input of “crack” by a user, and defect information in which “crack” is associated with the captured still image as a road surface defect type may be generated. In this case, the defect information generated by the information terminal device 13 may be stored in the defect information management device 50 as first-type defect information. Alternatively, the flag information may be associated with the road surface image being captured in response to a voice input of “crack” by the user. The flag information is information indicating a result of confirmation of a road surface defect by the user. The failure analysis device 30 allows the road surface image associated with the flag information to be preferentially extracted as a detected image in the image extraction processing, or increases the number of inspection areas to be extracted in the area extraction processing, and is generous. The analysis may be performed. Thereby, the failure analysis systems 1 and 1A can prevent omission of detection of a road surface defect, and can improve recognition accuracy of the road surface defect.
なお、撮像部11や測位部12は、撮像や測位を支援する機能を搭載してもよい。例えば、撮像部11の設置環境が整ったり、GPSの電波が受信できて測位可能となったりした場合等に撮像や測位を行えるようになったことを通知するようにしてもよい。 Note that the imaging unit 11 and the positioning unit 12 may have a function of supporting imaging and positioning. For example, when the installation environment of the imaging unit 11 is adjusted, or when positioning is possible due to reception of GPS radio waves, the fact that imaging and positioning can be performed may be notified.
なお、情報端末装置13は、自装置の移動と同期して、不具合情報をユーザに提示してもよい。例えば、図17に示す車両10のマーカO21を、自装置の位置と同期させてよい。また、自装置がマーカO22の近傍に位置した場合に、近傍に路面不具合が存在することをユーザに通知してもよい。これにより、ユーザは、自身の近傍に位置する路面不具合を確認することができる。ユーザは、例えば、情報端末装置13を携行して車両を運転することにより、過去に検出された路面不具合を容易に確認することができる。従って、不具合解析システム1、1Aは、路面不具合の位置や進行状況を容易に再確認可能としたり、路面不具合の危険性を通知したりすることができる。 The information terminal device 13 may present the defect information to the user in synchronization with the movement of the information terminal device 13. For example, the marker O21 of the vehicle 10 shown in FIG. 17 may be synchronized with the position of the own device. Further, when the own device is located near the marker O22, the user may be notified that there is a road surface defect nearby. Thereby, the user can confirm a road surface defect located near the user. The user can easily confirm a road surface defect detected in the past, for example, by driving the vehicle while carrying the information terminal device 13. Therefore, the defect analysis systems 1 and 1A can easily confirm the position and progress of the road surface defect, and can notify the danger of the road surface defect.
このように、情報端末装置13は、不具合解析装置30からの出力に基づいて、移動体(例えば、路面画像の撮像時とは異なる車両)の位置に基づいて、前記面(例えば、路面)を含む画像を表示する。
これにより、情報端末装置13は、例えば、移動体の近傍の面の画像を提示するため、移動体で移動中のユーザに、面の状態を分かりやすく提示することができる。
As described above, the information terminal device 13 changes the surface (for example, the road surface) based on the position of the moving object (for example, a vehicle different from the one at the time of capturing the road surface image) based on the output from the failure analysis device 30. Display the included image.
Thereby, since the information terminal device 13 presents, for example, an image of a surface near the moving object, the information terminal device 13 can easily present the state of the surface to the user who is moving with the moving object.
また、情報端末装置13は、不具合解析装置30からの出力に基づいて、移動体(例えば、路面画像の撮像時とは異なる車両))の位置と前記位置情報(例えば、測位情報)とに基づいて、当該位置情報に対応する状態情報を表示する。
これにより、情報端末装置13は、例えば、移動体の近傍の面の状態を提示するため、移動体で移動中のユーザに、面の状態を分かりやすく提示することができる。
Further, the information terminal device 13 is based on the position of the moving object (for example, a vehicle different from the one at the time of capturing the road surface image) and the position information (for example, positioning information) based on the output from the failure analysis device 30. Then, the status information corresponding to the position information is displayed.
Thereby, since the information terminal device 13 presents, for example, the state of the surface in the vicinity of the moving object, the information terminal device 13 can easily present the state of the surface to the user who is moving with the moving object.
なお、不具合解析装置30、30Aは、上記した以外の物体や不具合を認識するように予め機械学習を行っていてもよい。例えば、不具合解析装置30はマンホール、トンネル壁面損傷、道路落下物、路面のオイル染み、ガードレール損傷、電柱損傷、道路の落書き、道路標識、区画線のかすれ、積雪、冠水、側溝の破損等を認識するようにしてもよい。また、認識する項目について、その度合いを認識するようにしてよい。 Note that the failure analyzers 30 and 30A may perform machine learning in advance so as to recognize objects and defects other than those described above. For example, the failure analyzer 30 recognizes manholes, tunnel wall damage, road fallen objects, oil stains on road surfaces, guardrail damage, utility pole damage, graffiti on roads, road signs, blurred lane markings, snowfall, flooding, damage to gutters, and the like. You may make it. The degree of the item to be recognized may be recognized.
なお、不具合解析装置30、30Aは、複数の撮像部11により撮像された路面画像を統合して路面の状態を判定してもよい。例えば、複数台の車両10が道路を並走し、各車両に搭載された撮像部11は、それぞれ路面画像を撮像する。また、各車両10に搭載された測位部12は、それぞれ測位を行う。不具合解析装置30、30Aは、このようにして撮像された複数の路面画像を、例えば、各フレームの撮像時刻に基づいて並び替え、再構成する。そして、不具合解析装置3030、30Aは、再構成した路面画像について、路面の状態を判定してよい。 Note that the failure analysis devices 30 and 30A may determine the state of the road surface by integrating the road surface images captured by the plurality of imaging units 11. For example, a plurality of vehicles 10 run in parallel on a road, and the imaging unit 11 mounted on each vehicle captures a road surface image. In addition, the positioning unit 12 mounted on each vehicle 10 performs positioning. The failure analysis devices 30 and 30A rearrange and reconstruct the plurality of road surface images captured in this manner, for example, based on the imaging time of each frame. Then, the failure analysis devices 3030 and 30A may determine the state of the road surface with respect to the reconstructed road surface image.
なお、不具合解析装置30、30Aは、領域抽出処理において、検査領域以外を除外する(間引く)処理を行ってもよい。
図21は、領域抽出処理の別例を示す図である。
図21に示す例では、検査画像P8から、領域A21を間引き、残りの台形型の領域を検査領域としている。領域A21は、撮像画像への路面の写り方に応じて予め定められてよい。このように、不具合解析装置30、30Aは、検査領域としない領域を定めてもよい。
Note that the failure analysis devices 30 and 30A may perform a process of excluding (thinning out) areas other than the inspection area in the area extraction processing.
FIG. 21 is a diagram illustrating another example of the region extraction processing.
In the example shown in FIG. 21, the area A21 is thinned out from the inspection image P8, and the remaining trapezoidal area is set as the inspection area. The area A21 may be determined in advance according to how the road surface is captured in the captured image. As described above, the failure analysis devices 30 and 30A may determine an area that is not an inspection area.
また、上述した実施形態において、領域抽出処理では、大きさが同じ複数の検査領域を抽出する場合について説明したが、これには限らない。例えば、路面画像において、奥行側、すなわち遠方の部分については、検査領域を小さく設定し、手前側、すなわち近傍の部分については、検査領域を大きく設定してよい。例えば、図16に示す例では、領域A1〜A4の大きさに比して、領域A10の大きさを小さく設定してよい。これにより、路面画像の奥行側において、複数の路面不具合が1つの検出領域に含まれたり、路面不具合以外の物体が検出領域に含まれたりすることを抑制することができる。 In the above-described embodiment, the case where a plurality of inspection regions having the same size are extracted in the region extraction processing has been described, but the present invention is not limited to this. For example, in the road surface image, the inspection area may be set small on the depth side, that is, a distant portion, and the inspection area may be set large on the near side, that is, in the vicinity. For example, in the example shown in FIG. 16, the size of the region A10 may be set smaller than the sizes of the regions A1 to A4. Thereby, on the depth side of the road surface image, it is possible to suppress a plurality of road surface defects from being included in one detection region or an object other than a road surface defect from being included in the detection region.
また、上述した実施形態において、領域抽出処理では、複数の検査領域を重複させて抽出する場合について説明したが、これには限らない。各検査領域は、重複しないように抽出されてもよい。また、不具合解析装置30、30Aは、検査画像の全ての部分を網羅するように、検査領域を抽出してもよい。 Further, in the above-described embodiment, the case where a plurality of inspection areas are extracted in an overlapping manner in the area extraction processing has been described. Each inspection area may be extracted so as not to overlap. Further, the defect analysis devices 30 and 30A may extract the inspection area so as to cover all the parts of the inspection image.
また、領域抽出処理において、検査領域は、固定でなくてもよい。不具合解析装置30、30Aは、例えば、移動方向の変化に応じて検査領域の位置や数を変化させてもよい。不具合解析装置30、30Aは、例えば、右折の場合には検査画像の右側に、より多くの検査領域を設定し、左折の場合には検査画像の左側に、より多くの検査領域を設定してもよい。また、不具合解析装置30、30Aは、例えば、移動方向の変化量に応じて検査領域の位置や数を変化させてもよい。例えば、カーブの度合いが大きい場合には、検査画像の手前側に、より多くの検査領域を設定してもよい。 In the region extraction processing, the inspection region may not be fixed. For example, the failure analysis devices 30 and 30A may change the position and the number of the inspection areas according to the change in the moving direction. For example, the failure analysis devices 30 and 30A set more inspection areas on the right side of the inspection image in the case of a right turn, and set more inspection areas on the left side of the inspection image in the case of a left turn. Is also good. Further, the failure analysis devices 30 and 30A may change the position and the number of the inspection area according to the amount of change in the moving direction, for example. For example, when the degree of the curve is large, more inspection areas may be set in front of the inspection image.
また、不具合解析装置30、30Aは、検査領域について、解析不能であるという解析結果を出力してもよい。不具合解析装置30、30Aは、例えば、検査領域に路面が写っていない場合、影の影響により検査領域が不明瞭であった場合、積雪がある場合、冠水がある場合に、解析不能であるという解析結果を、その理由とともに出力してよい。 Further, the failure analysis devices 30 and 30A may output an analysis result indicating that analysis is not possible for the inspection area. For example, the failure analysis devices 30 and 30A cannot analyze when the road surface is not shown in the inspection area, when the inspection area is unclear due to the influence of shadow, when there is snowfall, or when there is flooding. The analysis result may be output together with the reason.
なお、上述した実施形態では、不具合解析用人工知能を用いて路面不具合を検出する態様について説明したが、これには限らない。不具合解析装置30、30Aは、例えば、画像特徴量を抽出して、路面不具合を解析してもよい。また、不具合解析装置30、30Aは、例えば、サポートベクターマシンやクラスタリング等の手法を用いて路面不具合を解析してもよい。 In the above-described embodiment, a mode in which a road surface defect is detected using the defect analysis artificial intelligence has been described, but the present invention is not limited to this. For example, the defect analysis devices 30 and 30A may extract an image feature amount and analyze a road surface defect. Further, the failure analysis devices 30 and 30A may analyze a road surface failure using a technique such as a support vector machine or clustering.
なお、不具合情報の提示態様は、上述したものに限られない。不具合解析装置30、30Aは、例えば、異なる時期に撮像された路面画像の解析し、路面不具合が増えた箇所のみを提示するようにしてもよい。
なお、一度に撮像された一連の路面画像の解析範囲は、ユーザからの入力により定められてよい。不具合解析装置30、30Aは、例えば、解析するフレームの範囲を時間指定により受け付けてもよいし、場所の指定により受け付けてもよい。不具合解析装置30、30Aは、場所の指定を受け付ける場合、指定された場所の座標と、路面画像に対応付けられている測位情報とを参照して解析範囲を定めてよい。
Note that the presentation mode of the defect information is not limited to the above. The failure analysis devices 30 and 30A may analyze, for example, road surface images captured at different times and present only a portion where the road surface failure has increased.
Note that the analysis range of a series of road surface images captured at one time may be determined by an input from a user. The failure analysis devices 30 and 30A may receive, for example, a range of frames to be analyzed by specifying time or by specifying a place. When receiving the designation of a place, the failure analysis devices 30, 30A may determine the analysis range with reference to the coordinates of the designated place and the positioning information associated with the road surface image.
なお、測位情報は、任意の手法により、精度の向上が図られてよい。例えば、不具合解析装置30、30Aは、GPSによりドップラー方式で測定された速度情報やODB2等により得られる速度情報を用いることにより、GPSによる測位結果に誤差があった場合でも、速度情報に基づいて移動距離を修正して測位精度を向上させることができる。また、例えば、不具合解析装置30、30Aは、道路の情報やユーザから入力された走行経路の情報等を用いて測位精度を向上させてよい。 The accuracy of the positioning information may be improved by an arbitrary method. For example, the failure analysis devices 30 and 30A use the speed information measured by the Doppler method by GPS or the speed information obtained by ODB2, etc., so that even if there is an error in the positioning result by GPS, the failure analysis device 30 or 30A can use the speed information based on the speed information. It is possible to improve the positioning accuracy by correcting the moving distance. Further, for example, the failure analysis devices 30 and 30A may improve the positioning accuracy by using road information, traveling route information input by a user, and the like.
なお、撮像部11は、任意の態様により車両10に搭載されてよい。
撮像部11は、車内に設置されてもよいし、車外に設置されてもよい。また、撮像部11は、車両の前方を撮像するように設置されてもよいし、後方を撮像するように設置されてもよい。また、撮像部11は、ユーザが身に着ける等、ユーザが携行してもよい。
Note that the imaging unit 11 may be mounted on the vehicle 10 in any mode.
The imaging unit 11 may be installed inside the vehicle, or may be installed outside the vehicle. Further, the imaging unit 11 may be installed so as to image the front of the vehicle, or may be installed so as to image the rear. Further, the imaging unit 11 may be carried by the user, for example, worn by the user.
また、上述の情報端末装置13、不具合解析装置30、不具合情報管理装置50、地図情報管理装置90の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより情報端末装置13、不具合解析装置30、不具合情報管理装置50、地図情報管理装置90としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Also, a program for realizing the functions of the information terminal device 13, the failure analysis device 30, the failure information management device 50, and the map information management device 90 is recorded on a computer-readable recording medium, and is recorded on the recording medium. The computer program may be read and executed to execute the processing as the information terminal device 13, the failure analysis device 30, the failure information management device 50, and the map information management device 90. Here, "to make the computer system read and execute the program recorded on the recording medium" includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, a WAN, a LAN, and a dedicated line. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format executable by the terminal device. That is, any format can be stored in the distribution server as long as it can be downloaded from the distribution server and installed in a form executable by the terminal device. The program may be divided into a plurality of programs, downloaded at different timings, and then combined by the terminal device, or the distribution server that distributes each of the divided programs may be different. Further, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) in a computer system serving as a server or a client when the program is transmitted via a network. Shall be included. Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1、1A…不具合解析システム、10…車両、11…撮像部、12…測位部、13…情報端末装置、30、30A…不具合解析装置、31…入力部、32…表示部、33…音声再生部、34…通信部、35…記憶部、351…学習結果記憶部、360…制御部、361…情報取得部、362…画像変換部、363、363A…画像抽出部、364…領域抽出部、365…解析部、366…学習部、367…認識部、368…結果生成部、369…結果編集部、50…不具合情報管理装置、51…第1種不具合情報記憶部、52…第2種不具合情報記憶部、70…台帳情報管理装置、71…台帳情報記憶部、90…地図情報管理装置、91…地図情報記憶部 1, 1A: Failure analysis system, 10: Vehicle, 11: Imaging unit, 12: Positioning unit, 13: Information terminal device, 30, 30A: Failure analysis device, 31: Input unit, 32: Display unit, 33: Voice reproduction Unit, 34 communication unit, 35 storage unit, 351 learning result storage unit, 360 control unit, 361 information acquisition unit, 362 image conversion unit, 363, 363A image extraction unit, 364 area extraction unit 365 analysis part, 366 learning part, 367 recognition part, 368 result generation part, 369 result editing part, 50 defect information management device, 51 type I defect information storage part, 52 type II defect Information storage unit, 70: ledger information management device, 71: ledger information storage unit, 90: map information management device, 91: map information storage unit
Claims (5)
前記画像取得部が取得した画像を分割し、前記画像の一部分である部分画像を複数出力する部分画像生成部と、
前記部分画像生成部が出力した部分画像の各々について、当該部分画像中の前記表面に現れた不具合を判定する状態判定部と、
を備え、
前記部分画像生成部は、前記移動体の位置に対して近傍の前記部分画像を、遠方の前記部分画像より多く出力する、
情報処理装置。 An image acquisition unit that is continuously imaged by an imaging device mounted on a moving body that moves along the surface of the building, and acquires an image in which a region including the surface is imaged,
A partial image generating unit that divides the image obtained by the image obtaining unit and outputs a plurality of partial images that are part of the image;
For each of the partial images output by the partial image generation unit, a state determination unit that determines a defect that appears on the surface in the partial image,
Equipped with a,
The partial image generation unit, the partial image near the position of the moving body, output more than the partial image far away,
Information processing device.
前記画像取得部が取得した画像を分割し、前記画像の一部分である部分画像を複数出力する部分画像生成部と、
前記部分画像生成部が出力した部分画像の各々について、当該部分画像中の前記表面に現れた不具合を判定する状態判定部と、
を備え、
前記部分画像生成部は、前記移動体の位置に対して近傍の前記部分画像を、遠方の前記部分画像より多く出力し、
前記部分画像には、判定対象とする前記表面が残され、前記表面以外の領域の少なくとも一部が除外された画像が含まれる、
請求項1に記載の情報処理装置。 An image acquisition unit that is continuously imaged by an imaging device mounted on a moving body that moves along the surface of the building, and acquires an image in which a region including the surface is imaged,
A partial image generating unit that divides the image obtained by the image obtaining unit and outputs a plurality of partial images that are part of the image;
For each of the partial images output by the partial image generation unit, a state determination unit that determines a defect that appears on the surface in the partial image,
Equipped with a,
The partial image generation unit, the partial image closer to the position of the moving body, output more than the partial image far away,
The partial image includes the image in which the surface to be determined is left and at least a part of the area other than the surface is excluded.
The information processing device according to claim 1.
前記画像取得部が取得した画像を分割し、前記画像の一部分である部分画像を複数出力する部分画像生成部と、
前記部分画像生成部が出力した部分画像の各々について、当該部分画像中の前記表面に現れた不具合を判定する状態判定部と、
を備え、
前記部分画像生成部は、画像を分割し、分割された第1部分画像と、前記第1部分画像の頂点部分又は辺部分を含む第2部分画像とを、前記移動体の位置に対して近傍の前記部分画像が遠方の前記部分画像より多く出力されるように、出力する、
情報処理装置。 An image acquisition unit that is continuously imaged by an imaging device mounted on a moving body that moves along the surface of the building, and acquires an image in which a region including the surface is imaged,
A partial image generating unit that divides the image obtained by the image obtaining unit and outputs a plurality of partial images that are part of the image;
For each of the partial images output by the partial image generation unit, a state determination unit that determines a defect that appears on the surface in the partial image,
Equipped with a,
The partial image generation unit divides an image, and places the divided first partial image and a second partial image including a vertex portion or a side portion of the first partial image near the position of the moving object. Outputting such that the partial image of is output more than the distant partial image,
Information processing device.
建造物の表面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、当該表面を含む領域が撮像された画像を取得する第1ステップと、
前記第1ステップにおいて取得した画像を分割し、前記画像の一部分である部分画像を複数出力する第2ステップと、
前記第2ステップにおいて出力した部分画像の各々について、当該部分画像中の前記表面に現れた不具合を判定する第3ステップと、
を含み、
前記第2ステップで、前記移動体の位置に対して近傍の前記部分画像を、遠方の前記部分画像より多く出力する、
情報処理方法。 The information processing device is
A first step of acquiring an image in which an image is continuously taken by an imaging device mounted on a moving body that moves along the surface of the building, and a region including the surface is taken;
A second step of dividing the image acquired in the first step and outputting a plurality of partial images that are a part of the image;
A third step of determining, for each of the partial images output in the second step, a defect that has appeared on the surface in the partial image;
It includes,
In the second step, the partial images closer to the position of the moving object are output more than the partial images farther away,
Information processing method.
建造物の表面に沿って移動する移動体に搭載された撮像装置で続けて撮像され、当該表面を含む領域が撮像された画像を取得する第1ステップと、
前記第1ステップにおいて取得した画像を分割し、前記画像の一部分である部分画像を複数出力する第2ステップと、
前記第2ステップにおいて出力した部分画像の各々について、当該部分画像中の前記表面に現れた不具合を判定する第3ステップと、
を実行させ、
前記第2ステップで、前記移動体の位置に対して近傍の前記部分画像を、遠方の前記部分画像より多く出力するためのプログラム。 On the computer,
A first step of acquiring an image in which an image is continuously taken by an imaging device mounted on a moving body that moves along the surface of the building, and a region including the surface is taken;
A second step of dividing the image acquired in the first step and outputting a plurality of partial images that are a part of the image;
A third step of determining, for each of the partial images output in the second step, a defect that has appeared on the surface in the partial image;
Was executed,
Wherein in the second step, the said partial image in the vicinity with respect to the position of the moving object, because the program to output more than far the partial image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016150719A JP6647171B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016150719A JP6647171B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018017101A JP2018017101A (en) | 2018-02-01 |
JP6647171B2 true JP6647171B2 (en) | 2020-02-14 |
Family
ID=61076033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016150719A Active JP6647171B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6647171B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062474B2 (en) * | 2018-03-14 | 2022-05-06 | 株式会社Nttファシリティーズ | Deterioration status identification device, deterioration status identification method and program |
KR102026686B1 (en) * | 2018-11-12 | 2019-11-04 | 한국건설기술연구원 | Apparatus for providing dangerous road information using connected car and server for generating deep-learning model |
JP7276446B2 (en) * | 2019-06-28 | 2023-05-18 | 日本電気株式会社 | Road surface inspection device, road surface inspection method, and program |
JP6902652B1 (en) * | 2020-04-17 | 2021-07-14 | エヌ・ティ・ティ・コムウェア株式会社 | Road defect detection device, road defect detection method and road defect detection program |
JP7146997B1 (en) | 2021-03-31 | 2022-10-04 | ソフトバンク株式会社 | Captured image processing device, captured image processing system, captured image processing method, and captured image processing program |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020176608A1 (en) * | 2001-05-23 | 2002-11-28 | Rose David Walter | Surface-profiling system and method therefor |
JP2003169335A (en) * | 2001-11-30 | 2003-06-13 | Matsushita Electric Ind Co Ltd | Moving vector detector and moving vector detecting method |
JP4575031B2 (en) * | 2004-05-31 | 2010-11-04 | 三菱電機株式会社 | In-vehicle road marking detection device |
JP4814655B2 (en) * | 2006-03-02 | 2011-11-16 | 富士通株式会社 | Road surface state determination device and road surface state determination method |
JP2007329596A (en) * | 2006-06-06 | 2007-12-20 | Matsushita Electric Ind Co Ltd | Device and method for generating image |
JP5164912B2 (en) * | 2009-04-20 | 2013-03-21 | グローリー株式会社 | Corresponding point search method, corresponding point search device, and corresponding point search program |
JP5340088B2 (en) * | 2009-09-07 | 2013-11-13 | キヤノン株式会社 | Information processing method and apparatus |
JP2011076214A (en) * | 2009-09-29 | 2011-04-14 | Alps Electric Co Ltd | Obstacle detection device |
JP2013250796A (en) * | 2012-05-31 | 2013-12-12 | Sumitomo Electric Ind Ltd | Number plate detection device, number plate detection method, and computer program |
JP6126849B2 (en) * | 2013-01-25 | 2017-05-10 | 株式会社メガチップス | Lane identification device and lane identification method |
WO2015129045A1 (en) * | 2014-02-28 | 2015-09-03 | パイオニア株式会社 | Image acquisition system, terminal, image acquisition method, and image acquisition program |
JP6630999B2 (en) * | 2014-10-15 | 2020-01-15 | 日本電気株式会社 | Image recognition device, image recognition method, and image recognition program |
-
2016
- 2016-07-29 JP JP2016150719A patent/JP6647171B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018017101A (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6713368B2 (en) | Information processing device, display device, information processing method, and program | |
JP6615065B2 (en) | Information processing apparatus, information processing method, and program | |
JP6615066B2 (en) | Information processing apparatus, information processing method, and program | |
JP7155321B2 (en) | Crack analysis data editing device, crack analysis data editing method, and crack analysis data editing program | |
JP6976641B2 (en) | Object change detection system for updating high-precision road maps and its control method | |
JP6647171B2 (en) | Information processing apparatus, information processing method, and program | |
TWI722355B (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
US20200042800A1 (en) | Image acquiring system, terminal, image acquiring method, and image acquiring program | |
US9171363B2 (en) | Computer-readable recording medium and road surface survey device | |
US8818026B2 (en) | Object recognition device and object recognition method | |
US9734399B2 (en) | Context-aware object detection in aerial photographs/videos using travel path metadata | |
JP6904614B2 (en) | Object detection device, prediction model creation device, object detection method and program | |
JP6826421B2 (en) | Equipment patrol system and equipment patrol method | |
JP4902575B2 (en) | Road sign recognition device and road sign recognition method | |
US8953838B2 (en) | Detecting ground geographic features in images based on invariant components | |
KR102305328B1 (en) | System and method of Automatically Generating High Definition Map Based on Camera Images | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
US11990041B2 (en) | Moving body tracking system, moving body tracking method, and program | |
KR20110037180A (en) | System and method for road visibility measurement using camera | |
JP2010210477A (en) | Navigation device | |
JP6419260B1 (en) | Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program | |
JP6916975B2 (en) | Sign positioning system and program | |
CN113643374A (en) | Multi-view camera calibration method, device, equipment and medium based on road characteristics | |
JP2009008591A (en) | Device and program for recognizing one's own vehicle position | |
CN118062016B (en) | Vehicle environment sensing method, apparatus and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180425 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6647171 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |