JP6615065B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6615065B2 JP6615065B2 JP2016150720A JP2016150720A JP6615065B2 JP 6615065 B2 JP6615065 B2 JP 6615065B2 JP 2016150720 A JP2016150720 A JP 2016150720A JP 2016150720 A JP2016150720 A JP 2016150720A JP 6615065 B2 JP6615065 B2 JP 6615065B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- road surface
- unit
- failure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 16
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000007547 defect Effects 0.000 claims description 140
- 238000003384 imaging method Methods 0.000 claims description 64
- 230000008859 change Effects 0.000 claims description 16
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 204
- 238000007689 inspection Methods 0.000 description 123
- 238000000605 extraction Methods 0.000 description 86
- 238000000034 method Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 25
- 230000007257 malfunction Effects 0.000 description 17
- 238000013473 artificial intelligence Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 239000003550 marker Substances 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000013211 curve analysis Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Road Repair (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
道路、橋梁、施設等の老朽化に伴い、建造物のメンテナンスを効率的に行うことが求められている。建造物のメンテナンスを実施するためには、建造物の不具合を発見する作業が必要になるが、目視での確認では、定量的な評価と網羅的な確認が困難である。そのため、機械による自動検出が普及しつつある。例えば、特許文献1には、車両に搭載された加速度センサにより測定された該車両の走行路面位置に応じた測定値であって、ある路面位置についての複数回の走行のそれぞれにおける測定値の累積により前記ある路面位置についての路面劣化を検出する際に、前記ある路面位置に対応する路面評価値に応じて路面劣化の検出感度を変更する、処理をコンピュータに実行させることを特徴とするプログラムが記載されている。 With the aging of roads, bridges, facilities, etc., it is required to efficiently maintain buildings. In order to carry out the maintenance of the building, it is necessary to find a defect in the building. However, it is difficult to perform quantitative evaluation and comprehensive confirmation by visual confirmation. For this reason, automatic detection by machines is becoming widespread. For example, Patent Document 1 discloses a measurement value according to a traveling road surface position of the vehicle measured by an acceleration sensor mounted on the vehicle, and the accumulation of the measured values in each of a plurality of times of traveling for a certain road surface position. A program for causing a computer to execute a process of changing road surface deterioration detection sensitivity according to a road surface evaluation value corresponding to the certain road surface position when detecting road surface deterioration for the certain road surface position by Has been described.
ところで、建造物に複数の不具合が発見された場合、各不具合に対して計画的に対処する必要がある。そのため、不具合の位置や状態をわかりやすく提示することが求められている。 By the way, when a plurality of defects are found in a building, it is necessary to deal with each defect systematically. Therefore, it is required to present the position and state of the defect in an easy-to-understand manner.
本発明のいくつかの態様は、建造物等の面の状態を、わかりやすく提示することができる情報処理装置、情報処理方法、及びプログラムを提供することを目的の一つとする。 An object of some aspects of the present invention is to provide an information processing apparatus, an information processing method, and a program that can easily present the state of a surface of a building or the like.
また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする情報処理装置、情報処理方法、及びプログラムを提供することを目的の一つとする。 Another object of another aspect of the present invention is to provide an information processing apparatus, an information processing method, and a program that can achieve the effects described in the embodiments described later.
上述した課題を解決するために、本発明の一態様は、面に沿って移動する移動体に搭載された撮像装置で撮像され、当該面を含む領域が撮像された画像を取得する画像取得部と、前記画像取得部が取得する画像の各々について、前記画像中の面の状態を示す状態情報と、前記面の位置を示す位置情報と、を対応付けた情報を生成する状態判定部と、地図上に、前記位置情報が示す位置に、当該位置の面の状態を示す状態情報と、当該面を含む画像と、を対応付けて表示する表示部と、を備える情報処理装置である。
また、本発明の別の一態様は、情報処理装置が、面に沿って移動する移動体に搭載された撮像装置で撮像され、当該面を含む領域が撮像された画像を取得する第1ステップと、前記第1ステップにおいて取得された画像の各々について、前記画像中の面の状態を示す状態情報と、前記面の位置を示す位置情報と、を対応付けた情報を生成する第2ステップと、地図上に、前記位置情報が示す位置に、当該位置の面の状態を示す状態情報と、当該面を含む画像と、を対応付けて表示部に表示する第3ステップと、を含む情報処理方法である。
また、本発明の別の一態様は、コンピュータに、面に沿って移動する移動体に搭載された撮像装置で撮像され、当該面を含む領域が撮像された画像を取得する第1ステップと、前記第1ステップにおいて取得された画像の各々について、前記画像中の面の状態を示す状態情報と、前記面の位置を示す位置情報と、を対応付けた情報を生成する第2ステップと、地図上に、前記位置情報が示す位置に、当該位置の面の状態を示す状態情報と、当該面を含む画像と、を対応付けて表示部に表示する第3ステップと、を実行させるためのプログラムである。
In order to solve the above-described problem, one embodiment of the present invention is an image acquisition unit that acquires an image captured by an imaging device mounted on a moving body that moves along a plane and the region including the plane is captured. And for each of the images acquired by the image acquisition unit, a state determination unit that generates information in which state information indicating the state of the surface in the image is associated with position information indicating the position of the surface; The information processing apparatus includes: a display unit that associates and displays state information indicating a surface state of the position and an image including the surface at a position indicated by the position information on a map.
According to another aspect of the present invention, the information processing apparatus captures an image captured by an imaging apparatus mounted on a moving body that moves along a plane, and acquires an image in which a region including the plane is captured. And, for each of the images acquired in the first step, a second step of generating information in which state information indicating the state of the surface in the image is associated with position information indicating the position of the surface; And a third step of displaying, on the display, the state information indicating the state of the surface of the position and the image including the surface on the display in association with the position indicated by the position information on the map. Is the method.
According to another aspect of the present invention, a first step of acquiring an image captured by an imaging device mounted on a moving body that moves along a plane in a computer and an image including an area including the plane is acquired. A second step of generating, for each of the images acquired in the first step, information that associates state information indicating the state of the surface in the image with position information indicating the position of the surface; and a map A program for executing, on the position indicated by the position information, state information indicating the state of the surface at the position and an image including the surface on the display unit in association with each other. It is.
本発明の一実施形態によれば、建造物等の面の状態を、わかりやすく提示することができる。 According to one embodiment of the present invention, the state of a surface of a building or the like can be presented in an easily understandable manner.
以下、本発明の一実施形態について、図面を参照して説明する。
[第1の実施形態]
〔不具合解析システム1の概要〕
本発明の第1の実施形態について説明する。
図1は、不具合解析システム1の概要を示す図である。
本実施形態に係る不具合解析システム1は、建造物の表面の状態を解析するシステムである。以下では、一例として、不具合解析システム1が建造物の表面に現れた視認可能な不具合を解析する場合について説明する。
建造物とは、例えば、道路、橋梁、施設等であり、社会インフラを含む。
表面とは、建造物の外部又は内部の表面である。つまり、建造物の表面とは、例えば、道路の路面や橋梁、施設の上面、側面、下面である。
視認可能な不具合とは、物理的な凹凸、色彩の変化等である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First embodiment]
[Outline of defect analysis system 1]
A first embodiment of the present invention will be described.
FIG. 1 is a diagram showing an outline of the failure analysis system 1.
The failure analysis system 1 according to the present embodiment is a system that analyzes the state of the surface of a building. Below, the case where the malfunction analysis system 1 analyzes the visible malfunction which appeared on the surface of a building is demonstrated as an example.
A building is, for example, a road, a bridge, a facility, and the like, and includes social infrastructure.
A surface is an external or internal surface of a building. That is, the surface of a building is, for example, a road surface or a bridge of a road, an upper surface, a side surface, or a lower surface of a facility.
Visible defects are physical irregularities, color changes, and the like.
以下では、一例として、路面に現れた不具合(以下、「路面不具合」と称する。)を解析する場合について説明する。
路面不具合には、例えば、轍、ポットホール、ひび割れ(クラック)、段差がある。図2から図6は、路面不具合を撮像した画像の例を示す図である。図2に示す画像P1は、轍D1の例を示す。図3に示す画像P2は、ポットホールD2の例を示す。図4に示す画像P3は、ひび割れD3の例を示す。図5に示す画像P4は、段差D4の例を示す。なお、不具合解析システム1は、路面不具合以外にも、パッチング等の路面の状態を解析してよい。図6に示す画像P5は、パッチングD5の例を示す。
Below, the case where the malfunction which appeared on the road surface (henceforth "the road surface malfunction") is analyzed is demonstrated as an example.
Examples of road surface problems include ridges, potholes, cracks, and steps. 2 to 6 are diagrams illustrating examples of images obtained by imaging road surface problems. An image P1 shown in FIG. 2 shows an example of 轍 D1. An image P2 shown in FIG. 3 shows an example of the pothole D2. An image P3 shown in FIG. 4 shows an example of a crack D3. An image P4 shown in FIG. 5 shows an example of the step D4. The failure analysis system 1 may analyze a road surface state such as patching in addition to the road surface failure. An image P5 shown in FIG. 6 shows an example of patching D5.
次に、不具合解析システム1を用いた路面不具合の解析の概要について説明する。
まず、ユーザは、撮像部11を備える車両10に運転して、路面不具合を解析する道路を走行する。撮像部11は、路面を撮像可能に車両10に設置されている。そして、撮像部11は、車両10の走行に応じて移り変わる路面を随時撮像する。以下では、路面の画像を「路面画像」と称する。また、ユーザは、路面画像の撮像中、車両10の位置を随時計測する。以下では、測位結果を示す情報(データ)を「測位情報」と称する。
Next, an outline of road surface failure analysis using the failure analysis system 1 will be described.
First, the user drives the vehicle 10 including the imaging unit 11 and travels on a road for analyzing road surface problems. The imaging unit 11 is installed in the vehicle 10 so that a road surface can be imaged. And the imaging part 11 images the road surface which changes according to driving | running | working of the vehicle 10 at any time. Hereinafter, the road surface image is referred to as a “road surface image”. In addition, the user measures the position of the vehicle 10 at any time while capturing a road surface image. Hereinafter, information (data) indicating the positioning result is referred to as “positioning information”.
次に、不具合解析システム1は、路面画像を示す情報(以下、「路面画像情報」と称する。)とを、不具合解析用人工知能を用いて解析する。不具合解析用人工知能は、例えば、多層パーセプトロン(多層ニューラルネットワーク)を備える。不具合解析用人工知能には、路面不具合等の解析対象を撮像した教示画像(例えば、画像P1〜P5)により深層学習(ディープラーニング)が予め行われている。不具合解析用人工知能には、従来の人工知能で用いられてきた任意の技術やフレームワーク等を適用してよい。深層学習により、不具合解析システム1は、路面画像に写り込んだ路面不具合を、不具合解析用人工知能を用いることにより検出することができる。また、不具合解析システム1は、路面不具合が検出された路面画像の撮像時の測位結果を特定することにより、不具合が存在する場所を特定することができる。 Next, the failure analysis system 1 analyzes information indicating a road surface image (hereinafter referred to as “road surface image information”) using the failure analysis artificial intelligence. The defect analysis artificial intelligence includes, for example, a multilayer perceptron (multilayer neural network). In the artificial intelligence for failure analysis, deep learning (deep learning) is performed in advance using teaching images (for example, images P1 to P5) obtained by imaging an analysis target such as a road surface failure. Arbitrary techniques and frameworks that have been used in conventional artificial intelligence may be applied to the defect analysis artificial intelligence. By deep learning, the failure analysis system 1 can detect a road surface failure reflected in a road surface image by using artificial intelligence for failure analysis. In addition, the failure analysis system 1 can specify the location where the failure exists by specifying the positioning result at the time of capturing the road surface image where the road surface failure is detected.
不具合解析システム1は、路面画像情報の解析の結果、検出された路面不具合と路面不具合の位置とを対応付けて出力する。不具合解析システム1は、例えば、地図上に路面不具合の場所を示すとともに、路面不具合の種類を対応付けて示す。解析結果は、ユーザにより編集可能としてよい。
このように、不具合解析システム1は、深層学習した人工知能を用いて、画像中に写り込んだ不具合を検出する。深層学習は、適切な教示情報により学習が行われれば、高い認識精度が得られるという特性がある。そのため、不具合解析システム1は、撮像した範囲については、建造物の不具合を網羅的に検出することができる。
The failure analysis system 1 outputs the detected road surface failure and the position of the road surface failure in association with each other as a result of the analysis of the road surface image information. The failure analysis system 1 indicates, for example, the location of a road surface failure on a map and indicates the type of the road surface failure in association with each other. The analysis result may be editable by the user.
As described above, the defect analysis system 1 detects a defect reflected in an image using the artificial intelligence learned deeply. Deep learning has the characteristic that high recognition accuracy can be obtained if learning is performed with appropriate teaching information. Therefore, the failure analysis system 1 can comprehensively detect the failure of the building in the captured range.
また、不具合解析システム1は、例えば、従来の路面性状測定車のようにレーザー照射器、電子ストリーク撮像装置、加速度センサ等の特別な測定機器を備えなくてもよい。従って、不具合解析システム1は、安価に精度よく建造物の不具合を検出することができる。なお、不具合解析システム1は、レーザー照射器、電子ストリーク撮像装置、加速度センサ等を備えてもよい。
以上が、不具合解析システム1の概要についての説明である。
In addition, the failure analysis system 1 does not have to include a special measurement device such as a laser irradiator, an electronic streak imaging device, or an acceleration sensor as in a conventional road surface property measurement vehicle. Therefore, the failure analysis system 1 can detect the failure of the building accurately at low cost. The failure analysis system 1 may include a laser irradiator, an electronic streak imaging device, an acceleration sensor, and the like.
The above is the description of the outline of the failure analysis system 1.
〔不具合解析システム1の構成〕
次に、不具合解析システム1の構成について説明する。
図7は、不具合解析システム1の構成を示すブロック図である。
不具合解析システム1は、車両10と、不具合解析装置30と、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90と、を備える。車両10には、撮像部11と、測位部12と、情報端末装置13とが搭載されている。情報端末装置13と、不具合解析装置30と、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90とは、それぞれ、ネットワークNWに接続し、互いに通信を行うことができる。
[Configuration of defect analysis system 1]
Next, the configuration of the failure analysis system 1 will be described.
FIG. 7 is a block diagram illustrating a configuration of the failure analysis system 1.
The failure analysis system 1 includes a vehicle 10, a failure analysis device 30, a failure information management device 50, a ledger information management device 70, and a map information management device 90. An imaging unit 11, a positioning unit 12, and an information terminal device 13 are mounted on the vehicle 10. The information terminal device 13, the failure analysis device 30, the failure information management device 50, the ledger information management device 70, and the map information management device 90 are each connected to the network NW and can communicate with each other.
車両10は、路面を撮像可能に移動する移動体である。例えば、車両10は、自動車、自転車、電車等であり、建造物上を移動する移動体である。なお、車両10のような建造物に接触しながら移動する移動体の代わりに、ラジオコントロールヘリコプター、ドローン等の建造物に接触しない移動体を用いてもよい。 The vehicle 10 is a moving body that moves on a road surface so that it can be imaged. For example, the vehicle 10 is an automobile, a bicycle, a train, or the like, and is a moving body that moves on a building. Instead of a moving body that moves while contacting a building such as the vehicle 10, a moving body that does not contact the building such as a radio control helicopter or a drone may be used.
撮像部11は、路面を撮像して路面画像情報を生成する。撮像部11は、動画像(映像)を撮像してもよいし、静止画像を連続して撮像してもよい。ここでは、一例として、動画像のフレームレート、或いは、静止画像の撮像間隔が一定である場合について説明する。撮像部11が生成した路面画像情報は、記憶媒体を介して他の装置に出力可能としてもよいし、ネットワークを介して他の装置に送信可能としてもよい。撮像部11は、車両10の車内に設置されてもよい。このような場合には、撮像部11は、車両10のフロントガラスやリアガラス越しに路面を撮像することがある。ガラスによる反射が路面画像に写り込むことを抑制するため、撮像部11のレンズに偏光フィルタを取り付けてよい。 The imaging unit 11 captures a road surface and generates road surface image information. The imaging unit 11 may capture a moving image (video) or continuously capture still images. Here, as an example, a case where the frame rate of a moving image or the imaging interval of still images is constant will be described. The road surface image information generated by the imaging unit 11 may be output to another device via a storage medium, or may be transmitted to another device via a network. The imaging unit 11 may be installed in the vehicle 10. In such a case, the imaging unit 11 may image the road surface through the windshield or rear glass of the vehicle 10. A polarization filter may be attached to the lens of the imaging unit 11 in order to suppress reflection by glass from being reflected in the road surface image.
測位部12は、測位を行う。測位部12は、例えば、GPS(Global Positioning System)センサである。測位部12は、静止衛星型衛星航法補強システム、ODB2(On−board diagnostics 2)等の速度センサ、加速度センサ等を用いて測位を行ってもよい。測位部12は、所定の時間間隔で測位を行ってもよいし、撮像部11による路面画像の取得と同期して測位を行ってもよい。撮像部11による路面画像の取得と同期していない場合には、測位の開始と撮像の開始とを合致させておく。そして、撮像のタイミングと測位のタイミングとのずれは、2つの測位点の移動を、その間の路面画像の数で除算して、各路面画像に対応する位置を特定してよい。 The positioning unit 12 performs positioning. The positioning unit 12 is, for example, a GPS (Global Positioning System) sensor. The positioning unit 12 may perform positioning using a stationary satellite type satellite navigation reinforcement system, a speed sensor such as ODB2 (On-board diagnostics 2), an acceleration sensor, or the like. The positioning unit 12 may perform positioning at a predetermined time interval, or may perform positioning in synchronization with the acquisition of the road surface image by the imaging unit 11. When the acquisition of the road surface image by the imaging unit 11 is not synchronized, the start of positioning is matched with the start of imaging. And the shift | offset | difference of the timing of imaging and the timing of positioning may specify the position corresponding to each road surface image by dividing the movement of two positioning points by the number of road surface images between them.
情報端末装置13は、例えば、カーナビゲーション端末等の車載端末、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)端末、パーソナルコンピュータ、ウェアラブル端末等のコンピュータシステムを備える電子機器である。情報端末装置13は、ネットワークNWに接続する他の装置から情報を受信して、受信した情報の内容を表示したり、音声出力したりする。例えば、情報端末装置13は、路面不具合の解析結果を示す情報を受信して、解析結果を表示する。また、情報端末装置13は、タッチパネル、機械式ボタン、キーボード、マイク等の入力部を備えてよい。この場合、入力部が、ユーザから受け付けたユーザ入力情報の内容を、ネットワークNWに接続する他の装置に送信してもよい。 The information terminal device 13 is an electronic device including a computer system such as an in-vehicle terminal such as a car navigation terminal, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant) terminal, a personal computer, or a wearable terminal. The information terminal device 13 receives information from other devices connected to the network NW, displays the content of the received information, and outputs a sound. For example, the information terminal device 13 receives the information indicating the analysis result of the road surface problem and displays the analysis result. The information terminal device 13 may include an input unit such as a touch panel, a mechanical button, a keyboard, and a microphone. In this case, the input unit may transmit the content of the user input information received from the user to another device connected to the network NW.
なお、撮像部11、測位部12、情報端末装置13は、一体の装置であってもよいし、別体の装置であってもよい。例えば、路面画像の撮像と、GPSによる測位と、路面不具合の解析結果の表示との全てを1台のスマートフォンが行ってもよい。また、撮像部11、測位部12、情報端末装置13は、音声入力により操作されてもよい。これにより、車両10の走行中であっても、車両10の運転手が1人で各種装置を操作することができる。また、撮像部11、測位部12、情報端末装置13は、ネットワークNWを介して遠隔操作されてもよいし、赤外線等の近距離無線通信を介して操作されてもよい。 Note that the imaging unit 11, the positioning unit 12, and the information terminal device 13 may be integrated devices or separate devices. For example, a single smartphone may perform all of imaging of road surface images, positioning by GPS, and display of analysis results of road surface problems. Further, the imaging unit 11, the positioning unit 12, and the information terminal device 13 may be operated by voice input. Thereby, even when the vehicle 10 is traveling, the driver of the vehicle 10 can operate various devices by one person. In addition, the imaging unit 11, the positioning unit 12, and the information terminal device 13 may be remotely operated via the network NW or may be operated via short-range wireless communication such as infrared rays.
不具合解析装置30は、路面画像から路面不具合を解析する装置である。不具合情報管理装置50は、例えば、パーソナルコンピュータ、サーバ装置等のコンピュータシステムを備える電子機器である。不具合解析装置30には、不具合解析用人工知能が実装されている。 The failure analysis device 30 is a device that analyzes a road surface failure from a road surface image. The defect information management device 50 is an electronic device including a computer system such as a personal computer or a server device. The defect analysis apparatus 30 is equipped with defect analysis artificial intelligence.
不具合情報管理装置50は、不具合情報を管理する装置である。ここで、「情報の管理」とは、情報を、新規に書き込んだり、編集したり、削除したり、読み出したり、受信したり、送信したりすることをいう。不具合情報管理装置50は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。
不具合情報とは、路面不具合の内容、路面不具合の場所等の路面不具合に関する情報である。つまり、不具合情報とは、面の状態を示す情報の一例である。不具合情報には、路面不具合が存在していないことが記述されてもよい。
The defect information management device 50 is a device that manages defect information. Here, “information management” means that information is newly written, edited, deleted, read, received, or transmitted. The defect information management device 50 is an electronic device including a computer system such as a server device, for example.
The failure information is information relating to road surface failure such as the content of the road surface failure and the location of the road surface failure. That is, the defect information is an example of information indicating a surface state. The failure information may describe that no road surface failure exists.
不具合情報管理装置50は、第1種不具合情報記憶部51と、第2種不具合情報記憶部52と、を備える。第1種不具合情報記憶部51は、第1種不具合情報を記憶する。第2種不具合情報記憶部52は、第2種不具合情報を記憶する。
第1種不具合情報とは、人手により確認された路面不具合に関する情報である。第1種不具合情報は、不具合解析用人工知能の機械学習に用いられる。
第2種不具合情報とは、不具合解析用人工知能により検出された路面不具合に関する情報である。つまり、第2種不具合情報とは、不具合解析装置30による解析結果を示す情報である。
The defect information management device 50 includes a first type defect information storage unit 51 and a second type defect information storage unit 52. The first type defect information storage unit 51 stores first type defect information. The second type defect information storage unit 52 stores second type defect information.
The first type trouble information is information regarding road surface troubles that have been confirmed manually. The first type defect information is used for machine learning of artificial intelligence for defect analysis.
The second type failure information is information regarding road surface failures detected by the failure analysis artificial intelligence. That is, the second type defect information is information indicating an analysis result by the defect analysis device 30.
台帳情報管理装置70は、道路台帳情報を管理する装置である。台帳情報管理装置70は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。台帳情報管理装置70は、道路台帳情報を記憶する台帳情報記憶部71を備える。
地図情報管理装置90は、地図情報を管理する装置である。台帳情報管理装置70は、例えば、サーバ装置等のコンピュータシステムを備える電子機器である。地図情報管理装置90は、地図情報を記憶する地図情報記憶部91を備える。地図情報とは、建造物の名称、座標、住所、範囲等を含む情報であり、地図の生成に用いられる情報である。
以上が、不具合解析システム1の構成についての説明である。
The ledger information management device 70 is a device that manages road ledger information. The ledger information management device 70 is an electronic device including a computer system such as a server device, for example. The ledger information management device 70 includes a ledger information storage unit 71 that stores road ledger information.
The map information management device 90 is a device that manages map information. The ledger information management device 70 is an electronic device including a computer system such as a server device, for example. The map information management device 90 includes a map information storage unit 91 that stores map information. Map information is information including the name, coordinates, address, range, etc. of a building, and is information used for generating a map.
The above is the description of the configuration of the failure analysis system 1.
〔情報のデータ構成〕
次に、不具合解析システム1が処理する情報のデータ構成について説明する。
まず、路面画像情報について説明する。ここでは、一例として、路面画像情報が動画像である場合について説明する。
図8は、路面画像情報のデータ構成を示す図である。
図8に示す例では、路面画像情報は、フレーム番号情報(図8の「フレーム番号」)と、フレーム時間情報(図8の「フレーム時間」)と、フレーム画像情報(図8における「フレーム画像」)と、を含み、これらを対応付けて構成される。
フレーム番号情報とは、路面画像の動画像を構成する各フレームの識別情報である。フレーム番号情報は、例えば、動画像の開始から終了までの各フレームに対して昇順に割当てられた番号である。
[Data structure of information]
Next, a data configuration of information processed by the failure analysis system 1 will be described.
First, the road surface image information will be described. Here, a case where the road surface image information is a moving image will be described as an example.
FIG. 8 is a diagram illustrating a data configuration of road surface image information.
In the example shown in FIG. 8, road surface image information includes frame number information (“frame number” in FIG. 8), frame time information (“frame time” in FIG. 8), and frame image information (“frame image” in FIG. 8). )), And these are associated with each other.
The frame number information is identification information of each frame constituting the moving image of the road surface image. The frame number information is, for example, a number assigned in ascending order to each frame from the start to the end of the moving image.
フレーム時間情報とは、動画像の再生を行う場合に、各フレームを表示するタイミングを示す情報である。
フレーム画像情報とは、各フレームの画像を示す情報である。フレーム画像は、エンコードされていてもよい。
以上が、路面画像情報のデータ構成についての説明である。
The frame time information is information indicating the timing for displaying each frame when a moving image is reproduced.
The frame image information is information indicating an image of each frame. The frame image may be encoded.
The above is the description of the data configuration of the road surface image information.
次に、測位情報について説明する。
図9は、測位情報のデータ構成を示す図である。
図9に示す例では、測位情報は、タイムスタンプ情報(図9の「タイムスタンプ」)と、測位座標情報(図9の「座標」)とを含み、これらを対応付けて構成される。
タイムスタンプ情報とは、測位を行った時刻を示す情報である。
測位座標情報とは、測位の結果、特定された位置を示す情報である。
以上が、測位情報のデータ構成についての説明である。
Next, positioning information will be described.
FIG. 9 is a diagram illustrating a data structure of the positioning information.
In the example illustrated in FIG. 9, the positioning information includes time stamp information (“time stamp” in FIG. 9) and positioning coordinate information (“coordinate” in FIG. 9), and is configured in association with each other.
The time stamp information is information indicating the time when positioning is performed.
The positioning coordinate information is information indicating a position specified as a result of positioning.
This completes the description of the data structure of the positioning information.
次に、不具合情報について説明する。
図10は、不具合情報のデータ構成を示す図である。
図10に示す例では、不具合情報は、路面不具合ID(図10の「路面不具合ID」)と、住所情報(図10の「住所」)と、不具合座標情報(図10の「座標」)と、路面不具合種別情報(図10の「路面不具合種別」)と、不具合画像情報(図10の「画像」)と、を含み、これらを互いに対応付けて構成される。
Next, the defect information will be described.
FIG. 10 is a diagram illustrating a data configuration of defect information.
In the example illustrated in FIG. 10, the defect information includes road surface defect ID (“road surface defect ID” in FIG. 10), address information (“address” in FIG. 10), and defect coordinate information (“coordinate” in FIG. 10). , Road surface failure type information (“road surface failure type” in FIG. 10) and failure image information (“image” in FIG. 10), which are associated with each other.
路面不具合ID(Identifier)とは、不具合解析装置30により検出された、又は、人手により確認された路面不具合を個別に識別する識別情報である。
住所情報とは、路面不具合が存在する場所の住所を示す情報である。
不具合座標情報とは、路面不具合が存在する場所の座標を示す情報である。
路面不具合種別情報とは、路面不具合の種別を示す情報である。
不具合画像情報とは、路面不具合を撮像した画像を示す情報である。
以上が、不具合情報のデータ構成についての説明である。
The road surface failure ID (Identifier) is identification information for individually identifying the road surface failure detected by the failure analysis device 30 or confirmed manually.
The address information is information indicating an address of a place where a road surface problem exists.
The defect coordinate information is information indicating the coordinates of a place where a road surface defect exists.
The road surface failure type information is information indicating the type of road surface failure.
The defect image information is information indicating an image obtained by imaging a road surface defect.
This completes the description of the data structure of the defect information.
次に、台帳情報について説明する。
図11は、台帳情報のデータ構成を示す図である。
図11に示す例では、台帳情報は、路線番号情報(図11の「路線番号」)と、道路種別情報(図11の「道路種別」)と、路線名称情報(図11の「路線名称」)と、区間番号情報(図11の「区間番号」)と、改良区分情報(図11の「改良区分」)と、路面種別情報(図11の「路面種別」)と、全幅員情報(図11の「全幅員」)と、道路幅員情報(図11の「道路幅員」)と、を含み、これらを対応付けて構成される。
Next, ledger information will be described.
FIG. 11 is a diagram illustrating a data configuration of ledger information.
In the example illustrated in FIG. 11, the ledger information includes route number information (“route number” in FIG. 11), road type information (“road type” in FIG. 11), and route name information (“route name” in FIG. 11). ), Section number information ("section number" in FIG. 11), improved section information ("improved section" in FIG. 11), road surface type information ("road surface type" in FIG. 11), and full width information (figure 11). 11 “full width”) and road width information (“road width” in FIG. 11), and these are associated with each other.
路線番号情報とは、道路の路線を識別する識別情報である。
道路種別情報とは、道路の種別を示す情報である。
路線名称情報とは、道路の路線の名称を示す情報である。
区間番号情報とは、路線における道路の区間を示す情報である。
改良区分情報とは、道路の改良区分を示す情報である。
路面種別情報とは、道路の路線の種別を示す情報である。
全幅員情報とは、道路の全幅員を示す情報である。
道路幅員情報とは、道路の幅員を示す情報である。
以上が、台帳情報のデータ構成についての説明である。
The route number information is identification information for identifying a road route.
The road type information is information indicating the type of road.
The route name information is information indicating the name of a road route.
The section number information is information indicating road sections on the route.
The improvement classification information is information indicating the improvement classification of the road.
The road surface type information is information indicating the type of road route.
The full width information is information indicating the full width of the road.
The road width information is information indicating the width of the road.
This completes the description of the data structure of the ledger information.
〔不具合解析装置30の構成〕
次に、不具合解析装置30の構成について説明する。
図12は、不具合解析装置30の構成を示すブロック図である。
図12に示す例において、不具合解析装置30は、入力部31と、表示部32と、音声再生部33と、通信部34と、記憶部35と、制御部360と、を備える。
入力部31は、不具合解析装置30のユーザから、各種情報の入力を受け付ける。入力部31は、例えば、マウス、タッチパッド等のポインティングデバイス、キーボード等を備える。
表示部32は、テキストや画像等の各種情報を表示する。表示部32は、例えば、有機EL(Electro−Luminscence)ディスプレイパネルや液晶ディスプレイパネル等を備える。不具合解析装置30による路面不具合の解析結果を表示する。
音声再生部33は、音声を再生する。音声再生部33は、例えば、スピーカ、アンプ等である。
通信部34は、他の装置と情報を送受信する。通信部34は、例えば、通信用IC(Integrated Circuit)や通信用ポート等を備える。
記憶部35は、各種情報を記憶する。記憶部35は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。また、記憶部35は、HDD(Hard Disc Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュメモリ等を備えてもよい。記憶部35は、不具合解析装置30が備えるCPU(Central Processing Unit、不図示)やGPU(Graphics Processing Unit、不図示)が実行するための各種プログラムやCPUやGPUが実行した処理の結果などを記憶する。また、記憶部35は、学習結果記憶部351を備える。
学習結果記憶部351は、不具合解析装置30が備える不具合解析用人工知能の学習結果を記憶する。学習結果とは、例えば、ニューラルネットワークのネットワークの状態を示す情報である。ニューラルネットワークのネットワークの状態を示す情報とは、例えば、ニューラルネットワークを構成する各ノード(ユニット)に係る活性化関数のパラメータの値を示す情報等である。
[Configuration of Defect Analysis Device 30]
Next, the configuration of the failure analysis device 30 will be described.
FIG. 12 is a block diagram illustrating a configuration of the failure analysis apparatus 30.
In the example illustrated in FIG. 12, the failure analysis apparatus 30 includes an input unit 31, a display unit 32, an audio reproduction unit 33, a communication unit 34, a storage unit 35, and a control unit 360.
The input unit 31 receives input of various information from the user of the failure analysis device 30. The input unit 31 includes, for example, a pointing device such as a mouse and a touch pad, a keyboard, and the like.
The display unit 32 displays various information such as text and images. The display unit 32 includes, for example, an organic EL (Electro-Luminescence) display panel or a liquid crystal display panel. The analysis result of the road surface failure by the failure analysis device 30 is displayed.
The audio reproduction unit 33 reproduces audio. The audio reproduction unit 33 is, for example, a speaker, an amplifier, or the like.
The communication unit 34 transmits / receives information to / from other devices. The communication unit 34 includes, for example, a communication IC (Integrated Circuit), a communication port, and the like.
The storage unit 35 stores various information. The storage unit 35 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. In addition, the storage unit 35 may include an HDD (Hard Disc Drive), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, and the like. The storage unit 35 stores various programs to be executed by a CPU (Central Processing Unit, not shown) and a GPU (Graphics Processing Unit, not shown) included in the failure analysis apparatus 30, results of processing executed by the CPU and the GPU, and the like. To do. The storage unit 35 includes a learning result storage unit 351.
The learning result storage unit 351 stores the learning result of the defect analysis artificial intelligence included in the defect analysis device 30. The learning result is information indicating the state of the neural network, for example. The information indicating the network state of the neural network is, for example, information indicating the parameter value of the activation function related to each node (unit) constituting the neural network.
制御部360は、例えば、記憶部35に予め記憶されたプログラムを、不具合解析装置30が備えるCPUやGPUが実行することにより実現される。なお、制御部360の一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアの集積回路として実現されてもよい。制御部360は、情報取得部(画像取得部)361と、画像変換部362と、解析部365と、結果生成部368と、結果編集部369と、を備える。 The control unit 360 is realized, for example, by executing a program stored in advance in the storage unit 35 by a CPU or GPU included in the failure analysis apparatus 30. A part or all of the control unit 360 may be realized as a hardware integrated circuit such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit). The control unit 360 includes an information acquisition unit (image acquisition unit) 361, an image conversion unit 362, an analysis unit 365, a result generation unit 368, and a result editing unit 369.
情報取得部361は、入力部31や通信部34を介して、路面不具合の解析に必要な各種情報を取得する。情報取得部361は、例えば、路面画像情報、測位情報を記憶媒体から読み出す。また、情報取得部361は、例えば、路面画像情報、測位情報、ユーザ入力情報を、情報端末装置13から取得する。また、情報取得部361は、例えば、不具合情報を、不具合情報管理装置50から取得する。また、情報取得部361は、例えば、台帳情報を、台帳情報管理装置70から取得する。情報取得部361は、取得した各種情報を、画像変換部362、解析部365、結果編集部369に出力する。 The information acquisition unit 361 acquires various types of information necessary for analyzing road surface problems via the input unit 31 and the communication unit 34. For example, the information acquisition unit 361 reads road surface image information and positioning information from the storage medium. Moreover, the information acquisition part 361 acquires road surface image information, positioning information, and user input information from the information terminal device 13, for example. Moreover, the information acquisition part 361 acquires defect information from the defect information management apparatus 50, for example. Further, the information acquisition unit 361 acquires, for example, ledger information from the ledger information management device 70. The information acquisition unit 361 outputs the acquired various types of information to the image conversion unit 362, the analysis unit 365, and the result editing unit 369.
画像変換部362は、情報取得部361から路面画像情報と測位情報と取得する。画像変換部362は、取得した路面画像情報を変換する。また、画像変換部362は、路面画像情報のフレーム時間情報と、測位情報のタイムスタンプとに基づいて、路面画像の各フレームと、測位座標情報とを対応付ける。なお、画像変換部362は、例えば、路面画像がエンコードされた動画像である場合には、各フレームを静止画像に変換してよい。また、画像変換部362は、画像抽出部363と、領域抽出部(部分画像生成部)364と、を備える。 The image conversion unit 362 acquires road surface image information and positioning information from the information acquisition unit 361. The image conversion unit 362 converts the acquired road surface image information. Further, the image conversion unit 362 associates each frame of the road surface image with the positioning coordinate information based on the frame time information of the road surface image information and the time stamp of the positioning information. Note that the image conversion unit 362 may convert each frame into a still image when, for example, the road surface image is a moving image encoded. The image conversion unit 362 includes an image extraction unit 363 and a region extraction unit (partial image generation unit) 364.
画像抽出部363は、画像抽出処理を実行する。
画像抽出処理とは、路面画像情報から、路面不具合の有無を解析する対象の画像(以下、「検査画像」と称する。)を抽出する処理である。換言すると、画像抽出処理とは、撮像部11が撮像した一連の画像から、検査画像を特定したり、抽出したり、抜き出したり、絞り込んだりする処理である。また、画像抽出処理とは、撮像部11が撮像した一連の画像から、路面不具合の有無を解析しない画像を特定したり、抽出したり、抜き出したり、間引いたりする処理である。
The image extraction unit 363 executes image extraction processing.
The image extraction process is a process of extracting an image (hereinafter referred to as “inspection image”) to be analyzed for the presence or absence of a road surface defect from road surface image information. In other words, the image extraction process is a process for specifying, extracting, extracting, or narrowing down an inspection image from a series of images captured by the imaging unit 11. The image extraction process is a process of identifying, extracting, extracting, or thinning out an image that is not analyzed for the presence or absence of road surface defects from a series of images captured by the imaging unit 11.
画像変換部362は、測位情報に基づいて、撮像範囲の時間的な重複が必要十分になるように検査画像を抽出する。例えば、路面画像情報の各フレームの撮像間隔が短く、車両10の移動速度が小さい場合には、複数のフレームに渡って、路面の同じ部分が繰り返し撮像されることになる。このように時間的に重複したフレームのそれぞれについて、路面不具合の有無を解析すると、路面不具合の検出漏れを低減することできるが、解析に要する負荷が増大してしまう。 The image conversion unit 362 extracts the inspection image based on the positioning information so that the temporal overlap of the imaging ranges is necessary and sufficient. For example, when the imaging interval of each frame of the road surface image information is short and the moving speed of the vehicle 10 is low, the same portion of the road surface is repeatedly imaged over a plurality of frames. Thus, if the presence or absence of a road surface failure is analyzed for each of the temporally overlapping frames, the detection failure of the road surface failure can be reduced, but the load required for the analysis increases.
そこで、画像抽出部363は、測位情報に基づき、複数のフレームの検査領域において、路面の同じ部分が所定の頻度で含まれるように検査画像を抽出する。検査領域とは、例えば、画像内において、路面不具合の有無を解析する対象の領域である。検査画像の抽出において、路面の同じ部分が含まれる頻度は、測位部12の測位精度や不具合解析用人工知能の認識精度に基づいて決定されてよい。例えば、測位精度や認識精度が高い場合には、頻度を低くしてよいし、測位精度や認識精度が低い場合には、頻度を高くしてよい。 Therefore, the image extraction unit 363 extracts the inspection image based on the positioning information so that the same portion of the road surface is included at a predetermined frequency in the inspection regions of a plurality of frames. The inspection area is, for example, an area to be analyzed for the presence or absence of road surface defects in the image. In the extraction of the inspection image, the frequency with which the same portion of the road surface is included may be determined based on the positioning accuracy of the positioning unit 12 and the recognition accuracy of the defect analysis artificial intelligence. For example, when the positioning accuracy and the recognition accuracy are high, the frequency may be decreased, and when the positioning accuracy and the recognition accuracy are low, the frequency may be increased.
このように検査画像を抽出することにより、不具合解析装置30は、路面不具合の認識精度を保ちつつ、解析に要する負荷を低減することができる。また、不具合解析装置30は、検査画像を連続して表示した場合には、一定距離ごと、すなわち、一定の速度で車両10を走らせながら路面画像を撮像したように表示することができる。従って、不具合解析装置30は、路面画像の撮像後に、路面画像に写った路面不具合を目視で確認する場合であっても、確認しやすくすることができる。
画像抽出部363は、画像抽出処理により抽出した検査画像の情報を、領域抽出部364に出力する。
By extracting the inspection image in this way, the failure analysis device 30 can reduce the load required for the analysis while maintaining the recognition accuracy of the road surface failure. In addition, when the inspection images are continuously displayed, the failure analysis device 30 can display the road surface image as if it is being taken while driving the vehicle 10 at a constant distance, that is, at a constant speed. Therefore, the failure analysis device 30 can make it easier to visually confirm a road surface failure reflected in the road surface image after capturing the road surface image.
The image extraction unit 363 outputs the inspection image information extracted by the image extraction process to the region extraction unit 364.
領域抽出部364は、画像抽出部363から検出画像の情報を取得する。領域抽出部364は、検出画像に対して、領域抽出処理を実行する。
領域抽出処理とは、検査画像から、検査領域を抽出する処理である。換言すると、領域抽出処理とは、検査画像から検査領域を、特定したり、抽出したり、抜き出したり、絞り込んだり、生成したり、検査画像を分割したりする処理である。また、領域抽出処理とは、検査画像から、路面不具合の有無を解析しない領域を特定したり、抽出したり、抜き出したり、間引いたりする処理である。検査画像には、路面以外の物体が写り込む場合がある。例えば、検査画像には、道路脇の家屋や道路上の他の車両等が写り込むことがある。これら路面以外の物体についても路面不具合を解析すると、路面以外の物体について路面不具合であると誤認識してしまい、認識精度が低下する可能性がある。特に、路面以外の物体についての機械学習が不十分である場合には、このような誤認識が起こりやすい。また、これら路面以外の物体についても路面不具合を解析すると、路面不具合の解析に要する負荷が増大してしまう。
The region extraction unit 364 acquires information on the detected image from the image extraction unit 363. The region extraction unit 364 performs region extraction processing on the detected image.
The area extraction process is a process for extracting an inspection area from an inspection image. In other words, the area extraction process is a process for specifying, extracting, extracting, narrowing down, generating, or dividing the inspection image from the inspection image. The area extraction process is a process for identifying, extracting, extracting, or thinning out an area from which no road surface failure is analyzed from the inspection image. An object other than the road surface may appear in the inspection image. For example, the inspection image may include houses on the roadside, other vehicles on the road, and the like. If a road surface failure is also analyzed for objects other than these road surfaces, an object other than the road surface may be misrecognized as a road surface failure and recognition accuracy may be reduced. In particular, such misrecognition is likely to occur when machine learning for an object other than the road surface is insufficient. Further, if a road surface failure is analyzed for objects other than these road surfaces, the load required for the analysis of the road surface failure will increase.
そこで、領域抽出処理では、検査画像から検査領域として、路面の領域を抽出する。また、領域抽出処理では、路面外の領域を除外してもよい。また、領域抽出処理では、1つの画像から互いに重複する複数の領域を抽出してもよい。複数の領域が重複する場合は、ある領域の頂点部分や辺部分が他の領域に含まれる。
領域抽出部364は、領域抽出処理により抽出した検査領域の情報を、解析部365に出力する。また、領域抽出部364は、検査領域の各々の検査画像における位置を示す情報を、解析部365に出力する。
Therefore, in the region extraction process, a road surface region is extracted as an inspection region from the inspection image. In the area extraction process, an area outside the road surface may be excluded. In the region extraction process, a plurality of regions overlapping each other may be extracted from one image. When a plurality of areas overlap, a vertex part or a side part of a certain area is included in another area.
The area extraction unit 364 outputs information on the examination area extracted by the area extraction process to the analysis unit 365. Further, the region extraction unit 364 outputs information indicating the position of each inspection region in the inspection image to the analysis unit 365.
解析部365は、不具合解析用人工知能として実装される。解析部365は、学習部366と、認識部367と、を備える。
学習部366は、不具合情報管理装置50が管理する第1種不具合情報を用いて機械学習を実行する。学習部366は、第1種不具合情報の他、路面画像に写り込む可能性がある路面不具合以外の物体を写した画像により強化学習を行ってもよい。例えば、マンホールの画像や側溝を写した画像等により強化学習を行ってもよい。これにより、不具合解析用人工知能は、路面不具合以外の物体を識別することができるため、路面不具合以外の物体を、路面不具合であると誤認識しにくくなる。従って、路面不具合の認識精度を向上させることができる。
The analysis unit 365 is implemented as an artificial intelligence for failure analysis. The analysis unit 365 includes a learning unit 366 and a recognition unit 367.
The learning unit 366 performs machine learning using the first type defect information managed by the defect information management device 50. The learning unit 366 may perform reinforcement learning using an image in which an object other than a road surface defect that may be reflected in the road surface image is captured in addition to the first-type failure information. For example, reinforcement learning may be performed using an image of a manhole or an image showing a side groove. Thereby, since the artificial intelligence for failure analysis can identify an object other than a road surface failure, it is difficult to erroneously recognize an object other than the road surface failure as a road surface failure. Therefore, the recognition accuracy of road surface problems can be improved.
認識部(状態判定部)367は、領域抽出部364から取得した検査領域の情報に基づいて、各検査領域における路面不具合の有無を解析する。つまり、認識部367は、各検査領域における路面の状態を判定する。認識部367は、各検査領域で検出された路面不具合の各々を1つの路面不具合として判定してもよいし、隣接する複数の検査領域で検出された路面不具合をまとめて1つの路面不具合として判定してもよい。また、認識部367は、各検査画像で検出された路面不具合の各々を1つの路面不具合として判定してもよいし、連続する検査画像で検出された路面不具合をまとめて1つの路面不具合として判定してもよい。このように、認識部367は、複数の検査領域や複数の検査画像の判定結果を統合して判定してもよい。 The recognition unit (state determination unit) 367 analyzes the presence or absence of road surface defects in each inspection region based on the information on the inspection region acquired from the region extraction unit 364. That is, the recognition unit 367 determines a road surface state in each inspection region. The recognition unit 367 may determine each road surface failure detected in each inspection region as one road surface failure, or collectively determine road surface failures detected in a plurality of adjacent inspection regions as one road surface failure. May be. In addition, the recognition unit 367 may determine each of the road surface defects detected in each inspection image as one road surface failure, or collectively determine the road surface failures detected in successive inspection images as one road surface failure. May be. As described above, the recognition unit 367 may perform determination by integrating determination results of a plurality of inspection regions and a plurality of inspection images.
また、認識部367は、路面不具合が検出された検査画像に対応する測位情報を特定することで、路面不具合の位置を特定することができる。また、認識部367は、検査領域の検査画像における位置を示す情報を、領域抽出部364から取得することにより、路面不具合の位置をさらに正確に特定することができる。また、不具合解析装置30は、加速度の変化に基づく路面の凹凸の検出結果や他の画像解析プログラムによる路面不具合の解析結果等の他の手法を用いた路面不具合の解析結果と組み合わせて、路面不具合の有無を解析してもよい。 Further, the recognition unit 367 can specify the position of the road surface defect by specifying the positioning information corresponding to the inspection image in which the road surface problem is detected. In addition, the recognition unit 367 can further accurately specify the position of the road surface defect by acquiring information indicating the position of the inspection region in the inspection image from the region extraction unit 364. In addition, the failure analysis device 30 is combined with road surface failure analysis results using other methods such as road surface unevenness detection results based on changes in acceleration and road surface failure analysis results by other image analysis programs. The presence or absence of may be analyzed.
認識部367は、解析結果を不具合情報管理装置50に送信する。これにより、解析結果が第2種不具合情報として、不具合情報管理装置50に記憶される。解析結果は、例えば、路面不具合が検出された検査画像、検査領域、路面不具合の種別、判定スコア(確信度)等を含む。解析部365は、判定スコアの値、前後の路面画像における路面不具合の解析結果、同じ路面画像の複数の検査領域における路面不具合の解析結果等を参照して、路面不具合の度合いや発生範囲を特定することができる。解析部365は、例えば、路面不具合の種別の候補が複数ある場合には、判定スコアの最も高い種別を設定してもよいし、その全てを設定してもよい。 The recognition unit 367 transmits the analysis result to the defect information management device 50. As a result, the analysis result is stored in the defect information management device 50 as the second type defect information. The analysis result includes, for example, an inspection image in which a road surface failure is detected, an inspection region, a road surface failure type, a determination score (certainty factor), and the like. The analysis unit 365 refers to the determination score value, the analysis result of the road surface failure in the preceding and following road surface images, the analysis result of the road surface failure in a plurality of inspection areas of the same road surface image, etc., and specifies the degree and occurrence range of the road surface failure can do. For example, when there are a plurality of road surface failure type candidates, the analysis unit 365 may set the type having the highest determination score, or may set all of them.
また、解析部365は、重複した検査領域において、判定結果が別れた場合には、そのいずれを採用してもよい。例えば、解析部365は、一方の検査領域で「路面不具合あり」と判定し、他方の検査領域で「路面不具合なし」と判定した場合には、OR処理を行って「路面不具合あり」と判定してもよいし、AND処理を行って「路面不具合なし」と判定してもよい。OR処理を行って「路面不具合あり」と判定する場合は、不具合解析装置30は、路面不具合の検出漏れを防ぐことができる。また、AND処理を行って「路面不具合なし」と判定する場合は、路面不具合の誤検出を抑制することができる。 In addition, the analysis unit 365 may adopt any of the determination results that are separated in the overlapped examination region. For example, if the analysis unit 365 determines that there is “road surface failure” in one inspection region and determines that there is “no road surface failure” in the other inspection region, the analysis unit 365 performs OR processing and determines that there is “road surface failure” Alternatively, an AND process may be performed to determine “no road surface problem”. When the OR process is performed and it is determined that “the road surface is defective”, the failure analysis device 30 can prevent a detection failure of the road surface failure. In addition, when performing AND processing and determining “no road surface failure”, erroneous detection of a road surface failure can be suppressed.
結果生成部368は、第1種不具合情報や第2種不具合情報(すなわち、解析部365による解析結果)を示すテキストや画像、音声等の提示情報を生成する。結果生成部368は、例えば、不具合情報を付加した動画や検査画像をフレーム番号順に再生する動画を生成する。結果生成部368が生成する提示情報の画面の具体例については、後述する。結果生成部368は、生成した提示情報を表示部32や音声再生部33を介して提示する。このとき、結果生成部368は、不具合情報管理装置50と、台帳情報管理装置70と、地図情報管理装置90とが管理する任意の情報を参照して、提示情報を生成してよい。 The result generation unit 368 generates presentation information such as text, images, and voices indicating the first type defect information and the second type defect information (that is, the analysis result by the analysis unit 365). The result generation unit 368 generates, for example, a moving image to which defect information is added and a moving image that reproduces inspection images in the order of frame numbers. A specific example of the presentation information screen generated by the result generation unit 368 will be described later. The result generation unit 368 presents the generated presentation information via the display unit 32 and the audio reproduction unit 33. At this time, the result generation unit 368 may generate the presentation information with reference to arbitrary information managed by the defect information management device 50, the ledger information management device 70, and the map information management device 90.
結果編集部369は、ユーザからの指示に応じて不具合情報の編集を行う。例えば、結果編集部369は、不具合情報管理装置50に記憶された第2種不具合情報を、ユーザからの指示に応じて編集してもよい。また、例えば、結果編集部369は、不具合情報管理装置50に記憶された第2種不具合情報を、ユーザからの指示に応じて第1種不具合情報として記憶させてもよい。これにより、解析部365により検出された路面不具合の画像を、不具合人工知能の学習に利用することができる。なお、結果編集部369は、ユーザからの指示に代えて、他の路面不具合を検出するプログラムや、路面監視に用いる他のプログラムが出力する結果に応じて上記の処理を行ってもよい。
以上が、不具合解析装置30の構成についての説明である。
The result editing unit 369 edits defect information in accordance with an instruction from the user. For example, the result editing unit 369 may edit the second type defect information stored in the defect information management device 50 in accordance with an instruction from the user. Further, for example, the result editing unit 369 may store the second type defect information stored in the defect information management device 50 as the first type defect information in response to an instruction from the user. Thereby, the road surface fault image detected by the analysis unit 365 can be used for learning the fault artificial intelligence. Note that the result editing unit 369 may perform the above-described processing in accordance with a result output from a program for detecting other road surface problems or another program used for road surface monitoring, instead of an instruction from the user.
The above is the description of the configuration of the failure analysis device 30.
〔不具合解析装置30の動作〕
次に、不具合解析装置30の動作について説明する。
図13は、不具合解析装置30による全体的な処理の流れを示すフローチャートである。
(ステップS100)情報取得部361は、路面画像情報と、測位情報とを取得する。その後、制御部360は、ステップS102に処理を進める。
(ステップS102)画像変換部362は、画像抽出処理を実行し、検査画像を抽出する。その後、制御部360は、ステップS104に処理を進める。
[Operation of Failure Analysis Device 30]
Next, the operation of the failure analysis device 30 will be described.
FIG. 13 is a flowchart showing an overall processing flow by the failure analysis apparatus 30.
(Step S100) The information acquisition unit 361 acquires road surface image information and positioning information. Thereafter, the control unit 360 advances the process to step S102.
(Step S <b> 102) The image conversion unit 362 performs image extraction processing and extracts an inspection image. Thereafter, the control unit 360 advances the process to step S104.
(ステップS104)画像変換部362は、領域抽出処理を実行し、検査領域を抽出する。その後、制御部360は、ステップS106に処理を進める。
(ステップS106)解析部365は、各検査画像の各検査領域に含まれる路面不具合を解析する。解析部365は、解析結果を示す不具合情報を、第2種不具合情報として、不具合情報管理装置50に記憶させる。その後、制御部360は、ステップS108に処理を進める。
(ステップS108)結果生成部368は、不具合情報管理装置50が管理する不具合情報をユーザに提示するための提示情報を生成する。結果生成部368は、生成した提示情報を表示部32や音声再生部33に出力する。その後、制御部360は、図13に示す処理を終了する。
なお、ステップS102、S104の処理は、省略可能である。
以上が、不具合解析装置30による全体的な処理の流れについての説明である。
(Step S <b> 104) The image conversion unit 362 performs region extraction processing to extract an inspection region. Thereafter, the control unit 360 advances the process to step S106.
(Step S106) The analysis unit 365 analyzes a road surface defect included in each inspection region of each inspection image. The analysis unit 365 causes the defect information management device 50 to store defect information indicating the analysis result as second-type defect information. Thereafter, the control unit 360 advances the process to step S108.
(Step S108) The result generation unit 368 generates presentation information for presenting the defect information managed by the defect information management device 50 to the user. The result generation unit 368 outputs the generated presentation information to the display unit 32 and the audio reproduction unit 33. Thereafter, the control unit 360 ends the process shown in FIG.
Note that the processing in steps S102 and S104 can be omitted.
This completes the description of the overall processing flow performed by the failure analysis apparatus 30.
〔画像抽出処理〕
次に、不具合解析装置30による画像抽出処理について説明する。
ここでは、一例として、車両10の移動に応じて変化する一連の路面画像から、所定の設定距離の移動に対応する路面画像を抽出する場合について説明する。
図14は、不具合解析装置30による画像抽出処理の流れを示すフローチャートである。
(ステップS200)画像抽出部363は、フレームIDに基づいてフレーム(画像)を選択する。例えば、画像抽出部363は、フレームを未選択の場合には、最初のフレームを選択する。また、画像抽出部363は、既にフレームを選択している場合には、選択中のフレームの次のフレームを選択する。その後、制御部360は、ステップS202に処理を進める。
[Image extraction processing]
Next, the image extraction process by the defect analysis device 30 will be described.
Here, as an example, a case where a road surface image corresponding to movement of a predetermined set distance is extracted from a series of road surface images that change in accordance with the movement of the vehicle 10 will be described.
FIG. 14 is a flowchart showing a flow of image extraction processing by the failure analysis apparatus 30.
(Step S200) The image extraction unit 363 selects a frame (image) based on the frame ID. For example, the image extraction unit 363 selects the first frame when no frame is selected. In addition, when the frame has already been selected, the image extraction unit 363 selects the frame next to the currently selected frame. Thereafter, the control unit 360 advances the process to step S202.
(ステップS202)画像抽出部363は、選択中のフレームに対応する測位情報を参照し、1つ前のフレームに対応する測位結果からの移動距離を算出する。以下では、この移動距離を「画像間の距離」と称することがある。その後、制御部360は、ステップS204に処理を進める。
(ステップS204)画像抽出部363は、算出した移動距離を、移動距離合計に加算する。なお、移動距離合計は、画像抽出処理の開始時に初期化される。その後、制御部360は、ステップS206に処理を進める。
(Step S202) The image extraction unit 363 refers to the positioning information corresponding to the currently selected frame, and calculates the movement distance from the positioning result corresponding to the previous frame. Hereinafter, this movement distance may be referred to as “distance between images”. Thereafter, the control unit 360 advances the process to step S204.
(Step S204) The image extraction unit 363 adds the calculated movement distance to the total movement distance. The total moving distance is initialized at the start of the image extraction process. Thereafter, the control unit 360 advances the process to step S206.
(ステップS206)画像抽出部363は、移動距離合計と、所定の設定距離とを比較する。移動距離合計が設定距離に比して大きい場合(ステップS206;YES)、制御部360は、ステップS208に処理を進める。移動距離合計が設定距離に比して小さい場合(ステップS206;NO)、制御部360は、ステップS214に処理を進める。 (Step S206) The image extracting unit 363 compares the total moving distance with a predetermined set distance. When the total moving distance is larger than the set distance (step S206; YES), the control unit 360 advances the process to step S208. When the total moving distance is smaller than the set distance (step S206; NO), the control unit 360 advances the process to step S214.
ここで、設定距離は、例えば、1つの検査画像における路面不具合の認識精度に応じて設定されてよい。例えば、1つの検査画像において、近傍だけでなく遠くに写る路面不具合を検出できる場合には、設定距離を大きくし、各検査画像に写る路面の重複を少なくしてよい。また、1つの検査画像において、遠くに写る路面不具合を検出できない場合には、設定距離を小さくし、各検査画像に写る路面の重複を多くしてよい。これにより、路面不具合の解析に要する負荷を低減しつつ、路面不具合の認識精度を維持することができる。 Here, the set distance may be set, for example, according to the recognition accuracy of the road surface failure in one inspection image. For example, in the case where a road surface defect that appears not only in the vicinity but in the distance can be detected in one inspection image, the set distance may be increased to reduce the overlap of the road surface in each inspection image. In addition, when a road surface failure that appears far away cannot be detected in one inspection image, the set distance may be reduced to increase the overlap of the road surface that appears in each inspection image. Thereby, the recognition accuracy of a road surface defect can be maintained, reducing the load required for the analysis of a road surface problem.
(ステップS208)画像抽出部363は、移動距離合計を0に設定し、初期化する。その後、制御部360は、ステップS210に処理を進める。
(ステップS210)画像抽出部363は、選択中の画像と測位情報とを対応付ける。その後、制御部360は、ステップS212に処理を進める。
(ステップS212)画像抽出部363は、選択画像を検査画像として設定する。その後、制御部360は、ステップS214に処理を進める。
(Step S208) The image extraction unit 363 sets the total moving distance to 0 and initializes it. Thereafter, the control unit 360 advances the process to step S210.
(Step S210) The image extraction unit 363 associates the currently selected image with the positioning information. Thereafter, the control unit 360 advances the process to step S212.
(Step S212) The image extraction unit 363 sets the selected image as an inspection image. Thereafter, the control unit 360 advances the process to step S214.
(ステップS214)画像抽出部363は、次の画像の有無と、その画像に対応する測位結果の有無とを確認する。画像及び測位結果が存在する場合(ステップS214;YES)、制御部360、ステップS216に処理を進める。画像及び測位結果が存在しない場合(ステップS214;NO)、制御部360は、ステップS216に処理を進める。
(ステップS216)画像抽出部363は、検査画像と、検査画像に対応する測位情報とを記憶部35に記憶し、参照可能にする。その後、制御部360は、図14に示す処理を終了する。
なお、検出画像は、例えば、10フレーム間隔等、設定距離に依らずに抽出されてもよい。また、図14に示す処理では省略したが、測位情報は、車両10の速度情報等により補正されたものであってもよい。
以上が、画像抽出処理の説明である。
(Step S214) The image extraction unit 363 confirms the presence / absence of the next image and the presence / absence of the positioning result corresponding to the image. When the image and the positioning result exist (step S214; YES), the process proceeds to the control unit 360 and step S216. When the image and the positioning result do not exist (step S214; NO), the control unit 360 advances the process to step S216.
(Step S216) The image extraction unit 363 stores the inspection image and the positioning information corresponding to the inspection image in the storage unit 35 so that they can be referred to. Thereafter, the control unit 360 ends the process shown in FIG.
Note that the detected image may be extracted regardless of the set distance, such as an interval of 10 frames. Although omitted in the processing shown in FIG. 14, the positioning information may be corrected by speed information of the vehicle 10 or the like.
The above is the description of the image extraction process.
〔領域抽出処理〕
次に、領域抽出処理について説明する。
図15は、検査画像の一例を示す図である。
図15に示す例において、撮像部11は、車両10の前方を撮像するように設置されている。この撮像部11によって撮像された検査画像P6には、3つのラインによって区切られた2車線の道路の路面が含まれている。また、検査画像P6には、縁石R4によって区切られた沿道が含まれている。
[Area extraction processing]
Next, the area extraction process will be described.
FIG. 15 is a diagram illustrating an example of an inspection image.
In the example illustrated in FIG. 15, the imaging unit 11 is installed so as to capture the front of the vehicle 10. The inspection image P6 imaged by the imaging unit 11 includes a road surface of a two-lane road divided by three lines. Further, the inspection image P6 includes a roadside delimited by the curb R4.
ここで、検査画像P6において、車両10の下側には車道が位置し、車両10の上側の空間は開けている。撮像部11の撮像面に近い物体は大きく映るため、検査画像P6の下側(手前側)、すなわち車両10に近い路面は大きく写り、検査画像P6の中央部(奥行側)、すなわち車両10から遠い路面は小さく写る。つまり、検査画像P6の下側の路面は、現実には同じ面積であっても、より多い画素数で撮像される。そのため、同じ面積の路面不具合であっても、検査画像P6の下側と中央部とでは、下側に写る路面不具合の方が高い精度で認識することができる。また、検査画像P6の撮像において、車両10の近傍に他の車両が存在している場合であっても、検査画像P6の下側には、車両10のごく近傍が撮像されるため、中央部よりも確実に路面が写ることになる。また、車両10が右左折する場合、撮像範囲の変化量は、検査画像P6の中央部よりも下側の方が少ない。従って、車両10が右左折する場合には、検査画像P6の中央部では解析されない部分が生じうる。また、車両10は、基本的に車線の中央付近を走行するので、撮像部11が車両10の進行方向を撮像するように設定されている場合、検査画像P6の横方向においては、特に画像の端部に路面以外の沿道や路肩等が写り込みやすい。 Here, in the inspection image P <b> 6, the roadway is located below the vehicle 10, and the space above the vehicle 10 is open. Since an object close to the imaging surface of the imaging unit 11 appears large, the lower side (front side) of the inspection image P6, that is, the road surface close to the vehicle 10 is greatly reflected, and the central portion (depth side) of the inspection image P6, that is, the vehicle 10 The distant road surface appears small. That is, the road surface on the lower side of the inspection image P6 is picked up with a larger number of pixels even if it actually has the same area. Therefore, even if the road surface has the same area, the road surface failure that appears on the lower side can be recognized with higher accuracy between the lower side and the center of the inspection image P6. Further, in the imaging of the inspection image P6, even when another vehicle exists in the vicinity of the vehicle 10, since the very vicinity of the vehicle 10 is imaged below the inspection image P6, the central portion The road surface will be reflected more reliably. Further, when the vehicle 10 makes a right or left turn, the amount of change in the imaging range is smaller on the lower side than the central portion of the inspection image P6. Therefore, when the vehicle 10 makes a right or left turn, a portion that is not analyzed can occur in the central portion of the inspection image P6. Further, since the vehicle 10 basically travels in the vicinity of the center of the lane, when the imaging unit 11 is set to capture the traveling direction of the vehicle 10, in the lateral direction of the inspection image P6, in particular, Roadsides and shoulders other than the road surface are easily reflected on the edge.
図16は、領域抽出処理の一例を示す図である。
図16に示す検査画像P7は、図15に示す検査画像P6と同様に撮像された画像である。図16に示す領域A1〜A10は、それぞれ、検査画像P7に設定された検査領域を示す。このように検査領域A1〜A10を設定することにより、各検査領域A1〜A10は、路面以外の物体を含みにくくなる。これにより、路面不具合以外の物体を、路面不具合であると誤認識してしまうことが少なくなるため、不具合解析装置30は、路面不具合の認識精度を向上させることができる。また、路面不具合の画像内の位置を特定することができる。また、検査画像P7に複数の路面不具合が写る場合であっても、各検査領域A1〜A10に個々の路面不具合のみを含みやすくなる。これにより、不具合解析装置30は、個々の路面不具合の種別を精度よく認識することができる。
FIG. 16 is a diagram illustrating an example of region extraction processing.
An inspection image P7 illustrated in FIG. 16 is an image captured in the same manner as the inspection image P6 illustrated in FIG. Regions A1 to A10 illustrated in FIG. 16 indicate inspection regions set in the inspection image P7, respectively. By setting the inspection areas A1 to A10 in this way, the inspection areas A1 to A10 are less likely to include objects other than the road surface. Thereby, since it is less likely that an object other than a road surface failure is erroneously recognized as a road surface failure, the failure analysis apparatus 30 can improve the recognition accuracy of the road surface failure. Moreover, the position in the image of a road surface defect can be specified. Further, even when a plurality of road surface defects are reflected in the inspection image P7, each inspection region A1 to A10 is likely to include only individual road surface defects. As a result, the failure analysis device 30 can accurately recognize the type of individual road surface failure.
また、上記のように検査画像P7の下側と中央部とでは、下側に写る路面不具合の方が高い精度で認識できる。そのため、検査画像P7の縦方向については、中央部よりも下側に、より多くの検査領域を設定している。また、上記のように検査画像P7の縦方向では、中央側よりも下側に路面が写る。そして、上記のように検査画像P7の縦方向では、中央側よりも下側の方が右左折時の撮像範囲の変化が小さい。従って、下側により多くの検査領域を設定することにより、路面不具合を精度よく認識することができる。また、上記のように検査画像P7の横方向においては、画像の端部に路面以外の沿道等が写り込みやすい。そのため、検査画像P7の中央部の横方向においては、端部よりも中央近傍に、より多くの検査領域を設定している。また、検査領域A1〜A10は、その一部が互いに重複するように設定されている。これにより、路面不具合がある検査領域の境界や端部に含まれる場合であっても、その検査領域に重複して設定された検査領域において、路面不具合を中央近傍に含むことができる。従って、不具合解析装置30は、路面不具合の検出漏れを抑制し、認識精度を向上させることができる。
以上が、領域抽出処理についての説明である。
In addition, as described above, the road surface defects appearing on the lower side can be recognized with higher accuracy at the lower side and the central portion of the inspection image P7. Therefore, more inspection regions are set below the center portion in the vertical direction of the inspection image P7. Further, as described above, in the vertical direction of the inspection image P7, the road surface is shown below the center side. As described above, in the vertical direction of the inspection image P7, the change in the imaging range when turning right or left is smaller in the lower side than in the central side. Accordingly, by setting more inspection areas on the lower side, road surface problems can be recognized with high accuracy. Further, as described above, in the lateral direction of the inspection image P7, roadsides and the like other than the road surface are likely to appear in the edge of the image. Therefore, in the lateral direction of the central portion of the inspection image P7, more inspection regions are set near the center than the end portions. Moreover, inspection area | region A1-A10 is set so that the part may mutually overlap. Thereby, even if it is a case where it is contained in the boundary and edge part of an inspection area with a road surface defect, the road surface defect can be included in the vicinity of the center in the inspection area set overlapping the inspection area. Therefore, the failure analysis device 30 can suppress the detection failure of the road surface failure and improve the recognition accuracy.
The above is the description of the region extraction process.
〔不具合情報の提示〕
次に、不具合情報の提示について説明する。
不具合情報は、不具合解析装置30が提示してもよいし、情報端末装置13が提示してもよい。
図17は、不具合情報の提示画面の一例を示す図である。
図17に示す例において、画面O1は、複数の領域O2〜O4を含む。画面O1は、例えばウェブページ化され、任意の端末のウェブブラウザから参照可能である。
領域O2は、車両10の位置を示すマーカO21、路面不具合の位置を示すマーカO22、路面画像を取得した位置、すなわち車両10の走行経路O23を、地図上に表示した画像を提示する領域である。車両10のマーカO21、地図の縮尺、地図の範囲は、ユーザによる操作に応じて変更可能である。地図の範囲は、車両10のマーカO21の位置、路面不具合のマーカO22の位置、車両10の走行経路O23に応じて定められてもよい。
[Presentation of defect information]
Next, presentation of defect information will be described.
The defect information may be presented by the defect analysis device 30 or the information terminal device 13.
FIG. 17 is a diagram illustrating an example of a defect information presentation screen.
In the example shown in FIG. 17, the screen O1 includes a plurality of regions O2 to O4. The screen O1 is converted into a web page, for example, and can be referred from a web browser of an arbitrary terminal.
The area O2 is an area for presenting an image displaying a marker O21 indicating the position of the vehicle 10, a marker O22 indicating the position of the road surface defect, a position where the road surface image is acquired, that is, the travel route O23 of the vehicle 10 on a map. . The marker O21, the scale of the map, and the map range of the vehicle 10 can be changed according to the operation by the user. The range of the map may be determined according to the position of the marker O21 of the vehicle 10, the position of the marker O22 of road surface malfunction, and the travel route O23 of the vehicle 10.
また、路面不具合のマーカO22は、地図の縮尺や路面不具合の密集度に応じてまとめられてよい。例えば、不具合解析装置30は、1つの検査画像の複数の検査領域から検出された路面不具合、連続する複数の検査画像から検出された路面不具合等を1つのマーカO22にまとめてよい。まとめられたマーカO22は、ユーザからの選択に応じて個別に確認できるようにしてよい。また、路面不具合のマーカO22は、路面不具合の種別や度合い、発生範囲、第1種不具合情報か第2種不具合情報か等に応じて異なる表示態様(絵柄、色彩、形状、大きさ、透明度等)で示されてよい。 Further, the road surface failure markers O22 may be grouped according to the scale of the map and the density of road surface failures. For example, the failure analysis apparatus 30 may combine road surface failures detected from a plurality of inspection regions of one inspection image, road surface failures detected from a plurality of consecutive inspection images, and the like into one marker O22. The collected markers O22 may be individually confirmed according to the selection from the user. Further, the road surface failure marker O22 has different display modes (picture, color, shape, size, transparency, etc.) depending on the type and degree of road surface failure, the occurrence range, the first type failure information or the second type failure information, and the like. ).
領域O3は、路面画像を表示する領域である。領域O3は、画像抽出処理により抽出された検査画像を連続的に表示する。画像抽出処理において各画像間の重複の頻度を一定にしている場合には、領域O3で再生される動画像は、一定の走行速度で撮像されたように表現される。従って、ユーザは、効率よく路面不具合を確認することができる。
領域O4は、検出された路面不具合を含む路面画像のフレームを一覧表示する領域である。領域O4には、各フレームにおいて、路面不具合を検出した検査領域O41が表示される。
The region O3 is a region for displaying a road surface image. In the region O3, the inspection images extracted by the image extraction process are continuously displayed. In the image extraction process, when the frequency of overlap between images is constant, the moving image reproduced in the region O3 is expressed as if it was captured at a constant traveling speed. Therefore, the user can efficiently confirm road surface problems.
The region O4 is a region for displaying a list of road image frames including detected road surface defects. In the area O4, an inspection area O41 in which a road surface failure is detected is displayed in each frame.
領域O2〜O4の表示は、互いに連携していてよい。例えば、領域O2における車両10の位置O21において撮像された路面画像が、領域O3に表示されるようにしてよい。また、車両10の位置O21から所定距離に位置する路面不具合を含む路面画像が、領域O4に表示されるようにしてもよい。例えば、領域O2において、車両10のマーカO21の位置を変更することに応じて、領域O3の表示や領域O4の表示が切り替わるようにしてよい。 The displays of the regions O2 to O4 may be linked to each other. For example, a road surface image captured at the position O21 of the vehicle 10 in the region O2 may be displayed in the region O3. Further, a road surface image including a road surface defect located at a predetermined distance from the position O21 of the vehicle 10 may be displayed in the region O4. For example, in the region O2, the display of the region O3 and the display of the region O4 may be switched in accordance with the change of the position of the marker O21 of the vehicle 10.
また、提示画面O1には、上記以外の任意の情報が表示されてよい。不具合解析装置30は、例えば、路面不具合のマーカO22が選択された場合に、その路面不具合について、位置、路面不具合種別、撮像時刻、路線番号、道路工事履歴等の各種情報を表示してもよい。また、不具合解析装置30は、提示画面O1に路面不具合の総数や路面不具合の走行距離ごとの平均等の数値を表示してもよい。また、不具合解析装置30は、撮像時刻、天候、他の手法を用いた路面不具合の解析結果(加速度の変化に基づく路面の凹凸の検出結果、他の画像解析プログラムによる路面不具合の解析結果)等を表示してもよい。 In addition, any information other than the above may be displayed on the presentation screen O1. For example, when the road surface failure marker O22 is selected, the failure analysis apparatus 30 may display various information such as a position, a road surface failure type, an imaging time, a route number, a road construction history, and the like regarding the road surface failure. . In addition, the failure analysis device 30 may display a numerical value such as the total number of road surface failures and the average of each road surface failure for each travel distance on the presentation screen O1. In addition, the failure analysis device 30 is provided with an imaging time, weather, road surface failure analysis results using other methods (road surface unevenness detection results based on acceleration changes, road surface failure analysis results from other image analysis programs), etc. May be displayed.
また、情報端末装置13、不具合解析装置30は、提示画面O1を介して、ユーザによる不具合情報の修正を受け付けてよい。例えば、ユーザにより路面不具合のマーカO22が選択された場合に、マーカO22の削除や路面不具合の種別の変更を受け付け可能としてよい。また、不具合解析装置30は、領域O3に表示されている路面画像と、当該路面画像内の領域とが選択された場合に、選択された領域及び路面画像と、その路面画像に対応する測位情報とに基づいて不具合情報を生成してもよい。そして、生成した不具合情報を、第1種不具合情報として、不具合情報管理装置50に記憶させてもよい。
以上が、不具合情報の提示についての説明である。
Moreover, the information terminal device 13 and the failure analysis device 30 may accept correction of the failure information by the user via the presentation screen O1. For example, when the road surface failure marker O22 is selected by the user, the deletion of the marker O22 or the change of the road surface failure type may be accepted. Further, when the road surface image displayed in the region O3 and the region in the road surface image are selected, the failure analysis apparatus 30 selects the selected region and the road surface image, and positioning information corresponding to the road surface image. The defect information may be generated based on the above. Then, the generated defect information may be stored in the defect information management apparatus 50 as the first type defect information.
The above is an explanation of presentation of defect information.
〔第1の実施形態のまとめ〕
以上説明したように、不具合解析装置30は、面(例えば、路面)を撮像した画像について、当該面の状態を示す教示データ(例えば、第1種不具合情報)に基づいて、深層学習を行う学習部366と、面を含む領域が撮像された画像(例えば、路面画像)であって、撮像された位置を示す位置情報(例えば、測位情報)と対応付けられた画像を取得する情報取得部361と、前記学習部366の学習結果に基づいて、前記情報取得部361が取得した画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、撮像された面について、各場所の状態を網羅的に解析することができる。
[Summary of First Embodiment]
As described above, the failure analysis apparatus 30 performs learning that performs deep learning on an image obtained by imaging a surface (for example, a road surface) based on teaching data (for example, first-type failure information) indicating the state of the surface. And an information acquisition unit 361 that acquires an image in which a region including a surface is captured (for example, a road surface image) and is associated with position information (for example, positioning information) indicating the captured position. And a recognizing unit 367 for determining the state of the surface in the image acquired by the information acquiring unit 361 based on the learning result of the learning unit 366.
Thereby, the malfunction analysis apparatus 30 can comprehensively analyze the state of each place about the imaged surface.
また、不具合解析装置30において、認識部367は、1つの画像から出力された複数の部分画像の各々の中の面の状態の判定結果を統合して、当該面の状態を判定する。
これにより、不具合解析装置30は、面の各場所の状態を、周囲の状態を参照して判定する。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, in the defect analysis device 30, the recognition unit 367 determines the state of the surface by integrating the determination results of the surface state in each of the plurality of partial images output from one image.
Thereby, the failure analysis apparatus 30 determines the state of each place on the surface with reference to the surrounding state. Therefore, the failure analysis apparatus 30 can improve the accuracy of determining the surface state.
また、不具合解析装置30において、認識部367は、情報取得部361が取得する、続けて撮像された複数の画像の各々の中の面の状態の判定結果を統合して、当該面の状態を判定する。
これにより、不具合解析装置30は、面の各場所の状態を、周囲の状態を参照して判定する。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
Further, in the defect analysis device 30, the recognition unit 367 integrates the determination results of the surface state in each of a plurality of subsequently captured images acquired by the information acquisition unit 361, and determines the state of the surface. judge.
Thereby, the failure analysis apparatus 30 determines the state of each place on the surface with reference to the surrounding state. Therefore, the failure analysis apparatus 30 can improve the accuracy of determining the surface state.
また、不具合解析装置30において、例えば、教示データ(例えば、第1種不具合情報)は、前記認識部367による判定結果を、ユーザからの入力又は他の装置による判定結果に基づいて確定させたデータである。
これにより、不具合解析装置30の判定結果の正当性をユーザが確認した場合、判定に用いられた画像を深層学習に用いることができる。不具合解析装置30は、例えば、判定結果が誤っている場合も、再学習を行うことができるため、より正しい判定結果を表示することができるようになる。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
In the failure analysis device 30, for example, teaching data (for example, first type failure information) is data obtained by determining the determination result by the recognition unit 367 based on the input from the user or the determination result by another device. It is.
Thereby, when the user confirms the validity of the determination result of the defect analysis device 30, the image used for the determination can be used for the deep learning. For example, even when the determination result is incorrect, the defect analysis device 30 can perform re-learning, so that a more correct determination result can be displayed. Therefore, the failure analysis apparatus 30 can improve the accuracy of determining the surface state.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(例えば、車両10)に搭載された撮像部11で続けて撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記移動体の移動情報(例えば、測位情報)に基づいて、前記続けて撮像された画像(例えば、路面画像)から第1画像を間引くことで、残りの第2画像(例えば、検査画像)を抽出する画像抽出部363と、前記第2画像の各々について、当該第2画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、移動体の移動に応じて面の状態を判定する画像の量を調整する。従って、不具合解析装置30は、面の状態の判定精度を維持しつつ、判定に要する負荷を低減することができる。
In addition, the failure analysis apparatus 30 continuously captures images with the imaging unit 11 mounted on a moving body (for example, the vehicle 10) that moves along a plane (for example, a road surface), and captures an area including the plane. Based on the information acquisition unit 361 that acquires the movement information (for example, positioning information) of the moving body, the first image is thinned out from the continuously captured image (for example, road surface image), thereby An image extraction unit 363 that extracts two images (for example, inspection images), and a recognition unit 367 that determines a state of a surface in the second image for each of the second images.
Thereby, the failure analysis apparatus 30 adjusts the amount of the image for determining the surface state according to the movement of the moving body. Therefore, the failure analysis apparatus 30 can reduce the load required for the determination while maintaining the accuracy of determining the surface state.
また、不具合解析装置30において、画像抽出部363は、前記移動体(例えば、車両10)の時間に対する移動距離に基づいて、前記第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30は、移動体の移動速度に応じて、面の状態を判定する画像の量を調整する。従って、不具合解析装置30は、面の状態の判定精度を維持しつつ、判定に要する負荷を低減することができる。
Further, in the failure analysis apparatus 30, the image extraction unit 363 extracts the second image (for example, an inspection image) based on the moving distance with respect to time of the moving body (for example, the vehicle 10).
Thereby, the malfunction analysis apparatus 30 adjusts the amount of the image for determining the surface state according to the moving speed of the moving body. Therefore, the failure analysis apparatus 30 can reduce the load required for the determination while maintaining the accuracy of determining the surface state.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(車両10)に搭載された撮像部11で続けて撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記情報取得部361が取得した画像の一部分である部分画像を複数出力する領域抽出部364と、前記領域抽出部364が出力した部分画像の各々について、当該部分画像中の面の状態を判定する認識部367と、を備える。
これにより、不具合解析装置30は、画像の一部から面の状態を判定するため、画像に判定精度の低下させる要素が写り込んでいた場合、その要素を排除して判定を行うことができる。従って、不具合解析装置30は、面の状態の判定精度を向上させることができる。
In addition, the failure analysis apparatus 30 obtains an image in which an image is captured continuously by the imaging unit 11 mounted on a moving body (vehicle 10) that moves along a surface (for example, a road surface) and an area including the surface is captured. Information acquisition unit 361, a region extraction unit 364 that outputs a plurality of partial images that are part of the image acquired by the information acquisition unit 361, and a partial image that is output by the region extraction unit 364. A recognizing unit 367 for determining the state of the surface.
Thereby, since the defect analysis apparatus 30 determines the state of the surface from a part of the image, when an element that decreases the determination accuracy is reflected in the image, the defect analysis apparatus 30 can perform the determination by removing the element. Therefore, the failure analysis apparatus 30 can improve the accuracy of determining the surface state.
また、不具合解析装置30において、領域抽出部364は、前記移動体(例えば、車両10)の進行方向に対して、手前の前記部分画像(例えば、図16における下側の検査領域A1)を、奥の前記部分画像(例えば、図16における中央部の検査領域A10)より多く出力する。
これにより、不具合解析装置30は、画像において、情報量の豊富な手前側に写る面の状態を重点的に判定する。また、画像の手前側には、移動体の近傍が写るため、面以外の物体が写り込みにくい。また、画像の手前側では、移動体の移動方向が変化した場合の撮像範囲の変化量が小さい。従って、不具合解析装置30は、面の状態の判定精度を向上させるとともに、判定に要する負荷を低減することができる。
Further, in the failure analysis device 30, the region extraction unit 364 displays the partial image in front (for example, the lower inspection region A1 in FIG. 16) with respect to the traveling direction of the moving body (for example, the vehicle 10). More than the partial image at the back (for example, the inspection area A10 at the center in FIG. 16) is output.
As a result, the failure analysis apparatus 30 preferentially determines the state of the surface that appears on the near side with a large amount of information in the image. In addition, since the vicinity of the moving object is captured on the near side of the image, it is difficult to capture an object other than the surface. In addition, on the near side of the image, the amount of change in the imaging range when the moving direction of the moving body changes is small. Therefore, the failure analysis device 30 can improve the determination accuracy of the surface state and reduce the load required for the determination.
また、不具合解析装置30において、領域抽出部364は、画像(例えば、検査画像)を分割し、分割された第1部分画像(例えば、図16における検査領域A1)と、前記第1部分画像の頂点部分又は辺部分を含む第2部分画像(例えば、図16における領域A5)と、を出力する。
これにより、不具合解析装置30は、1つの画像から複数の重複した部分画像を生成する。従って、不具合解析装置30は、部分画像の境界の面の状態の判定精度を向上させることができる。
In the defect analysis apparatus 30, the region extraction unit 364 divides an image (for example, an inspection image), and divides the divided first partial image (for example, the inspection region A1 in FIG. 16) and the first partial image. A second partial image (for example, region A5 in FIG. 16) including the vertex portion or the side portion is output.
Thereby, the failure analysis apparatus 30 generates a plurality of overlapping partial images from one image. Therefore, the failure analysis device 30 can improve the determination accuracy of the state of the boundary surface of the partial image.
また、不具合解析装置30は、面(例えば、路面)に沿って移動する移動体(例えば、車両10)に搭載された撮像部11で撮像され、当該面を含む領域が撮像された画像を取得する情報取得部361と、前記画像取得部が取得する画像の各々ついて、前記画像中の面の状態を示す状態情報(例えば、不具合情報)と、前記面の位置を示す位置情報(例えば、測位情報)と、を出力する認識部367と、地図上に、前記位置情報が示す位置に、当該位置の面の状態を示す状態情報と、当該面を含む画像と、を対応付けて表示する表示部32と、を備える。
これにより、ユーザは、地図を参照すれば、どの位置のどの面がどのような状態にあるのかを即座に把握することができる。つまり、不具合解析装置30は、面の状態を分かりやすく提示することができる。
In addition, the failure analysis apparatus 30 acquires an image captured by the imaging unit 11 mounted on a moving body (for example, the vehicle 10) that moves along a plane (for example, a road surface) and an area including the plane is captured. Information acquisition unit 361 that performs state information (for example, defect information) that indicates the state of the surface in the image, and position information that indicates the position of the surface (for example, positioning) Information), a display that displays the state information indicating the surface state of the position and the image including the surface in association with the position indicated by the position information on the map. Unit 32.
Thus, the user can immediately grasp which surface at which position is in what state by referring to the map. That is, the failure analysis device 30 can present the surface state in an easy-to-understand manner.
また、不具合解析装置30において、表示部32は、予め定めた範囲内(例えば、所定距離以内)に前記位置情報(例えば、不具合座標情報)が属する面(例えば、路面)であって、前記状態情報(例えば、不具合情報)が同一(例えば、路面不具合が存在)である複数の面については、当該複数の面を代表する代表位置に、当該状態情報を対応付けて表示する。
これにより、不具合解析装置30は、地図上に複数の状態情報が密集する場合であっても、代表位置を示すため、面の状態を分かりやすく提示することができる。
以上が、第1の実施形態についての説明である。
In the failure analysis apparatus 30, the display unit 32 is a surface (for example, road surface) to which the position information (for example, failure coordinate information) belongs within a predetermined range (for example, within a predetermined distance), and the state For a plurality of surfaces having the same information (for example, failure information) (for example, there is a road surface failure), the state information is displayed in association with a representative position representing the plurality of surfaces.
Thereby, even if it is a case where a plurality of state information is crowded on the map, the defect analysis device 30 can present the surface state in an easy-to-understand manner because the representative position is indicated.
The above is the description of the first embodiment.
[第2の実施形態]
第2の実施形態について説明する。ここでは、上述した各実施形態と同様の構成については、同一の符号を付し、説明を援用する。
〔不具合解析システム1Aの概要〕
本実施形態に係る不具合解析システム1A(不図示)は、第1の実施形態に係る不具合解析システム1と同様の構成を備える。ただし、不具合解析システム1Aは、画像抽出処理において、道路のカーブを検出する処理を行う点が異なる。カーブでは、車両の移動方向が変化する。カーブでは車両10の移動速度が一定であったとしても、路面画像の特に奥側の撮像範囲の変化が直線より大きくなる。そこで、カーブの度合いに応じて画像間の移動距離を補正する。これにより、路面不具合の解析精度を向上させることができるとともに、解析に要する処理の負荷を低減することができる。
[Second Embodiment]
A second embodiment will be described. Here, about the structure similar to each embodiment mentioned above, the same code | symbol is attached | subjected and description is used.
[Outline of defect analysis system 1A]
A failure analysis system 1A (not shown) according to the present embodiment has the same configuration as the failure analysis system 1 according to the first embodiment. However, the failure analysis system 1A is different in that it performs a process of detecting a road curve in the image extraction process. On the curve, the moving direction of the vehicle changes. Even if the moving speed of the vehicle 10 is constant on the curve, the change in the imaging range, particularly on the far side of the road surface image, is larger than the straight line. Therefore, the movement distance between images is corrected according to the degree of the curve. Thereby, it is possible to improve the analysis accuracy of road surface problems and reduce the processing load required for the analysis.
〔不具合解析システム1Aの構成〕
不具合解析システム1Aは、不具合解析システム1が備える不具合解析装置30に代えて、不具合解析装置30A(不図示)を備える。不具合解析装置30Aは、不具合解析装置30が備える画像抽出部363に代えて、画像抽出部363A(不図示)を備える。
画像抽出部363Aは、画像抽出部363と同様に画像抽出処理を行う。ただし、画像抽出部363Aは、画像間の移動距離を、道路のカーブに応じて補正する点が異なる。画像抽出部363Aは、カーブの度合いが大きい程(すなわち、カーブが急である程)、画像間の移動距離が大きくなるように補正し、カーブの度合いが小さい程(すなわち、カーブが緩やかである程)、画像間の移動距離が小さくなるように補正する。つまり、カーブの度合いが大きい程、少ない路面画像が間引かれ、カーブの度合いが小さい程、多くの路面画像が間引かれるようにする。これにより、カーブの度合いが大きい程、より多くの画像が抽出され、カーブの度合いが小さい程、より少ない画像が抽出されるようになる。
[Configuration of defect analysis system 1A]
The failure analysis system 1A includes a failure analysis device 30A (not shown) instead of the failure analysis device 30 included in the failure analysis system 1. The defect analysis apparatus 30A includes an image extraction unit 363A (not shown) instead of the image extraction unit 363 included in the defect analysis apparatus 30.
The image extraction unit 363A performs image extraction processing in the same manner as the image extraction unit 363. However, the image extracting unit 363A is different in that the moving distance between images is corrected according to the road curve. The image extraction unit 363A corrects the moving distance between images to be larger as the degree of the curve is larger (that is, as the curve is steeper), and as the degree of the curve is smaller (that is, the curve is gentler). The correction is made so that the moving distance between the images becomes small. That is, the smaller the degree of the curve, the thinner the road image, and the smaller the degree of the curve, the more the road image is thinned out. As a result, more images are extracted as the degree of the curve is larger, and fewer images are extracted as the degree of the curve is smaller.
ここで、2種類のカーブの解析手法について説明する。
まず、第1のカーブ解析手法について説明する。
図18は、第1のカーブ解析手法の概要を示す図である。
図18に示す例では、道路R10上に8つの測位点m1〜m8が存在する。道路R10は、概ね位置m4〜m7に渡り、カーブしている。
第1のカーブ解析手法では、連続した3点の測位情報から傾き度合いを計測する。例えば、測位点m5におけるカーブを解析する場合、測位点m4から測位点m5への移動方向v4と、測位点m5から測位点m6への移動方向v5とを算出する。そして、2つの移動方向v4、v5のなす角度θを算出する。これにより、画像抽出部363Aは、カーブの度合いを示す角度θを算出することができる。
Here, two types of curve analysis methods will be described.
First, the first curve analysis method will be described.
FIG. 18 is a diagram showing an outline of the first curve analysis method.
In the example shown in FIG. 18, there are eight positioning points m1 to m8 on the road R10. The road R10 is curved over the positions m4 to m7.
In the first curve analysis method, the inclination degree is measured from three consecutive positioning information. For example, when analyzing a curve at the positioning point m5, a moving direction v4 from the positioning point m4 to the positioning point m5 and a moving direction v5 from the positioning point m5 to the positioning point m6 are calculated. Then, the angle θ formed by the two movement directions v4 and v5 is calculated. Accordingly, the image extraction unit 363A can calculate the angle θ indicating the degree of the curve.
次に、第2のカーブ解析手法について説明する。
図19は、第2のカーブ解析手法の概要を示す図である。
図19に示す例では、図18に示す例と同様に、道路R10上に8つの測位点m1〜m8が存在する。
第2のカーブ解析手法では、所定期間内に測定された位置間の距離の総和と、所定期間の最初と最後とで測定された位置の距離とを比較することにカーブの度合いを算出する。例えば、測位点m2の測定開始から所定期間内に特定された測位点が、測位点m3〜m7である場合、画像抽出部363は、測位点m2〜m3、m3〜m4、m4〜m5、m5〜m6、m6〜m7間のそれぞれの距離の総和L1を算出する。また、画像抽出部363Aは、測位点m2〜m7間の直線距離L2を算出する。画像抽出部363Aは、距離L1と距離L2とを比較することによりカーブの度合いを特定することができる。例えば、距離L1に比して距離L2が短い程、カーブの度合いが大きい。また、距離L1と距離L2が同程度であれば、カーブの度合いが小さい。
Next, the second curve analysis method will be described.
FIG. 19 is a diagram showing an outline of the second curve analysis method.
In the example shown in FIG. 19, as in the example shown in FIG. 18, there are eight positioning points m1 to m8 on the road R10.
In the second curve analysis method, the degree of curve is calculated by comparing the total distance between positions measured within a predetermined period with the distance between positions measured at the beginning and end of the predetermined period. For example, when the positioning points specified within a predetermined period from the measurement start of the positioning point m2 are the positioning points m3 to m7, the image extraction unit 363 determines the positioning points m2 to m3, m3 to m4, m4 to m5, m5. The total sum L1 of the distances between m6 and m6 to m7 is calculated. Further, the image extraction unit 363A calculates a linear distance L2 between the positioning points m2 to m7. The image extraction unit 363A can specify the degree of the curve by comparing the distance L1 and the distance L2. For example, the shorter the distance L2 compared to the distance L1, the greater the degree of curve. If the distance L1 and the distance L2 are approximately the same, the degree of the curve is small.
上記の第1のカーブ解析手法では、右折と左折とを判断することができる。
上記の第2のカーブ解析手法では、距離の算出及び距離の比較しか行わないため、処理に要する負荷を低減することができる。
以上が、不具合解析システム1Aの構成についての説明である。
In the first curve analysis method described above, it is possible to determine a right turn and a left turn.
In the second curve analysis method described above, only calculation of distance and comparison of distance are performed, so that the load required for processing can be reduced.
The above is the description of the configuration of the failure analysis system 1A.
〔不具合解析装置30Aの動作〕
次に、不具合解析装置30Aの動作について説明する。ここでは、画像抽出処理における動作について説明する。
図20は、不具合解析装置30Aによる画像抽出処理の流れを示すフローチャートである。
図20に示すステップS200、S202、S204〜S216の処理は、図14に示す処理と同様であるため、説明を援用する。
[Operation of Failure Analysis Device 30A]
Next, the operation of the failure analysis apparatus 30A will be described. Here, the operation in the image extraction process will be described.
FIG. 20 is a flowchart showing the flow of image extraction processing performed by the failure analysis apparatus 30A.
The processes in steps S200, S202, and S204 to S216 shown in FIG. 20 are the same as the processes shown in FIG.
(ステップS203A)ステップS202の処理の後、画像抽出部363Aは、カーブの度合いを算出する。そして、画像抽出部363Aは、カーブの度合いに応じて、画像間の移動距離を補正する。その後、制御部360は、ステップS204に処理を進める。
なお、ここでは、画像間の移動距離を補正する場合について説明したが、画像間の移動距離の代わりに設定距離を補正してもよい。また、距離の補正は、任意の方法により行われてよい。例えば、カーブの度合いごとの補正量を予め設定し、この補正量に基づいて距離の補正が行われてもよいし、カーブの度合いを示すパラメータを含む関数により補正が行われてもよい。
以上が、不具合解析装置30Aの動作についての説明である。
(Step S203A) After the process of step S202, the image extraction unit 363A calculates the degree of the curve. Then, the image extraction unit 363A corrects the moving distance between the images according to the degree of the curve. Thereafter, the control unit 360 advances the process to step S204.
Although the case where the movement distance between images is corrected has been described here, the set distance may be corrected instead of the movement distance between images. Further, the correction of the distance may be performed by an arbitrary method. For example, a correction amount for each degree of the curve may be set in advance, and the distance may be corrected based on the correction amount, or may be corrected by a function including a parameter indicating the degree of the curve.
The above is the description of the operation of the failure analysis apparatus 30A.
〔第2の実施形態のまとめ〕
以上説明したように、不具合解析装置30Aは、移動体(例えば、車両10)の移動方向の変化量(例えば、カーブの度合い)に基づいて、第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30Aは、例えば移動体の移動方向の変化量に応じて第2画像の抽出量を変化させる。つまり、画像の撮像範囲の変化に応じて第2画像の抽出量を変化させる。従って、移動体の移動方向が一定でない場合であっても、面の状態の判定に必要十分な第2画像を抽出することができる。
[Summary of Second Embodiment]
As described above, the failure analysis apparatus 30A extracts the second image (for example, an inspection image) based on the amount of change (for example, the degree of the curve) in the moving direction of the moving body (for example, the vehicle 10).
Thereby, the malfunction analysis device 30A changes the extraction amount of the second image in accordance with, for example, the change amount of the moving direction of the moving body. That is, the extraction amount of the second image is changed in accordance with the change in the imaging range of the image. Therefore, even when the moving direction of the moving body is not constant, the second image necessary and sufficient for determining the surface state can be extracted.
また、移動体(例えば、車両10)の移動方向の変化量(例えば、カーブの度合い)が大きい場合に、前記移動体の移動方向の変化量が小さい場合と比較して多くの第2画像(例えば、検査画像)を抽出する。
これにより、不具合解析装置30Aは、移動体の移動方向が一定でない場合であっても、面の状態の判定に必要十分な第2画像を抽出することができる。
以上が、第2の実施形態についての説明である。
In addition, when the amount of change in the moving direction (for example, the degree of the curve) of the moving body (for example, the vehicle 10) is large, more second images ( For example, an inspection image) is extracted.
Thereby, even if it is a case where the moving direction of a moving body is not constant, malfunction analysis apparatus 30A can extract the 2nd image sufficient and sufficient for determination of the state of a surface.
The above is the description of the second embodiment.
[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1〜2の実施形態において説明した各構成は、任意に組み合わせることができる。また、例えば、上述の第1〜2の実施形態において説明した各構成は、特定の機能を発揮するのに不要である場合には、省略することができる。また、例えば、上述の第1〜2の実施形態において説明した各構成は、任意に分離して別体の装置に備えることができる。
[Modification]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiment, and includes a design and the like within a scope not departing from the gist of the present invention. For example, the configurations described in the first and second embodiments described above can be arbitrarily combined. In addition, for example, each configuration described in the first and second embodiments described above can be omitted if it is not necessary to exhibit a specific function. Further, for example, each configuration described in the first and second embodiments described above can be arbitrarily separated and provided in a separate device.
なお、情報端末装置13は、車両10に搭載されず、ユーザにより携行されてもよい。そして、ユーザが車両10の内外で発見した路面不具合に関する不具合情報を、情報端末装置13において生成してもよい。例えば、ユーザによる「ひび割れ」という音声入力に応じて静止画像の撮像を行い、撮像した静止画像に路面不具合種別として「ひび割れ」を対応付けた不具合情報を生成してもよい。この場合、情報端末装置13が生成した不具合情報を、第1種不具合情報として、不具合情報管理装置50に記憶させてもよい。或いは、ユーザによる「ひび割れ」という音声入力に応じて撮像中の路面画像にフラグ情報を対応付けてもよい。このフラグ情報とは、ユーザによる路面不具合の確認結果を示す情報である。不具合解析装置30は、フラグ情報が対応付けられた路面画像を、画像抽出処理において検出画像として優先的に抽出するようにしたり、領域抽出処理において抽出する検査領域の数を増やしたりして、手厚く解析するようにしてもよい。これにより、不具合解析システム1、1Aは、路面不具合の検出漏れを防ぎ、路面不具合の認識精度を向上させることができる。 Note that the information terminal device 13 may be carried by the user without being mounted on the vehicle 10. Then, the information terminal device 13 may generate defect information related to road surface defects discovered by the user inside and outside the vehicle 10. For example, a still image may be captured in response to a voice input “crack” by the user, and defect information in which “crack” is associated with the captured still image as a road surface defect type may be generated. In this case, the defect information generated by the information terminal device 13 may be stored in the defect information management device 50 as the first type defect information. Alternatively, flag information may be associated with the road surface image being captured in response to a voice input “crack” by the user. This flag information is information indicating the confirmation result of road surface problems by the user. The failure analysis device 30 is thickened by preferentially extracting the road surface image associated with the flag information as a detected image in the image extraction process or increasing the number of inspection areas to be extracted in the area extraction process. You may make it analyze. As a result, the failure analysis systems 1 and 1A can prevent a road surface failure from being detected and improve the recognition accuracy of the road surface failure.
なお、撮像部11や測位部12は、撮像や測位を支援する機能を搭載してもよい。例えば、撮像部11の設置環境が整ったり、GPSの電波が受信できて測位可能となったりした場合等に撮像や測位を行えるようになったことを通知するようにしてもよい。 Note that the imaging unit 11 and the positioning unit 12 may be equipped with a function that supports imaging and positioning. For example, it may be notified that imaging or positioning can be performed when the installation environment of the imaging unit 11 is prepared or GPS radio waves can be received and positioning becomes possible.
なお、情報端末装置13は、自装置の移動と同期して、不具合情報をユーザに提示してもよい。例えば、図17に示す車両10のマーカO21を、自装置の位置と同期させてよい。また、自装置がマーカO22の近傍に位置した場合に、近傍に路面不具合が存在することをユーザに通知してもよい。これにより、ユーザは、自身の近傍に位置する路面不具合を確認することができる。ユーザは、例えば、情報端末装置13を携行して車両を運転することにより、過去に検出された路面不具合を容易に確認することができる。従って、不具合解析システム1、1Aは、路面不具合の位置や進行状況を容易に再確認可能としたり、路面不具合の危険性を通知したりすることができる。 The information terminal device 13 may present the defect information to the user in synchronization with the movement of the own device. For example, the marker O21 of the vehicle 10 shown in FIG. 17 may be synchronized with the position of the own device. Further, when the own apparatus is located in the vicinity of the marker O22, the user may be notified that a road surface problem exists in the vicinity. Thereby, the user can confirm a road surface problem located in the vicinity of the user. For example, the user can easily check road surface problems detected in the past by carrying the information terminal device 13 and driving the vehicle. Therefore, the failure analysis systems 1 and 1A can easily reconfirm the position and progress of the road surface failure, and can notify the danger of the road surface failure.
このように、情報端末装置13は、不具合解析装置30からの出力に基づいて、移動体(例えば、路面画像の撮像時とは異なる車両)の位置に基づいて、前記面(例えば、路面)を含む画像を表示する。
これにより、情報端末装置13は、例えば、移動体の近傍の面の画像を提示するため、移動体で移動中のユーザに、面の状態を分かりやすく提示することができる。
As described above, the information terminal device 13 determines the surface (for example, the road surface) based on the position of the moving body (for example, a vehicle different from that at the time of capturing the road surface image) based on the output from the failure analysis device 30. Display the image that contains it.
Thereby, since the information terminal device 13 presents an image of a surface in the vicinity of the moving body, for example, the state of the surface can be presented in an easy-to-understand manner to a user who is moving on the moving body.
また、情報端末装置13は、不具合解析装置30からの出力に基づいて、移動体(例えば、路面画像の撮像時とは異なる車両))の位置と前記位置情報(例えば、測位情報)とに基づいて、当該位置情報に対応する状態情報を表示する。
これにより、情報端末装置13は、例えば、移動体の近傍の面の状態を提示するため、移動体で移動中のユーザに、面の状態を分かりやすく提示することができる。
Further, the information terminal device 13 is based on the position of the moving body (for example, a vehicle different from that at the time of capturing the road surface image) and the position information (for example, positioning information) based on the output from the failure analysis device 30. Status information corresponding to the position information is displayed.
Thereby, since the information terminal device 13 presents the state of the surface in the vicinity of the moving body, for example, the state of the surface can be easily presented to the user who is moving on the moving body.
なお、不具合解析装置30、30Aは、上記した以外の物体や不具合を認識するように予め機械学習を行っていてもよい。例えば、不具合解析装置30はマンホール、トンネル壁面損傷、道路落下物、路面のオイル染み、ガードレール損傷、電柱損傷、道路の落書き、道路標識、区画線のかすれ、積雪、冠水、側溝の破損等を認識するようにしてもよい。また、認識する項目について、その度合いを認識するようにしてよい。 Note that the defect analysis devices 30 and 30A may perform machine learning in advance so as to recognize objects and defects other than those described above. For example, the failure analysis device 30 recognizes manholes, tunnel wall damage, road fallen objects, road oil stains, guardrail damage, telephone pole damage, road graffiti, road signs, lane markings, snow, flooding, gutter breakage, etc. You may make it do. Moreover, you may make it recognize the degree about the item to recognize.
なお、不具合解析装置30、30Aは、複数の撮像部11により撮像された路面画像を統合して路面の状態を判定してもよい。例えば、複数台の車両10が道路を並走し、各車両に搭載された撮像部11は、それぞれ路面画像を撮像する。また、各車両10に搭載された測位部12は、それぞれ測位を行う。不具合解析装置30、30Aは、このようにして撮像された複数の路面画像を、例えば、各フレームの撮像時刻に基づいて並び替え、再構成する。そして、不具合解析装置3030、30Aは、再構成した路面画像について、路面の状態を判定してよい。 The failure analysis devices 30 and 30A may determine the road surface state by integrating road surface images captured by the plurality of imaging units 11. For example, a plurality of vehicles 10 run in parallel on a road, and the imaging unit 11 mounted on each vehicle captures a road surface image. Moreover, the positioning part 12 mounted in each vehicle 10 performs positioning, respectively. The failure analysis devices 30 and 30A rearrange and reconstruct the plurality of road surface images thus imaged based on the imaging time of each frame, for example. Then, the failure analysis devices 3030 and 30A may determine the road surface state for the reconstructed road surface image.
なお、不具合解析装置30、30Aは、領域抽出処理において、検査領域以外を除外する(間引く)処理を行ってもよい。
図21は、領域抽出処理の別例を示す図である。
図21に示す例では、検査画像P8から、領域A21を間引き、残りの台形型の領域を検査領域としている。領域A21は、撮像画像への路面の写り方に応じて予め定められてよい。このように、不具合解析装置30、30Aは、検査領域としない領域を定めてもよい。
The defect analysis devices 30 and 30A may perform a process of excluding (thinning out) areas other than the inspection area in the area extraction process.
FIG. 21 is a diagram illustrating another example of the region extraction processing.
In the example shown in FIG. 21, the area A21 is thinned out from the inspection image P8, and the remaining trapezoidal area is set as the inspection area. The area A21 may be determined in advance according to how the road surface is reflected in the captured image. As described above, the defect analysis devices 30 and 30A may define a region that is not an inspection region.
また、上述した実施形態において、領域抽出処理では、大きさが同じ複数の検査領域を抽出する場合について説明したが、これには限らない。例えば、路面画像において、奥行側、すなわち遠方の部分については、検査領域を小さく設定し、手前側、すなわち近傍の部分については、検査領域を大きく設定してよい。例えば、図16に示す例では、領域A1〜A4の大きさに比して、領域A10の大きさを小さく設定してよい。これにより、路面画像の奥行側において、複数の路面不具合が1つの検出領域に含まれたり、路面不具合以外の物体が検出領域に含まれたりすることを抑制することができる。 In the above-described embodiment, the case of extracting a plurality of inspection regions having the same size has been described in the region extraction processing. However, the present invention is not limited to this. For example, in the road surface image, the inspection area may be set small for the depth side, that is, a distant part, and the inspection area may be set large for the near side, that is, a vicinity part. For example, in the example shown in FIG. 16, the size of the region A10 may be set smaller than the size of the regions A1 to A4. Thereby, on the depth side of the road surface image, it is possible to prevent a plurality of road surface defects from being included in one detection region or an object other than a road surface failure from being included in the detection region.
また、上述した実施形態において、領域抽出処理では、複数の検査領域を重複させて抽出する場合について説明したが、これには限らない。各検査領域は、重複しないように抽出されてもよい。また、不具合解析装置30、30Aは、検査画像の全ての部分を網羅するように、検査領域を抽出してもよい。 In the above-described embodiment, the case of extracting a plurality of inspection regions in the region extraction process has been described. However, the present invention is not limited to this. Each inspection area may be extracted so as not to overlap. Further, the defect analysis devices 30 and 30A may extract the inspection region so as to cover all the portions of the inspection image.
また、領域抽出処理において、検査領域は、固定でなくてもよい。不具合解析装置30、30Aは、例えば、移動方向の変化に応じて検査領域の位置や数を変化させてもよい。不具合解析装置30、30Aは、例えば、右折の場合には検査画像の右側に、より多くの検査領域を設定し、左折の場合には検査画像の左側に、より多くの検査領域を設定してもよい。また、不具合解析装置30、30Aは、例えば、移動方向の変化量に応じて検査領域の位置や数を変化させてもよい。例えば、カーブの度合いが大きい場合には、検査画像の手前側に、より多くの検査領域を設定してもよい。 In the area extraction process, the inspection area may not be fixed. For example, the defect analysis devices 30 and 30A may change the position and number of inspection regions in accordance with a change in the movement direction. The defect analysis devices 30 and 30A set, for example, more inspection areas on the right side of the inspection image in the case of a right turn, and set more inspection areas on the left side of the inspection image in the case of a left turn. Also good. In addition, the defect analysis devices 30 and 30A may change the position and number of inspection regions according to the amount of change in the movement direction, for example. For example, when the degree of the curve is large, more inspection regions may be set on the front side of the inspection image.
また、不具合解析装置30、30Aは、検査領域について、解析不能であるという解析結果を出力してもよい。不具合解析装置30、30Aは、例えば、検査領域に路面が写っていない場合、影の影響により検査領域が不明瞭であった場合、積雪がある場合、冠水がある場合に、解析不能であるという解析結果を、その理由とともに出力してよい。 In addition, the failure analysis devices 30 and 30A may output an analysis result indicating that the inspection area cannot be analyzed. For example, when the road surface is not reflected in the inspection area, the inspection area is unclear due to the influence of shadows, there is snow, or there is flooding, the failure analysis apparatuses 30 and 30A are incapable of analysis. The analysis result may be output together with the reason.
なお、上述した実施形態では、不具合解析用人工知能を用いて路面不具合を検出する態様について説明したが、これには限らない。不具合解析装置30、30Aは、例えば、画像特徴量を抽出して、路面不具合を解析してもよい。また、不具合解析装置30、30Aは、例えば、サポートベクターマシンやクラスタリング等の手法を用いて路面不具合を解析してもよい。 In addition, although embodiment mentioned above demonstrated the aspect which detects a road surface malfunction using the artificial intelligence for malfunction analysis, it is not restricted to this. For example, the failure analysis apparatuses 30 and 30A may extract an image feature amount and analyze a road surface failure. In addition, the failure analysis devices 30 and 30A may analyze the road surface failure using a technique such as a support vector machine or clustering, for example.
なお、不具合情報の提示態様は、上述したものに限られない。不具合解析装置30、30Aは、例えば、異なる時期に撮像された路面画像の解析し、路面不具合が増えた箇所のみを提示するようにしてもよい。
なお、一度に撮像された一連の路面画像の解析範囲は、ユーザからの入力により定められてよい。不具合解析装置30、30Aは、例えば、解析するフレームの範囲を時間指定により受け付けてもよいし、場所の指定により受け付けてもよい。不具合解析装置30、30Aは、場所の指定を受け付ける場合、指定された場所の座標と、路面画像に対応付けられている測位情報とを参照して解析範囲を定めてよい。
In addition, the presentation aspect of defect information is not restricted to what was mentioned above. The failure analysis devices 30 and 30A may analyze, for example, road surface images taken at different times and present only locations where road surface failures have increased.
Note that the analysis range of a series of road surface images captured at a time may be determined by input from the user. For example, the defect analysis devices 30 and 30A may accept a range of frames to be analyzed by specifying a time or by specifying a location. When receiving the designation of the place, the failure analysis apparatuses 30 and 30A may determine the analysis range with reference to the coordinates of the designated place and the positioning information associated with the road surface image.
なお、測位情報は、任意の手法により、精度の向上が図られてよい。例えば、不具合解析装置30、30Aは、GPSによりドップラー方式で測定された速度情報やODB2等により得られる速度情報を用いることにより、GPSによる測位結果に誤差があった場合でも、速度情報に基づいて移動距離を修正して測位精度を向上させることができる。また、例えば、不具合解析装置30、30Aは、道路の情報やユーザから入力された走行経路の情報等を用いて測位精度を向上させてよい。 The positioning information may be improved in accuracy by any method. For example, the defect analysis devices 30 and 30A can use speed information measured by GPS by the Doppler method or speed information obtained by ODB2 or the like, so that even if there is an error in the positioning result by GPS, based on the speed information. It is possible to improve the positioning accuracy by correcting the moving distance. Further, for example, the failure analysis devices 30 and 30A may improve positioning accuracy using road information, travel route information input by the user, and the like.
なお、撮像部11は、任意の態様により車両10に搭載されてよい。
撮像部11は、車内に設置されてもよいし、車外に設置されてもよい。また、撮像部11は、車両の前方を撮像するように設置されてもよいし、後方を撮像するように設置されてもよい。また、撮像部11は、ユーザが身に着ける等、ユーザが携行してもよい。
Note that the imaging unit 11 may be mounted on the vehicle 10 in any manner.
The imaging unit 11 may be installed inside the vehicle or may be installed outside the vehicle. The imaging unit 11 may be installed so as to capture the front of the vehicle, or may be installed so as to capture the rear. The imaging unit 11 may be carried by the user, such as worn by the user.
また、上述の情報端末装置13、不具合解析装置30、不具合情報管理装置50、地図情報管理装置90の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより情報端末装置13、不具合解析装置30、不具合情報管理装置50、地図情報管理装置90としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, a program for realizing the functions of the information terminal device 13, the failure analysis device 30, the failure information management device 50, and the map information management device 90 described above is recorded on a computer-readable recording medium and recorded on this recording medium. The processing as the information terminal device 13, the failure analysis device 30, the failure information management device 50, and the map information management device 90 may be performed by causing the computer system to read and execute the program. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device. Note that the program may be divided into a plurality of parts, downloaded at different timings, and combined in the terminal device, or the distribution server that distributes each of the divided programs may be different. Furthermore, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1、1A…不具合解析システム、10…車両、11…撮像部、12…測位部、13…情報端末装置、30、30A…不具合解析装置、31…入力部、32…表示部、33…音声再生部、34…通信部、35…記憶部、351…学習結果記憶部、360…制御部、361…情報取得部、362…画像変換部、363、363A…画像抽出部、364…領域抽出部、365…解析部、366…学習部、367…認識部、368…結果生成部、369…結果編集部、50…不具合情報管理装置、51…第1種不具合情報記憶部、52…第2種不具合情報記憶部、70…台帳情報管理装置、71…台帳情報記憶部、90…地図情報管理装置、91…地図情報記憶部 DESCRIPTION OF SYMBOLS 1, 1A ... Defect analysis system, 10 ... Vehicle, 11 ... Imaging part, 12 ... Positioning part, 13 ... Information terminal device, 30, 30A ... Defect analysis apparatus, 31 ... Input part, 32 ... Display part, 33 ... Sound reproduction 34, communication unit, 35 ... storage unit, 351 ... learning result storage unit, 360 ... control unit, 361 ... information acquisition unit, 362 ... image conversion unit, 363, 363A ... image extraction unit, 364 ... region extraction unit, 365 ... analyzing unit, 366 ... learning unit, 367 ... recognizing unit, 368 ... result generating unit, 369 ... result editing unit, 50 ... defect information management device, 51 ... first type defect information storage unit, 52 ... second type defect Information storage unit, 70 ... ledger information management device, 71 ... ledger information storage unit, 90 ... map information management device, 91 ... map information storage unit
Claims (6)
前記画像取得部が取得する画像の各々について、前記画像中の前記表面の状態を示す状態情報と、前記表面の位置を示す位置情報と、を対応付けた情報を生成する状態判定部と、
地図上に、前記位置情報が示す位置に、当該位置の前記表面の状態を示す状態情報と、当該表面を含む画像と、を対応付けて表示する表示部と、
を備え、
前記表示部は、前記地図上の位置が指定された場合、
第1領域において、当該地図上の位置に連携した動画像であって前記画像取得部が取得した画像に基づく動画像を表示し、
第2領域において、前記第1領域に表示される前記動画像中のフレームであって、前記表面の不具合が検出されたフレームに基づく画像を、複数、並べて表示する、
情報処理装置。 By the imaging device mounted on the moving body that moves along the front surface of a building, an image acquisition unit that area including the table surface to obtain an image captured,
For each of the images acquired the image acquisition unit, and status information indicating the status of the table surface in the image, and position information indicating a position of the table surface, and a state determining unit that generates information that associates ,
On the map, the position where the position information indicates, and status information indicating the status of the table surface of the position, and a display unit for displaying in association with an image including the table surface,
Equipped with a,
When the position on the map is specified, the display unit,
In the first area, a moving image linked to a position on the map is displayed based on the image acquired by the image acquisition unit,
In the second region, a plurality of images based on the frames in the moving image displayed in the first region and having the surface defect detected are displayed side by side.
Information processing device.
請求項1に記載の情報処理装置。 The display unit displays an image in which at least a part of a region other than the surface is excluded in the frame as an image based on the frame;
The information processing apparatus according to claim 1.
請求項1又は請求項2に記載の情報処理装置。 The display unit displays the moving image with the frame adjusted so that the same part of the surface is included at a predetermined frequency .
The information processing apparatus according to claim 1 or 2.
画像と当該画像中の建造物の表面の状態を示す状態情報とを用いた機械学習の結果である学習済モデルに基づいて、前記画像取得部が取得する画像の各々について、当該画像中の前記表面の状態を判定し、当該状態を示す状態情報と、前記表面の位置を示す位置情報と、を対応付けた情報を生成する状態判定部と、
地図上に、前記位置情報が示す位置に、当該位置の前記表面の状態を示す状態情報と、当該表面を含む画像と、を対応付けて表示する表示部と、
前記表示部に表示された前記画像と対応付けた前記状態情報についてユーザによる変更が入力された場合に、当該画像と変更された前記状態情報を用いて前記機械学習を行う学習部と、
を備える情報処理システム。 By the imaging device mounted on the moving body that moves along the front surface of a building, an image acquisition unit that area including the table surface to obtain an image captured,
Based on a learned model that is a result of machine learning using an image and state information indicating the state of the surface of a building in the image, for each of the images acquired by the image acquisition unit, the image in the image determines the state of the front surface, and a state determining unit that generates the status information indicating the status, the information that associates the position information indicating the position of the table surface,
On the map, the position where the position information indicates, and status information indicating the status of the table surface of the position, and a display unit for displaying in association with an image including the table surface,
A learning unit that performs the machine learning using the state information changed with the image when the user inputs a change about the state information associated with the image displayed on the display unit;
An information processing system comprising:
建造物の表面に沿って移動する移動体に搭載された撮像装置で撮像され、当該表面を含む領域が撮像された画像を取得する第1ステップと、
前記第1ステップにおいて取得された画像の各々について、前記画像中の前記表面の状態を示す状態情報と、前記表面の位置を示す位置情報と、を対応付けた情報を生成する第2ステップと、
地図上に、前記位置情報が示す位置に、当該位置の前記表面の状態を示す状態情報と、当該表面を含む画像と、を対応付けて表示部に表示する第3ステップと、
前記地図上の位置が指定された場合、第1領域において、当該地図上の位置に連携した動画像であって前記第1ステップで取得した画像に基づく動画像を表示し、第2領域において、前記第1領域に表示される前記動画像中のフレームであって、前記表面の不具合が検出されたフレームに基づく画像を、複数、並べて表示する第4ステップと、
を含む情報処理方法。 Information processing device
By the imaging device mounted on the moving body that moves along the front surface of a building, comprising: a first step of a region including the table surface to obtain an image captured,
For each of images obtained in the first step, a second step of generating a status information indicating the status of the table surface in the image, information that associates the position information indicating a position of the table surface When,
On the map, the position where the position information indicates, and status information indicating the status of the table surface of the position, and a third step of displaying on the display unit in association with the image, the including the table surface,
When the position on the map is designated, in the first area, a moving image linked to the position on the map and based on the image acquired in the first step is displayed, and in the second area, A fourth step of displaying a plurality of images based on the frames in the moving image displayed in the first region, the frames having the surface defect detected;
An information processing method including:
建造物の表面に沿って移動する移動体に搭載された撮像装置で撮像され、当該表面を含む領域が撮像された画像を取得する第1ステップと、
前記第1ステップにおいて取得された画像の各々について、前記画像中の前記表面の状態を示す状態情報と、前記表面の位置を示す位置情報と、を対応付けた情報を生成する第2ステップと、
地図上に、前記位置情報が示す位置に、当該位置の前記表面の状態を示す状態情報と、当該表面を含む画像と、を対応付けて表示部に表示する第3ステップと、
前記地図上の位置が指定された場合、第1領域において、当該地図上の位置に連携した動画像であって前記第1ステップで取得した画像に基づく動画像を表示し、第2領域において、前記第1領域に表示される前記動画像中のフレームであって、前記表面の不具合が検出されたフレームに基づく画像を、複数、並べて表示する第4ステップと、
を実行させるためのプログラム。 On the computer,
By the imaging device mounted on the moving body that moves along the front surface of a building, comprising: a first step of a region including the table surface to obtain an image captured,
For each of images obtained in the first step, a second step of generating a status information indicating the status of the table surface in the image, information that associates the position information indicating a position of the table surface When,
On the map, the position where the position information indicates, and status information indicating the status of the table surface of the position, and a third step of displaying on the display unit in association with the image, the including the table surface,
When the position on the map is designated, in the first area, a moving image linked to the position on the map and based on the image acquired in the first step is displayed, and in the second area, A fourth step of displaying a plurality of images based on the frames in the moving image displayed in the first region, the frames having the surface defect detected;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016150720A JP6615065B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016150720A JP6615065B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018017102A JP2018017102A (en) | 2018-02-01 |
JP6615065B2 true JP6615065B2 (en) | 2019-12-04 |
Family
ID=61076023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016150720A Active JP6615065B2 (en) | 2016-07-29 | 2016-07-29 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6615065B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020021465A (en) * | 2018-07-18 | 2020-02-06 | エヌ・ティ・ティ・コムウェア株式会社 | Inspection system and inspection method |
JP7280119B2 (en) * | 2019-06-03 | 2023-05-23 | 古河電気工業株式会社 | Support information creation device, support information creation system, support information creation method, and support information creation program |
CN110378878B (en) * | 2019-06-24 | 2022-03-11 | 达闼机器人有限公司 | Method and device for detecting aircraft air inlet and storage medium |
JP6795065B1 (en) | 2019-08-27 | 2020-12-02 | トヨタ自動車株式会社 | Display processing device, display processing method, program |
JP6795064B1 (en) * | 2019-08-27 | 2020-12-02 | トヨタ自動車株式会社 | Display processing device, display processing method, program |
US20230260338A1 (en) * | 2020-07-06 | 2023-08-17 | Nec Corporation | Deterioration diagnosis system, deterioration diagnosis device, deterioration diagnosis method, and recording medium |
JP7036181B2 (en) * | 2020-11-11 | 2022-03-15 | トヨタ自動車株式会社 | Display processing device, display processing method, program |
WO2023067717A1 (en) * | 2021-10-20 | 2023-04-27 | 日本電気株式会社 | Facility inspection display device, information processing device, facility inspection display method, and non-transitory computer-readable medium |
JP7440855B1 (en) | 2023-01-26 | 2024-02-29 | ナカシャ クリエイテブ株式会社 | Inspection support system, photographing position identification system, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194983A (en) * | 1998-12-28 | 2000-07-14 | Nichireki Co Ltd | Road surface and roadside photographing vehicle |
JP4305361B2 (en) * | 2004-10-15 | 2009-07-29 | 株式会社日立製作所 | Road management system |
JP4814655B2 (en) * | 2006-03-02 | 2011-11-16 | 富士通株式会社 | Road surface state determination device and road surface state determination method |
JP6119097B2 (en) * | 2011-12-28 | 2017-04-26 | 富士通株式会社 | Road surface inspection program and road surface inspection device |
GB2510833B (en) * | 2013-02-13 | 2017-02-22 | Wdm Ltd | A road marking analyser and a method of analysing of road markings |
-
2016
- 2016-07-29 JP JP2016150720A patent/JP6615065B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018017102A (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6713368B2 (en) | Information processing device, display device, information processing method, and program | |
JP6615065B2 (en) | Information processing apparatus, information processing method, and program | |
JP6615066B2 (en) | Information processing apparatus, information processing method, and program | |
JP7155321B2 (en) | Crack analysis data editing device, crack analysis data editing method, and crack analysis data editing program | |
US20200042800A1 (en) | Image acquiring system, terminal, image acquiring method, and image acquiring program | |
JP6647171B2 (en) | Information processing apparatus, information processing method, and program | |
JP6904614B2 (en) | Object detection device, prediction model creation device, object detection method and program | |
JP6826421B2 (en) | Equipment patrol system and equipment patrol method | |
US8953838B2 (en) | Detecting ground geographic features in images based on invariant components | |
JP4569837B2 (en) | Feature information collecting apparatus and feature information collecting method | |
JP4902575B2 (en) | Road sign recognition device and road sign recognition method | |
US20150345955A1 (en) | Detecting Common Geographic Features in Images Based on Invariant Components | |
KR101032160B1 (en) | System and method for road visibility measurement using camera | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
JP2011505610A (en) | Method and apparatus for mapping distance sensor data to image sensor data | |
US11990041B2 (en) | Moving body tracking system, moving body tracking method, and program | |
JP4775658B2 (en) | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method | |
JP2010223901A (en) | Map data error inspection system, map data error inspecting terminal device, and map data error inspection method | |
JP2010210477A (en) | Navigation device | |
JP6916975B2 (en) | Sign positioning system and program | |
JP6629009B2 (en) | Travel path accessory detection device, travel path accessory, and travel path detection method | |
JP4817019B2 (en) | Own vehicle position recognition device and own vehicle position recognition program | |
JP2006322892A (en) | Three-dimensional position measuring device and three-dimensional position measuring program | |
CN113643374A (en) | Multi-view camera calibration method, device, equipment and medium based on road characteristics | |
CN118062016B (en) | Vehicle environment sensing method, apparatus and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180425 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6615065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |