JP2020159969A - Auxiliary facility state evaluation device, auxiliary facility state evaluation method, and auxiliary facility state evaluation program - Google Patents

Auxiliary facility state evaluation device, auxiliary facility state evaluation method, and auxiliary facility state evaluation program Download PDF

Info

Publication number
JP2020159969A
JP2020159969A JP2019061848A JP2019061848A JP2020159969A JP 2020159969 A JP2020159969 A JP 2020159969A JP 2019061848 A JP2019061848 A JP 2019061848A JP 2019061848 A JP2019061848 A JP 2019061848A JP 2020159969 A JP2020159969 A JP 2020159969A
Authority
JP
Japan
Prior art keywords
information
image
unit
ancillary equipment
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019061848A
Other languages
Japanese (ja)
Other versions
JP7154172B2 (en
Inventor
恵 入江
Megumi Irie
恵 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019061848A priority Critical patent/JP7154172B2/en
Publication of JP2020159969A publication Critical patent/JP2020159969A/en
Application granted granted Critical
Publication of JP7154172B2 publication Critical patent/JP7154172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To obtain an auxiliary facility state evaluation device capable of efficiently supporting the inspection of an auxiliary facility.SOLUTION: An auxiliary facility state evaluation device 1 includes an information acquisition part 22, an auxiliary facility image extraction part 23, a state evaluation part 25, and a display information generation part 26. The information acquisition part 22 acquires the information of a captured image including the image of the auxiliary facility of a structure and the image of the structure. The auxiliary facility image extraction part 23 extracts the information of the image of the auxiliary facility from the information of the captured image acquired by the information acquisition part 22. The state evaluation part 25 determines the state-change level of each of a plurality of areas segmented in the shape of mesh in the auxiliary facility on the basis of the information of the image of the auxiliary facility extracted by the auxiliary facility image extraction part 23. The display information generation part 26 generates display information in which the information of the state-change level of each of the plurality of areas is associated with the information of the image of the auxiliary facility.SELECTED DRAWING: Figure 1

Description

本発明は、構造物に付帯する設備である付帯設備の状態を評価する付帯設備状態評価装置、付帯設備状態評価方法、および付帯設備状態評価プログラムに関する。 The present invention relates to an ancillary equipment condition evaluation device for evaluating the condition of ancillary equipment which is an ancillary equipment to a structure, an ancillary equipment condition evaluation method, and an ancillary equipment condition evaluation program.

従来、トンネルまたは橋梁などといった構造物に付帯される照明機器または看板などの付帯設備は、定期的に点検が行われている。付帯設備の点検では、構造物に付帯設備を取り付けるためのボルトまたはネジなどに錆または緩みがないか、または付帯設備そのものに亀裂などの問題がないかなどの作業が行われる。かかる作業は、構造物に付帯する全ての付帯設備を対象に一つ一つ作業者が目視または打音などにより確認することによって行われるため、非常に手間と時間がかかる。 Conventionally, lighting equipment or ancillary equipment such as signboards attached to structures such as tunnels or bridges are regularly inspected. In the inspection of ancillary equipment, work is performed such as whether the bolts or screws for attaching the ancillary equipment to the structure are rusted or loose, or whether the ancillary equipment itself has problems such as cracks. Since such work is performed by the operator visually or visually confirming all the incidental equipment attached to the structure one by one, it takes a lot of time and effort.

特許文献1には、構造物に付帯設備を取り付けるためのボルトの健全度を評価する技術が開示されており、かかる技術によって作業者による音の聞き分けに依存せずにボルトの健全度を評価することができる。 Patent Document 1 discloses a technique for evaluating the soundness of a bolt for attaching ancillary equipment to a structure, and evaluates the soundness of the bolt by such a technique without depending on the distinction of sound by an operator. be able to.

特開2017−90057号公報Japanese Unexamined Patent Publication No. 2017-90057

しかしながら、特許文献1に記載の技術では、作業者による音の聞き分けの場合と同様に、付帯設備を構造物に取り付けるためのボルトの一つ一つに打撃を与える必要があり、効率的な点検を行うことが難しい。 However, in the technique described in Patent Document 1, it is necessary to hit each of the bolts for attaching the ancillary equipment to the structure, as in the case of distinguishing the sound by the operator, and the inspection is efficient. Is difficult to do.

本発明は、上記に鑑みてなされたものであって、付帯設備の点検を効率的に支援することができる付帯設備状態評価装置を得ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to obtain an ancillary equipment condition evaluation device capable of efficiently supporting inspection of ancillary equipment.

上述した課題を解決し、目的を達成するために、本発明の付帯設備状態評価装置は、情報取得部と、付帯設備画像抽出部と、状態評価部と、表示情報生成部とを備える。情報取得部は、構造物の付帯設備の画像と構造物の画像とを含む撮像画像の情報を取得する。付帯設備画像抽出部は、情報取得部によって取得された撮像画像の情報から付帯設備の画像の情報を抽出する。状態評価部は、付帯設備画像抽出部によって抽出された付帯設備の画像の情報に基づいて、付帯設備におけるメッシュ状に区画された複数の領域の各々の変状レベルを判定する。表示情報生成部は、複数の領域の各々の変状レベルの情報を付帯設備の画像の情報に関連付けた表示情報を生成する。 In order to solve the above-mentioned problems and achieve the object, the incidental equipment state evaluation device of the present invention includes an information acquisition unit, an incidental equipment image extraction unit, a state evaluation unit, and a display information generation unit. The information acquisition unit acquires information on a captured image including an image of ancillary equipment of the structure and an image of the structure. The incidental equipment image extraction unit extracts the image information of the incidental equipment from the information of the captured image acquired by the information acquisition unit. The state evaluation unit determines the deformation level of each of a plurality of regions divided in a mesh shape in the incidental equipment based on the information of the image of the incidental equipment extracted by the incidental equipment image extraction unit. The display information generation unit generates display information in which the information on the deformation level of each of the plurality of areas is associated with the information on the image of the incidental equipment.

本発明によれば、付帯設備の点検を効率的に支援することができる、という効果を奏する。 According to the present invention, there is an effect that the inspection of ancillary equipment can be efficiently supported.

本発明の実施の形態1にかかる付帯設備状態評価装置の構成例を示す図The figure which shows the structural example of the incidental equipment state evaluation apparatus which concerns on Embodiment 1 of this invention. 実施の形態1にかかる付帯設備状態評価装置による処理方法を説明するための図The figure for demonstrating the processing method by the incidental equipment state evaluation apparatus which concerns on Embodiment 1. 実施の形態1にかかる付帯設備状態評価装置の具体的構成例を示す図The figure which shows the specific configuration example of the incidental equipment state evaluation apparatus which concerns on Embodiment 1. 実施の形態1にかかる撮像画像情報テーブルの一例を示す図The figure which shows an example of the captured image information table which concerns on Embodiment 1. 実施の形態1にかかる関連情報テーブルの一例を示す図The figure which shows an example of the related information table which concerns on Embodiment 1. 実施の形態1にかかる走行型計測装置による構造物情報の取得方法の一例を示す図The figure which shows an example of the acquisition method of the structure information by the traveling type measuring apparatus which concerns on Embodiment 1. 実施の形態1にかかる走行型計測装置の走行位置と各部分撮像画像との関係を示す図The figure which shows the relationship between the traveling position of the traveling type measuring apparatus which concerns on Embodiment 1 and each partial image capture image. 実施の形態1にかかる付帯設備情報テーブルの一例を示す図The figure which shows an example of the incidental equipment information table which concerns on Embodiment 1. 実施の形態1にかかる複数の領域へ分割した付帯設備の画像の一例を示す図The figure which shows an example of the image of the ancillary equipment divided into a plurality of areas which concerns on Embodiment 1. 実施の形態1にかかる異常判定部によって判定される異常箇所を含む付帯設備の画像の一例を示す図The figure which shows an example of the image of ancillary equipment including the abnormality part determined by the abnormality determination part which concerns on Embodiment 1. 実施の形態1にかかる異常判定部によって判定される異常箇所とレベル判定部で用いられる複数の領域との関係の一例を示す図The figure which shows an example of the relationship between the abnormality part determined by the abnormality determination part which concerns on Embodiment 1 and a plurality of areas used by a level determination part. 実施の形態1にかかる表示情報に基づいて表示処理部によって表示部に表示される表示画像の一例を示す図The figure which shows an example of the display image which is displayed on the display part by the display processing part based on the display information which concerns on Embodiment 1. 実施の形態1にかかる付帯設備状態評価装置の制御部の処理の一例を示すフローチャートA flowchart showing an example of processing of the control unit of the incidental equipment state evaluation device according to the first embodiment. 実施の形態1にかかる付帯設備状態評価装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware configuration of the incidental equipment state evaluation apparatus which concerns on Embodiment 1.

以下に、本発明の実施の形態にかかる付帯設備状態評価装置、付帯設備状態評価方法、および付帯設備状態評価プログラムを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 Hereinafter, the incidental equipment condition evaluation device, the incidental equipment condition evaluation method, and the incidental equipment condition evaluation program according to the embodiment of the present invention will be described in detail with reference to the drawings. The present invention is not limited to this embodiment.

実施の形態1.
図1は、本発明の実施の形態1にかかる付帯設備状態評価装置の構成例を示す図である。図1に示すように、実施の形態1にかかる付帯設備状態評価装置1は、記憶部10と、制御部20とを備える。
Embodiment 1.
FIG. 1 is a diagram showing a configuration example of an incidental equipment state evaluation device according to the first embodiment of the present invention. As shown in FIG. 1, the incidental equipment state evaluation device 1 according to the first embodiment includes a storage unit 10 and a control unit 20.

記憶部10は、構造物と構造物に付帯する設備である付帯設備とを撮像して得られる撮像画像の情報である撮像画像情報を記憶する。撮像画像に画像が含まれる構造物は、例えば、トンネル、橋梁、道路、または下水道などの構造物である。撮像画像に画像が含まれる付帯設備は、例えば、照明機器、送風機、または看板などである。以下、構造物の一例としてトンネルを挙げて説明するが、構造物は、トンネルに限定されず、構造物は、橋梁、下水道、または他の構造物であってもよい。 The storage unit 10 stores the captured image information which is the information of the captured image obtained by imaging the structure and the incidental equipment which is the equipment attached to the structure. The structure whose image is included in the captured image is, for example, a structure such as a tunnel, a bridge, a road, or a sewer. Ancillary equipment in which the captured image includes an image is, for example, a lighting device, a blower, or a signboard. Hereinafter, a tunnel will be described as an example of the structure, but the structure is not limited to the tunnel, and the structure may be a bridge, a sewer, or another structure.

制御部20は、情報取得部22と、付帯設備画像抽出部23と、状態評価部25と、表示情報生成部26と、表示処理部27とを備える。情報取得部22は、走行型計測装置2によって生成される撮像画像情報を走行型計測装置2から取得し、取得した撮像画像情報を記憶部10に記憶する。また、情報取得部22は、記憶部10に記憶された撮像画像情報を記憶部10から取得する。 The control unit 20 includes an information acquisition unit 22, an ancillary equipment image extraction unit 23, a state evaluation unit 25, a display information generation unit 26, and a display processing unit 27. The information acquisition unit 22 acquires the captured image information generated by the traveling type measuring device 2 from the traveling type measuring device 2, and stores the acquired captured image information in the storage unit 10. Further, the information acquisition unit 22 acquires the captured image information stored in the storage unit 10 from the storage unit 10.

走行型計測装置2は、撮像部を有しており、走行しながら撮像部によって得られる撮像画像の情報を含む撮像画像情報を生成する。例えば、構造物がトンネルである場合、走行型計測装置2は、トンネル内を走行しながらトンネルの内壁を撮像部によって撮像して得られる撮像画像の情報から撮像画像情報を生成する。 The traveling type measuring device 2 has an imaging unit, and generates captured image information including information of the captured image obtained by the imaging unit while traveling. For example, when the structure is a tunnel, the traveling type measuring device 2 generates the captured image information from the captured image information obtained by imaging the inner wall of the tunnel by the imaging unit while traveling in the tunnel.

付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像の情報から付帯設備の画像の情報を抽出する。状態評価部25は、付帯設備画像抽出部23によって抽出された付帯設備の画像の情報に基づいて、付帯設備におけるメッシュ状に区画された複数の領域の各々の変状レベルを判定する。 The incidental equipment image extraction unit 23 extracts the information of the image of the incidental equipment from the information of the captured image acquired by the information acquisition unit 22. The state evaluation unit 25 determines the deformation level of each of the plurality of regions divided in a mesh shape in the incidental equipment based on the information of the image of the incidental equipment extracted by the incidental equipment image extraction unit 23.

表示情報生成部26は、状態評価部25によって判定された各領域の変状レベルの情報を付帯設備の画像の情報に関連付けた表示情報を生成する。表示処理部27は、表示情報生成部26によって生成された表示情報に基づいて、各領域の変状レベルの情報を付帯設備の画像の情報に関連付けた画像を表示部3に表示させる。 The display information generation unit 26 generates display information in which the deformation level information of each region determined by the state evaluation unit 25 is associated with the image information of the incidental equipment. Based on the display information generated by the display information generation unit 26, the display processing unit 27 causes the display unit 3 to display an image in which the deformation level information of each area is associated with the image information of the incidental equipment.

図2は、実施の形態1にかかる付帯設備状態評価装置による処理方法を説明するための図である。なお、図2に示す例では、付帯設備として照明機器が示されているが、付帯設備は、送風機または看板などを含んでいてもよい。 FIG. 2 is a diagram for explaining a processing method by the incidental equipment state evaluation device according to the first embodiment. In the example shown in FIG. 2, a lighting device is shown as ancillary equipment, but the ancillary equipment may include a blower, a signboard, or the like.

図2に示すステップS1では、情報取得部22は、走行型計測装置2によって生成された撮像画像の情報を取得する。そして、付帯設備画像抽出部23は、図2に示すステップS2において、撮像画像の情報から付帯設備の画像の情報を抽出する。図2に示す例では、撮像画像には、トンネルの内壁の画像に加え、付帯設備の画像として4つの照明機器の画像が含まれており、付帯設備画像抽出部23は、各照明機器の画像の情報を撮像画像の情報から抽出する。 In step S1 shown in FIG. 2, the information acquisition unit 22 acquires the information of the captured image generated by the traveling type measuring device 2. Then, in step S2 shown in FIG. 2, the incidental equipment image extraction unit 23 extracts the information of the image of the incidental equipment from the information of the captured image. In the example shown in FIG. 2, in addition to the image of the inner wall of the tunnel, the captured image includes images of four lighting devices as images of ancillary equipment, and the ancillary equipment image extraction unit 23 is an image of each lighting device. Information is extracted from the information of the captured image.

次に、状態評価部25は、図2に示すステップS3において、ステップS2で抽出された付帯設備の画像の情報に基づいて、付帯設備の状態を評価する状態評価処理を行う。具体的には、状態評価部25は、付帯設備画像抽出部23によって抽出された付帯設備の画像の情報に基づいて、付帯設備におけるメッシュ状に区画された複数の領域R1〜R9の各々の変状レベルを判定する。 Next, in step S3 shown in FIG. 2, the state evaluation unit 25 performs a state evaluation process for evaluating the state of the ancillary equipment based on the information of the image of the ancillary equipment extracted in step S2. Specifically, the state evaluation unit 25 changes each of the plurality of regions R1 to R9 divided in a mesh shape in the incidental equipment based on the information of the image of the incidental equipment extracted by the incidental equipment image extraction unit 23. Determine the condition level.

図2に示す例では、領域R1の変状レベルが「4」と判定され、領域R7,R9の変状レベルが「3」と判定され、領域R3の変状レベルが「2」と判定され、領域R8の変状レベルが「1」と判定されている。例えば、状態評価処理では、照明機器をトンネルに固定するための取付具の緩みまたは錆びなどの状態、および照明機器に生じる亀裂または破損などの状態に基づいて変状レベルが判定される。取付具は、例えば、ネジまたはボルトなどの締結具の他、取付金具などを含む。 In the example shown in FIG. 2, the deformation level of the region R1 is determined to be "4", the deformation level of the regions R7 and R9 is determined to be "3", and the deformation level of the region R3 is determined to be "2". , The deformation level of the region R8 is determined to be "1". For example, in the state evaluation process, the deformation level is determined based on a state such as looseness or rust of a fixture for fixing the luminaire to a tunnel, and a state such as a crack or breakage that occurs in the luminaire. The fixture includes, for example, a fastener such as a screw or a bolt, as well as a mounting bracket and the like.

次に、表示情報生成部26は、図2に示すステップS4において、複数の領域の各々の変状レベルの情報を付帯設備の画像の情報に関連付けた表示情報を生成する。表示処理部27は、表示情報生成部26によって生成された表示情報に基づいて、表示部3に画像を表示させる。これにより、図2に示すように、付帯設備の画像に複数の領域の各々の変状レベルの情報が関連付けられた画像が表示部3に表示される。図2に示す例では、複数の領域の各々の変状レベルの情報が付帯設備である照明機器の画像に重畳表示されている。 Next, in step S4 shown in FIG. 2, the display information generation unit 26 generates display information in which the information on the deformation level of each of the plurality of regions is associated with the information on the image of the incidental equipment. The display processing unit 27 causes the display unit 3 to display an image based on the display information generated by the display information generation unit 26. As a result, as shown in FIG. 2, an image in which the information of the deformation level of each of the plurality of regions is associated with the image of the incidental equipment is displayed on the display unit 3. In the example shown in FIG. 2, the information on the deformation level of each of the plurality of areas is superimposed and displayed on the image of the lighting equipment which is ancillary equipment.

このように、実施の形態1にかかる付帯設備状態評価装置1は、構造物の画像および付帯設備の画像を含む撮像画像の情報から付帯設備の画像の情報を抽出し、付帯設備の状態を判定する。そのため、点検員が付帯設備に直接触れることなく、付帯設備の点検を効率的に行うことができる。 As described above, the incidental equipment state evaluation device 1 according to the first embodiment extracts the information of the image of the incidental equipment from the information of the captured image including the image of the structure and the image of the incidental equipment, and determines the state of the incidental equipment. To do. Therefore, the inspector can efficiently inspect the ancillary equipment without directly touching the ancillary equipment.

また、付帯設備状態評価装置1は、付帯設備におけるメッシュ状に区画された複数の領域R1〜R9の各々の変状レベルを付帯設備の画像の情報に関連付けて表示する。そのため、付帯設備の点検員は、付帯設備のどの箇所に問題があるかなどを容易に把握することができ、これによっても、点検員は付帯設備の点検を効率的に行うことができる。 Further, the incidental equipment state evaluation device 1 displays the deformation level of each of the plurality of regions R1 to R9 divided in a mesh shape in the incidental equipment in association with the information of the image of the incidental equipment. Therefore, the inspector of the ancillary equipment can easily grasp which part of the ancillary equipment has a problem, and the inspector can efficiently inspect the ancillary equipment.

以下、実施の形態1にかかる付帯設備状態評価装置1の構成および動作についてさらに具体的に説明する。図3は、実施の形態1にかかる付帯設備状態評価装置の具体的構成例を示す図である。 Hereinafter, the configuration and operation of the incidental equipment state evaluation device 1 according to the first embodiment will be described in more detail. FIG. 3 is a diagram showing a specific configuration example of the incidental equipment state evaluation device according to the first embodiment.

図3に示すように、実施の形態1にかかる付帯設備状態評価装置1は、ネットワーク5を介して、走行型計測装置2と通信可能に接続されており、走行型計測装置2から構造物情報を取得する。かかる構造物情報には、構造物および付帯設備を撮像して得られる撮像画像の情報および撮像画像の関連情報が含まれる。ネットワーク5は、例えば、LAN(Local Area Network)またはWAN(Wide Area Network)などのネットワークである。 As shown in FIG. 3, the incidental equipment state evaluation device 1 according to the first embodiment is communicably connected to the traveling type measuring device 2 via the network 5, and the structure information is transmitted from the traveling type measuring device 2. To get. Such structure information includes information on a captured image obtained by imaging a structure and ancillary equipment and related information on the captured image. The network 5 is, for example, a network such as a LAN (Local Area Network) or a WAN (Wide Area Network).

図3に示すように、実施の形態1にかかる付帯設備状態評価装置1は、記憶部10と、制御部20と、通信部30とを備える。通信部30は、ネットワーク5に接続される。通信部30は、ネットワーク5を介して走行型計測装置2から付帯設備状態評価装置1へ送信される情報を受信し、受信した情報を制御部20へ出力する。また、制御部20は、通信部30からネットワーク5に接続された不図示の装置に表示情報を送信することができる。 As shown in FIG. 3, the incidental equipment state evaluation device 1 according to the first embodiment includes a storage unit 10, a control unit 20, and a communication unit 30. The communication unit 30 is connected to the network 5. The communication unit 30 receives the information transmitted from the traveling type measuring device 2 to the incidental equipment state evaluation device 1 via the network 5, and outputs the received information to the control unit 20. Further, the control unit 20 can transmit display information from the communication unit 30 to a device (not shown) connected to the network 5.

なお、走行型計測装置2は、例えば、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disc)、またはUSB(Universal Serial Bus)メモリなどの可搬型記録媒体に構造物情報を記録することもできる。付帯設備状態評価装置1は、構造物情報を記録した可搬型記録媒体から構造物情報を読み出すことによって、構造物情報を取得することもできる。 The traveling type measuring device 2 records structure information on a portable recording medium such as a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), or a USB (Universal Serial Bus) memory. You can also do it. The incidental equipment state evaluation device 1 can also acquire the structure information by reading the structure information from the portable recording medium on which the structure information is recorded.

記憶部10は、撮像画像情報記憶部11と、関連情報記憶部12と、付帯設備情報記憶部13とを有する。撮像画像情報記憶部11は、撮像画像情報テーブル41を記憶する。図4は、実施の形態1にかかる撮像画像情報テーブルの一例を示す図である。 The storage unit 10 includes a captured image information storage unit 11, a related information storage unit 12, and ancillary equipment information storage unit 13. The captured image information storage unit 11 stores the captured image information table 41. FIG. 4 is a diagram showing an example of the captured image information table according to the first embodiment.

図4に示す撮像画像情報テーブル41は、「構造物ID(Identifier)」、「画像ID」、「撮像時刻」、および「画像情報」を含む情報を複数含む。「構造物ID」は、構造物の識別情報である。「画像ID」は、走行型計測装置2によって得られた部分撮像画像の識別情報である。部分撮像画像の情報は、撮像画像の情報のうち一部の画像の情報である。「撮像時刻」は、部分撮像画像が走行型計測装置2によって得られた時刻である。「画像情報」は、走行型計測装置2によって得られた部分撮像画像の情報である。 The captured image information table 41 shown in FIG. 4 includes a plurality of information including “structure ID (Identifier)”, “image ID”, “imaging time”, and “image information”. The "structure ID" is the identification information of the structure. The "image ID" is identification information of the partially captured image obtained by the traveling type measuring device 2. The information of the partially captured image is the information of a part of the captured image information. The “imaging time” is the time when the partially captured image is obtained by the traveling type measuring device 2. The "image information" is information on a partially captured image obtained by the traveling type measuring device 2.

図4に示す例では、構造物ID「C001」の構造物の画像情報が示されている。具体的には、図4に示す例では、画像ID「I001」の部分撮像画像の画像情報が「I001.bmp」であり、かかる部分撮像画像の撮像時刻が「td1〜td2」である。また、図4に示す例では、画像ID「I002」の部分撮像画像の画像情報が「I002.bmp」であり、かかる部分撮像画像の撮像時刻が「td2〜td3」である。 In the example shown in FIG. 4, the image information of the structure with the structure ID “C001” is shown. Specifically, in the example shown in FIG. 4, the image information of the partially captured image of the image ID “I001” is “I001.bmp”, and the imaging time of the partially captured image is “t d1 to t d2 ”. .. Further, in the example shown in FIG. 4, the image information of the partially captured image of the image ID “I002” is “I002.bmp”, and the imaging time of the partially captured image is “t d2 to t d3 ”.

また、図4に示す例では、画像ID「I003」の部分撮像画像の画像情報が「I003.bmp」であり、かかる部分撮像画像の撮像時刻が「td3〜td4」である。また、図4に示す例では、画像ID「I004」の部分撮像画像の画像情報が「I004.bmp」であり、かかる部分撮像画像の撮像時刻が「td4〜td5」である。 Further, in the example shown in FIG. 4, the image information of the partially captured image of the image ID “I003” is “I003.bmp”, and the imaging time of the partially captured image is “t d3 to t d4 ”. Further, in the example shown in FIG. 4, the image information of the partially captured image of the image ID “I004” is “I004.bp”, and the imaging time of the partially captured image is “t d4 to t d5 ”.

関連情報記憶部12は、関連情報テーブル42を記憶する。図5は、実施の形態1にかかる関連情報テーブルの一例を示す図である。図5に示す関連情報テーブル42は、「構造物ID」、「撮像場所」、「撮像順序」、「時刻」、および「位置情報」を含む情報を複数含む。「構造物ID」は、構造物の識別情報である。「撮像場所」は、走行型計測装置2による撮像場所を示し、構造物の名称を示す情報である。図5に示す例では、「撮像場所」は、トンネルA、または道路Bなどである。 The related information storage unit 12 stores the related information table 42. FIG. 5 is a diagram showing an example of a related information table according to the first embodiment. The related information table 42 shown in FIG. 5 includes a plurality of information including "structure ID", "imaging place", "imaging order", "time", and "position information". The "structure ID" is the identification information of the structure. The “imaging location” is information indicating the imaging location by the traveling type measuring device 2 and the name of the structure. In the example shown in FIG. 5, the “imaging place” is a tunnel A, a road B, or the like.

「撮像順序」は、走行型計測装置2による撮像順序を示す情報である。図5に示す例では、撮像場所「トンネルA」における撮像順序が東から西への順序であることを示し、撮像場所「道路B」における撮像順序が南から北への順序であることを示す。 The “imaging sequence” is information indicating the imaging order by the traveling type measuring device 2. In the example shown in FIG. 5, it is shown that the imaging order at the imaging location “tunnel A” is from east to west, and the imaging order at the imaging location “road B” is from south to north. ..

「時刻」は、時刻を示す情報である。「位置情報」は、走行型計測装置2の走行位置を示す情報であり、例えば、緯度、経度、および高度を示す情報である。なお、「位置情報」は、絶対位置を示す情報に限定されず、基準位置に対する相対位置を示す情報であってもよい。図5に示す例では、時刻「t」において走行型計測装置2の走行位置は「x,y,z」であり、時刻「t」において走行型計測装置2の走行位置は「x,y,z」である。また、図5に示す例では、時刻「t」において走行型計測装置2の走行位置は「x,y,z」であり、時刻「t15」において走行型計測装置2の走行位置は「x15,y15,z15」である。 The "time" is information indicating the time. The "position information" is information indicating the traveling position of the traveling type measuring device 2, and is, for example, information indicating latitude, longitude, and altitude. The "position information" is not limited to the information indicating the absolute position, and may be the information indicating the relative position with respect to the reference position. In the example shown in FIG. 5, the travel position of the traveling-type measuring device 2 at time "t 1" is "x 1, y 1, z 1", the time running position of the traveling-type measuring device 2 in the "t 2" is It is "x 2 , y 2 , z 2 ". Further, in the example shown in FIG. 5, the travel position of the traveling-type measurement device 2 at the time "t 8" is "x 8, y 8, z 8 ', traveling of the traveling-type measurement device 2 at the time" t 15 " The position is "x 15 , y 15 , z 15 ".

上述した撮像画像情報テーブル41および関連情報テーブル42に含まれる情報は、走行型計測装置2から付帯設備状態評価装置1へ通知される。図6は、実施の形態1にかかる走行型計測装置による構造物情報の取得方法の一例を示す図である。 The information included in the captured image information table 41 and the related information table 42 described above is notified from the traveling type measuring device 2 to the incidental equipment state evaluation device 1. FIG. 6 is a diagram showing an example of a method for acquiring structure information by the traveling type measuring device according to the first embodiment.

図6に示すように、走行型計測装置2は、撮像部51を搭載している。かかる走行型計測装置2は、トンネルである構造物6内を走行しながら撮像部51によって走行型計測装置2の周囲を繰り返し撮像し、構造物6の内壁の画像および付帯設備7の画像を含む部分撮像画像を複数含む撮像画像の情報を生成する。撮像部51は、例えば、ラインカメラであり、走行型計測装置2の進行方向と直交または交差する方向に沿って複数の画素が配列される。走行型計測装置2は、ラインカメラから繰り返し出力される画素の情報に基づいて、複数の部分撮像画像を含む撮像画像の情報を生成する。なお、撮像部51は、マトリクス状に複数の画素が配列されたエリアカメラであってもよい。 As shown in FIG. 6, the traveling type measuring device 2 is equipped with an imaging unit 51. The traveling type measuring device 2 repeatedly images the surroundings of the traveling type measuring device 2 by the imaging unit 51 while traveling in the structure 6 which is a tunnel, and includes an image of the inner wall of the structure 6 and an image of the incidental equipment 7. Generates information on a captured image including a plurality of partially captured images. The imaging unit 51 is, for example, a line camera, and a plurality of pixels are arranged along a direction orthogonal to or intersecting the traveling direction of the traveling type measuring device 2. The traveling type measuring device 2 generates information on a captured image including a plurality of partially captured images based on pixel information repeatedly output from the line camera. The imaging unit 51 may be an area camera in which a plurality of pixels are arranged in a matrix.

図7は、実施の形態1にかかる走行型計測装置の走行位置と各部分撮像画像との関係を示す図である。図7に示すように、走行型計測装置2は、走行型計測装置2の走行位置と時刻とを関連付けた関連情報を生成する。 FIG. 7 is a diagram showing the relationship between the traveling position of the traveling type measuring device according to the first embodiment and each partially captured image. As shown in FIG. 7, the traveling type measuring device 2 generates related information in which the traveling position and the time of the traveling type measuring device 2 are associated with each other.

図7に示す例では、例えば、時刻「t」において走行型計測装置2の走行位置は「x,y,z」であり、時刻「t」において走行型計測装置2の走行位置は「x,y,z」である。また、図7に示す例では、時刻「t」において走行型計測装置2の走行位置は「x,y,z」であり、時刻「t15」において走行型計測装置2の走行位置は「x15,y15,z15」である。 In the example shown in FIG. 7, for example, the running position of the running type measuring apparatus 2 at time "t 1" is "x 1, y 1, z 1", traveling of the traveling-type measuring device 2 at time "t 2" The position is "x 2 , y 2 , z 2 ". Further, in the example shown in FIG. 7, the running position of the running type measurement device 2 at the time "t 8" is "x 8, y 8, z 8 ', traveling of the traveling-type measurement device 2 at the time" t 15 " The position is "x 15 , y 15 , z 15 ".

また、図7に示す例では、時刻「t22」において走行型計測装置2の走行位置は「x22,y22,z22」であり、時刻「t29」において走行型計測装置2の走行位置は「x29,y29,z29」である。なお、図7に示す撮像画像には、付帯設備7の画像として、付帯設備7,7,7,7の画像が含まれており、各付帯設備7,7,7,7は、互いに異なる部分撮像画像に含まれている。 Further, in the example shown in FIG. 7, the time running position of the traveling-type measuring device 2 in the "t 22" is "x 22, y 22, z 22", traveling of the traveling-type measurement device 2 at the time "t 29" The position is "x 29 , y 29 , z 29 ". The captured image shown in FIG. 7 includes images of the ancillary equipment 7 1 , 7 2 , 7 3 , 7 4 as an image of the ancillary equipment 7, and each ancillary equipment 7 1 , 7 2 , 7 3 , 7 4 are included in different portions captured images with one another.

付帯設備情報記憶部13は、付帯設備情報テーブル43を記憶する。図8は、実施の形態1にかかる付帯設備情報テーブルの一例を示す図である。図8に示す付帯設備情報テーブル43は、「構造物ID」、「付帯設備ID」、「設備種別」、「位置情報」、「画像情報」、「変状レベル」、「総合評価値」、および「変状割合」を含む情報を複数含む。 The incidental equipment information storage unit 13 stores the incidental equipment information table 43. FIG. 8 is a diagram showing an example of an incidental equipment information table according to the first embodiment. The incidental equipment information table 43 shown in FIG. 8 shows the “structure ID”, “incidental equipment ID”, “equipment type”, “location information”, “image information”, “deformation level”, “comprehensive evaluation value”, And contains a plurality of information including "deformation rate".

「構造物ID」は、構造物6の識別情報である。「付帯設備ID」は、付帯設備7の識別情報である。「設備種別」は、付帯設備7の種別を示す情報であり、例えば、照明機器、送風機、または看板などである。「位置情報」は、付帯設備7の位置を示す情報である。「画像情報」は、付帯設備7の画像の情報である。 The "structure ID" is the identification information of the structure 6. The "incidental equipment ID" is identification information of the incidental equipment 7. The "equipment type" is information indicating the type of the ancillary equipment 7, and is, for example, a lighting device, a blower, a signboard, or the like. "Location information" is information indicating the position of the ancillary equipment 7. The "image information" is the image information of the incidental equipment 7.

「変状レベル」は、付帯設備7におけるメッシュ状に区画された複数の領域の各々の変状レベルを示す情報である。図8に示す例では、付帯設備7におけるメッシュ状に区画された複数の領域は、領域R1,R2,・・・,Rmである。mは3以上の整数であり、本実施の形態では、m=9であるものとして説明する。以下、領域R1,R2,・・・,Rmの各々を区別せずに示す場合、領域Rと記載する場合がある。 The “deformation level” is information indicating the deformation level of each of the plurality of regions divided in a mesh shape in the ancillary equipment 7. In the example shown in FIG. 8, the plurality of mesh-shaped regions in the ancillary equipment 7 are regions R1, R2, ..., Rm. m is an integer of 3 or more, and in the present embodiment, it is assumed that m = 9. Hereinafter, when each of the regions R1, R2, ..., Rm is shown without distinction, it may be described as the region R.

「総合評価値」は、付帯設備7単位の変状度合いを示す情報である。「変状割合」は、付帯設備7全体に対する変状が占める割合を示す情報である。かかる総合評価値および変状割合は、領域R1,R2,・・・,Rmの変状レベルに基づいて制御部20によって演算される。 The "comprehensive evaluation value" is information indicating the degree of deformation of 7 units of ancillary equipment. The “deformation ratio” is information indicating the ratio of the deformation to the entire ancillary equipment 7. The comprehensive evaluation value and the deformation ratio are calculated by the control unit 20 based on the deformation levels of the regions R1, R2, ..., Rm.

図8に示す例では、構造物ID「C001」の構造物6の付帯設備7に関する情報が示されている。具体的には、図8に示す例では、付帯設備ID「F001」の付帯設備7は、設備種別が「照明機器」であり、位置情報が「xf1,yf1,zf1」であり、画像情報が「F001.bmp」であり、領域R1,R2,・・・,Rmの変状レベルが「4,0,・・・,3」である。また、付帯設備ID「F002」の付帯設備7は、設備種別が「照明機器」であり、位置情報が「xf2,yf2,zf2」であり、画像情報が「F002.bmp」であり、領域R1,R2,・・・,Rmの変状レベルが「2,0,・・・,2」である。 In the example shown in FIG. 8, information regarding the ancillary equipment 7 of the structure 6 having the structure ID “C001” is shown. Specifically, in the example shown in FIG. 8, the incidental equipment 7 having the incidental equipment ID “F001” has the equipment type “lighting equipment” and the position information “x f1 , y f1 , z f1 ”. The image information is "F001.bmp", and the deformation levels of the regions R1, R2, ..., Rm are "4,0, ..., 3". Further, in the incidental equipment 7 having the incidental equipment ID "F002", the equipment type is "lighting equipment", the position information is "x f2 , y f2 , z f2 ", and the image information is "F002.bmp". , Regions R1, R2, ..., Rm has a deformation level of "2,0, ..., 2".

また、図8に示す例では、付帯設備ID「F001」の付帯設備7は、総合評価値が「4」であり、変状割合が「0.33」であり、付帯設備ID「F002」の付帯設備7は、総合評価値が「2」であり、変状割合が「0.11」である。 Further, in the example shown in FIG. 8, the ancillary equipment 7 having the ancillary equipment ID “F001” has a comprehensive evaluation value of “4”, a deformation rate of “0.33”, and an ancillary equipment ID “F002”. The ancillary equipment 7 has a comprehensive evaluation value of "2" and a deformation rate of "0.11".

図3に戻って制御部20について説明する。付帯設備状態評価装置1の制御部20は、入力受付部21と、情報取得部22と、付帯設備画像抽出部23と、位置特定部24と、状態評価部25と、表示情報生成部26と、表示処理部27とを備える。 Returning to FIG. 3, the control unit 20 will be described. The control unit 20 of the incidental equipment state evaluation device 1 includes an input reception unit 21, an information acquisition unit 22, an auxiliary equipment image extraction unit 23, a position identification unit 24, a state evaluation unit 25, and a display information generation unit 26. , A display processing unit 27 is provided.

入力受付部21は、入力部4へ入力されるユーザ操作を受け付ける。入力部4は例えばマウスまたはキーボードである。ユーザ操作には、ユーザによる入力部4へ入力される操作であり、例えば、マウスの移動操作、およびマウスへのクリック操作などが含まれる。また、入力部4は、表示部3上に配置されるタッチパネルであってもよい。以下、入力部4へ入力されるユーザ操作を単にユーザ操作と記載する場合がある。 The input receiving unit 21 receives a user operation input to the input unit 4. The input unit 4 is, for example, a mouse or a keyboard. The user operation is an operation input to the input unit 4 by the user, and includes, for example, a mouse movement operation and a mouse click operation. Further, the input unit 4 may be a touch panel arranged on the display unit 3. Hereinafter, the user operation input to the input unit 4 may be simply described as a user operation.

情報取得部22は、走行型計測装置2から撮像画像情報をネットワーク5および通信部30を介して取得し、取得した撮像画像情報を撮像画像情報記憶部11に追加する。また、情報取得部22は、走行型計測装置2から関連情報をネットワーク5および通信部30を介して取得し、取得した関連情報を関連情報記憶部12に記憶する。なお、情報取得部22は、撮像画像情報および関連情報を含む構造物情報を記録した可搬型記録媒体から構造物情報を読み出すことによって、撮像画像情報および関連情報を取得することもできる。なお、撮像画像情報と関連情報とは異なる可搬型記録媒体に記録されていてもよい。 The information acquisition unit 22 acquires the captured image information from the traveling type measuring device 2 via the network 5 and the communication unit 30, and adds the acquired captured image information to the captured image information storage unit 11. Further, the information acquisition unit 22 acquires related information from the traveling type measuring device 2 via the network 5 and the communication unit 30, and stores the acquired related information in the related information storage unit 12. The information acquisition unit 22 can also acquire the captured image information and the related information by reading the structure information from the portable recording medium on which the captured image information and the structure information including the related information are recorded. It should be noted that the captured image information and the related information may be recorded on a different portable recording medium.

また、情報取得部22は、入力受付部21によって受け付けられたユーザ操作が付帯設備状態情報の表示要求である場合、記憶部10から撮像画像情報および関連情報画像を取得する。情報取得部22は、記憶部10から取得した撮像画像情報および撮像画像情報を付帯設備画像抽出部23および位置特定部24に通知する。 Further, the information acquisition unit 22 acquires captured image information and related information images from the storage unit 10 when the user operation received by the input reception unit 21 is a display request for incidental equipment status information. The information acquisition unit 22 notifies the incidental equipment image extraction unit 23 and the position identification unit 24 of the captured image information and the captured image information acquired from the storage unit 10.

付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像情報に含まれる撮像画像の情報から複数の付帯設備7の画像の情報を抽出する。付帯設備画像抽出部23は、例えば、事前の機械学習処理によって付帯設備7の画像を検出対象物として入力して生成した学習済みモデルを有する。付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像の情報を学習済みモデルに入力することで、付帯設備7が写っている範囲の画像の情報を抽出する。 The incidental equipment image extraction unit 23 extracts the image information of the plurality of incidental equipment 7 from the captured image information included in the captured image information acquired by the information acquisition unit 22. The ancillary equipment image extraction unit 23 has, for example, a learned model generated by inputting an image of the ancillary equipment 7 as a detection target by a machine learning process in advance. The incidental equipment image extraction unit 23 extracts the image information in the range in which the incidental equipment 7 is captured by inputting the information of the captured image acquired by the information acquisition unit 22 into the trained model.

付帯設備画像抽出部23は、例えば、付帯設備7の種別毎に学習済みモデルを有している。かかる付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像の情報を各学習済みモデルに入力し、出力されるスコアが閾値以上且つ最もスコアが高い学習済みモデルに対応する種別の付帯設備7が撮像画像に含まれると判定することができる。 Ancillary equipment image extraction unit 23 has, for example, a trained model for each type of ancillary equipment 7. The incidental equipment image extraction unit 23 inputs the information of the captured image acquired by the information acquisition unit 22 into each trained model, and the output score is equal to or higher than the threshold value and corresponds to the trained model having the highest score. It can be determined that the incidental equipment 7 is included in the captured image.

なお、付帯設備画像抽出部23は、学習済みモデルに代えて、パターンマッチング処理によって付帯設備7の画像を抽出することもできる。例えば、付帯設備画像抽出部23は、付帯設備7の種別に基準画像の情報を有し、情報取得部22によって取得された撮像画像の情報に基準画像との類似度が閾値以上である画像の情報が含まれているか否かを判定する。付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像の情報に基準画像との類似度が閾値以上である画像の情報が含まれると判定すると、基準画像との類似度が閾値以上である画像の情報を付帯設備7の画像として抽出する。 The incidental equipment image extraction unit 23 can also extract the image of the incidental equipment 7 by pattern matching processing instead of the trained model. For example, the incidental equipment image extraction unit 23 has information on the reference image for the type of the incidental equipment 7, and the information of the captured image acquired by the information acquisition unit 22 has a similarity with the reference image of the threshold value or more. Determine if the information is included. When the incidental equipment image extraction unit 23 determines that the information of the captured image acquired by the information acquisition unit 22 includes the information of the image whose similarity with the reference image is equal to or higher than the threshold value, the similarity with the reference image is the threshold value. The above image information is extracted as an image of the ancillary equipment 7.

位置特定部24は、付帯設備画像抽出部23によって画像の情報が抽出された付帯設備7の位置を特定する。例えば、位置特定部24は、付帯設備画像抽出部23によって付帯設備7の画像の情報が抽出された撮像画像の情報とかかる撮像画像の関連情報とに基づいて、付帯設備7の位置を特定することができる。 The position specifying unit 24 specifies the position of the incidental equipment 7 from which the image information has been extracted by the incidental equipment image extraction unit 23. For example, the position specifying unit 24 specifies the position of the ancillary equipment 7 based on the information of the captured image obtained by extracting the image information of the ancillary equipment 7 by the ancillary equipment image extracting unit 23 and the related information of the captured image. be able to.

位置特定部24は、第1位置特定処理および第2位置特定処理のうちユーザ操作によって特定された位置特定処理を実行することによって、付帯設備7の位置を特定することができる。第1位置特定処理は、走行型計測装置2の撮像部51による撮像順序に従って各付帯設備7に識別情報を各付帯設備7の位置を示す情報として割り当てる処理である。 The position specifying unit 24 can specify the position of the ancillary equipment 7 by executing the position specifying process specified by the user operation among the first position specifying process and the second position specifying process. The first position specifying process is a process of assigning identification information to each ancillary equipment 7 as information indicating the position of each ancillary equipment 7 according to the imaging order by the imaging unit 51 of the traveling type measuring device 2.

まず、第1位置特定処理について説明する。第1位置特定処理は、付帯設備画像抽出部23によって付帯設備7の画像の情報に関連付けられた時刻の情報に基づいて、付帯設備7の位置を特定する処理である。 First, the first position specifying process will be described. The first position specifying process is a process of identifying the position of the ancillary equipment 7 based on the time information associated with the image information of the ancillary equipment 7 by the ancillary equipment image extraction unit 23.

位置特定部24は、第1位置特定処理において、付帯設備画像抽出部23によって付帯設備7の画像の情報に関連付けられた時刻の正順または逆順に連続する複数の付帯設備IDを構造物6に付帯する複数の付帯設備7に割り当てる。時刻の正順に連続する複数の付帯設備IDとは、例えば、時刻が新しいほど含まれる番号が増加するように割り当てられる複数の付帯設備IDである。また、時刻の逆順に連続する複数の付帯設備IDとは、例えば、時刻が新しいほど含まれる番号が減少するように割り当てられる複数の付帯設備IDである。 In the first position identification process, the position identification unit 24 gives the structure 6 a plurality of incidental equipment IDs that are continuous in the forward or reverse order of the time associated with the image information of the incidental equipment 7 by the incidental equipment image extraction unit 23. Allocate to a plurality of incidental facilities 7. The plurality of incidental equipment IDs that are continuous in the forward order of the time are, for example, a plurality of incidental equipment IDs that are assigned so that the number included increases as the time is newer. Further, the plurality of incidental equipment IDs that are continuous in the reverse order of the time are, for example, a plurality of incidental equipment IDs that are assigned so that the number included decreases as the time is newer.

ここで、撮像画像情報テーブル41が図4に示す状態であり、撮像画像の情報が図7に示す状態であり、付帯設備7の画像の情報に関連付けられた時刻の正順に連続する複数の付帯設備IDが構造物6に付帯する複数の付帯設備7に割り当てるとする。この場合、位置特定部24は、付帯設備7の画像の情報には付帯設備ID「F001」を割り当て、付帯設備7の画像の情報には付帯設備ID「F002」を割り当てられる。また、位置特定部24は、付帯設備7の画像の情報には付帯設備ID「F003」を割り当て、付帯設備7の画像の情報には付帯設備ID「F004」を割り当てる。 Here, the captured image information table 41 is in the state shown in FIG. 4, the captured image information is in the state shown in FIG. 7, and a plurality of incidentals consecutive in the positive order of the time associated with the image information of the incidental equipment 7. It is assumed that the equipment ID is assigned to a plurality of incidental equipments 7 attached to the structure 6. In this case, the position specifying unit 24, the information of the auxiliary equipment 71 of the image assigning "F001" ancillary equipment ID, assigned ancillary equipment ID to "F002" refers to the information of the auxiliary equipment 7 2 images. The position specifying unit 24 assigns the ancillary equipment ID "F003" refers to the information of the auxiliary equipment 7 3 images, assigning the ancillary equipment ID "F004" refers to the information of the auxiliary equipment 7 4 images.

位置特定部24は、一つの部分撮像画像の情報に複数の付帯設備7が含まれる場合、かかる部分撮像画像のうち図7に示すX座標系におけるX座標位置の昇順に連続する複数の付帯設備IDを構造物6に付帯する複数の付帯設備7に割り当てることができる。例えば、画像ID「I004」の部分撮像画像に2つの付帯設備7の画像の情報が含まれているとする。この場合、位置特定部24は、2つの付帯設備7の画像のうちX軸負方向寄りの付帯設備7の画像に付帯設備ID「I004」を割り当て、2つの付帯設備7の画像のうちX軸正方向寄りの付帯設備7の画像に付帯設備ID「I005」を割り当てる。 Position specifying unit 24, if it contains more than one ancillary equipment 7 to the information of one partial captured image, continuous in the ascending order of X d coordinate position in the X d Y d coordinate system shown in among 7 of such partial captured image A plurality of incidental equipment IDs can be assigned to a plurality of incidental equipment 7 incidental to the structure 6. For example, it is assumed that the partially captured image of the image ID "I004" includes the image information of the two incidental equipment 7. In this case, the position specifying unit 24 assigns the incidental equipment ID "I004" to the image of the incidental equipment 7 closer to the negative direction of the X d axis among the images of the two incidental equipment 7, and X of the images of the two incidental equipment 7. Ancillary equipment ID "I005" is assigned to the image of the ancillary equipment 7 closer to the d- axis positive direction.

また、撮像画像情報テーブル41が図4に示す状態であり、撮像画像の情報が図7に示す状態であり、付帯設備7の画像の情報に関連付けられた時刻の逆順に連続する複数の付帯設備IDが構造物6に付帯する複数の付帯設備7に割り当てられるとする。この場合、位置特定部24は、付帯設備7の画像の情報には付帯設備ID「F001」を割り当て、付帯設備7の画像の情報には付帯設備ID「F002」を割り当てる。また、位置特定部24は、付帯設備7の画像の情報には付帯設備ID「F003」を割り当て、付帯設備7の画像の情報には付帯設備ID「F004」を割り当てる。 Further, the captured image information table 41 is in the state shown in FIG. 4, the captured image information is in the state shown in FIG. 7, and a plurality of incidental facilities continuous in the reverse order of the time associated with the image information of the incidental equipment 7. It is assumed that the ID is assigned to a plurality of incidental facilities 7 attached to the structure 6. In this case, the position specifying unit 24 assigns the ancillary equipment ID "F001" refers to the information of the auxiliary equipment 7 4 image, assigning the ancillary equipment ID "F002" refers to the information of the auxiliary equipment 7 3 images. The position specifying unit 24 assigns the ancillary equipment ID "F003" refers to the information of the auxiliary equipment 7 2 images, assigning the ancillary equipment ID "F004" refers to the information of the auxiliary equipment 71 of the image.

位置特定部24は、一つの部分撮像画像の情報に複数の付帯設備7が含まれる場合、例えば、かかる部分撮像画像のうち図7に示すX座標系におけるX座標位置の降順に連続する複数の付帯設備IDを構造物6に付帯する複数の付帯設備7に割り当てる。例えば、画像ID「I001」の部分撮像画像に2つの付帯設備7の画像の情報が含まれているとする。この場合、位置特定部24は、2つの付帯設備7の画像のうちX軸正方向寄りの付帯設備7の画像に付帯設備ID「I004」を割り当て、2つの付帯設備7の画像のうちX軸負方向寄りの付帯設備7の画像に付帯設備ID「I005」を割り当てる。 Position specifying unit 24, if it contains more than one ancillary equipment 7 to the information of one partial captured image, for example, in descending order of X d coordinate position in the X d Y d coordinate system shown in among 7 of such partial captured image A plurality of continuous incidental equipment IDs are assigned to the plurality of incidental equipment 7 attached to the structure 6. For example, it is assumed that the partially captured image of the image ID "I001" includes the image information of the two incidental equipment 7. In this case, the position specifying unit 24 assigns the incidental equipment ID "I004" to the image of the incidental equipment 7 closer to the X d- axis positive direction among the images of the two incidental equipment 7, and X of the images of the two incidental equipment 7. Ancillary equipment ID "I005" is assigned to the image of the ancillary equipment 7 closer to the negative direction of the d- axis.

なお、位置特定部24は、部分撮像画像の取得時刻の情報に代えて、部分撮像画像のファイル名に含まれる連番情報などに基づいて、付帯設備7の画像の情報に付帯設備IDを割り当てることもできる。例えば、図4に示す撮像画像情報テーブル41では、複数の部分撮像画像のファイル名には、連番情報として、「001」,「002」,「003」,「004」が含まれている。位置特定部24は、かかる連番情報の昇順または降順に連続する複数の付帯設備IDを複数の付帯設備7に割り当てることができる。 In addition, the position specifying unit 24 assigns the incidental equipment ID to the image information of the incidental equipment 7 based on the serial number information included in the file name of the partially captured image instead of the information of the acquisition time of the partially captured image. You can also do it. For example, in the captured image information table 41 shown in FIG. 4, the file names of the plurality of partially captured images include "001", "002", "003", and "004" as serial number information. The position specifying unit 24 can assign a plurality of incidental equipment IDs that are continuous in ascending or descending order of the serial number information to the plurality of incidental equipment 7.

次に、第2位置特定処理について説明する。第2位置特定処理は、走行型計測装置2の走行位置および走行時刻と、付帯設備画像抽出部23によって付帯設備7の画像の情報が抽出された撮像画像の撮像時刻とに基づいて、付帯設備7の位置を特定する処理である。 Next, the second position specifying process will be described. The second position identification process is based on the traveling position and traveling time of the traveling type measuring device 2 and the imaging time of the captured image obtained by extracting the image information of the incidental equipment 7 by the incidental equipment image extracting unit 23. This is a process for specifying the position of 7.

位置特定部24は、付帯設備画像抽出部23によって付帯設備7の画像の情報が抽出された撮像画像の撮像時刻の情報を撮像画像情報記憶部11から取得する。また、位置特定部24は、撮像画像情報記憶部11から取得した撮像時刻の情報に対応する走行型計測装置2の走行位置の情報を関連情報記憶部12から取得する。位置特定部24は、取得した走行型計測装置2の走行位置の情報に基づいて、付帯設備7の画像の位置を判定する。 The position specifying unit 24 acquires information on the imaging time of the captured image from which the image information of the incidental equipment 7 is extracted by the incidental equipment image extraction unit 23 from the captured image information storage unit 11. Further, the position specifying unit 24 acquires information on the traveling position of the traveling type measuring device 2 corresponding to the information of the imaging time acquired from the captured image information storage unit 11 from the related information storage unit 12. The position specifying unit 24 determines the position of the image of the incidental equipment 7 based on the acquired information on the traveling position of the traveling type measuring device 2.

例えば、撮像画像情報テーブル41が図4に示す状態であり、関連情報テーブル42が図5に示す状態であるとする。また、走行型計測装置2の走行位置と各部分撮像画像との関係が図7に示す状態であり、位置特定部24が位置を特定する対象が付帯設備7であるとする。この場合、付帯設備画像抽出部23によって付帯設備7の画像の情報が抽出された部分撮像画像の撮像時刻は、時刻td1〜td2の範囲である。また、時刻td1〜td2の範囲における走行型計測装置2の走行位置は、「x,y,z」〜「x,y,z」の範囲である。 For example, assume that the captured image information table 41 is in the state shown in FIG. 4 and the related information table 42 is in the state shown in FIG. The relationship between the running position of the running type measuring device 2 and the respective partial captured image is in the state shown in FIG. 7, the target position identifying unit 24 identifies a position to be the incidental facilities 7 1. In this case, the imaging time of the auxiliary equipment 71 of the partial captured image data of the image has been extracted by the auxiliary equipment image extracting section 23 is a range of times t d1 ~t d2. Further, the traveling position of the traveling type measuring device 2 in the range of time t d1 to t d2 is in the range of "x 1 , y 1 , z 1 " to "x 8 , y 8 , z 8 ".

位置特定部24は、画像ID「I001」の部分撮像画像のうち付帯設備画像抽出部23によって画像の情報が抽出された付帯設備7の範囲に基づいて、「x,y,z」〜「x,y,z」の範囲のうち付帯設備7に対応する範囲を付帯設備7の位置として演算する。位置特定部24は、演算した付帯設備7の位置の情報を付帯設備7の画像の情報に関連付けて付帯設備情報記憶部13の付帯設備情報テーブル43に追加する。 Position specifying unit 24, based on a range of ancillary facilities image extracting section 23 auxiliary equipment 7 1 information of the image is extracted by one of the partial image captured by the image ID "I001", "x 1, y 1, z 1 "~ computed as the position of the auxiliary equipment 7 1 range corresponding to the auxiliary equipment 71 of the range of" x 8, y 8, z 8 '. Position specifying unit 24 adds the additional equipment information table 43 of the ancillary equipment information storing unit 13 the operation information of the position of the auxiliary equipment 71 in relation to the auxiliary equipment 71 of the information of the image.

また、位置特定部24は、画像ID「I001」の部分撮像画像のうち付帯設備画像抽出部23によって画像の情報が抽出された付帯設備7の中心位置に基づいて、「x,y,z」〜「x,y,z」の範囲のうち付帯設備7の中心位置に対応する位置を付帯設備7の位置として演算することもできる。 The position specifying unit 24, based on the auxiliary equipment image extracting section 23 auxiliary equipment 71 of the center position information of the image is extracted by one of the partial image captured by the image ID "I001", "x 1, y 1 , z 1 "~" it may be calculated as the position of the auxiliary equipment 71 positions corresponding to the center position of the auxiliary equipment 71 of the range of x 8, y 8, z 8 '.

この場合、位置特定部24は、時刻td1〜td2のうち付帯設備7の中心位置に対応する時刻を中心位置時刻として判定する。位置特定部24は、時刻t〜tのうち中心位置時刻に最も近い時刻に関連付けられた走行位置を付帯設備7の位置として判定することができる。また、位置特定部24は、時刻t〜tのうち中心位置時刻に近い2つの時刻に関連付けられた2つの走行位置を比例配分により線形補間することで中心位置時刻に対応する走行位置を付帯設備7の位置として判定することができる。 In this case, the position specifying unit 24 determines the time corresponding to the center position of the auxiliary equipment 71 of the time t d1 ~t d2 centered position and time. Position specifying unit 24 may determine the traveling position associated with the time closest to the center position and time of the time t 1 ~t 8 as the position of the auxiliary equipment 7 1. Further, the position specifying unit 24 linearly interpolates the two traveling positions associated with the two times close to the central position time among the times t 1 to t 8 by proportional distribution to obtain the traveling position corresponding to the central position time. it can be determined as the position of the auxiliary equipment 7 1.

また、図4に示す例では、撮像画像情報テーブル41において、部分撮像画像の撮像時刻は、時刻の範囲を示しているが、部分撮像画像の撮像時刻は、一つの時刻であってもよい。この場合、位置特定部24は、2つの部分撮像画像の撮像時刻を比例配分により線形補間することで、付帯設備7の画像が撮像された時刻の範囲を特定する。位置特定部24は、特定した時刻の範囲のうち最も古い時刻に最も近い時刻に関連付けられた走行位置と特定した時刻の範囲のうち最も新しい時刻に最も近い時刻に関連付けられた走行位置とにより特定される範囲を付帯設備7の位置を判定することができる。 Further, in the example shown in FIG. 4, in the captured image information table 41, the captured time of the partially captured image indicates a time range, but the captured time of the partially captured image may be one time. In this case, the position specifying unit 24, by prorating imaging time of two partial captured image by linear interpolation, image ancillary equipment 71 identifies the range of time taken. The position specifying unit 24 is specified by the traveling position associated with the time closest to the oldest time in the specified time range and the traveling position associated with the time closest to the newest time in the specified time range. insofar as it is possible to determine the position of the auxiliary equipment 7 1.

例えば、図4において、画像ID「I001」の撮像時刻は「td1」であり、画像ID「I002」の撮像時刻は「td2」であるとする。この場合、位置特定部24は、時刻td1〜td2の範囲を比例配分により線形補間した時刻のうち付帯設備7の画像の範囲に対応する走行位置を付帯設備7の位置として特定することができる。なお、位置特定部24は、2つの部分撮像画像の撮像時刻を比例配分により線形補間することで、中心位置時刻を特定し、かかる中心位置時刻に最も近い時刻に関連付けられた走行位置を付帯設備7の位置として判定することもできる。 For example, in FIG. 4, it is assumed that the imaging time of the image ID “I001” is “t d1 ” and the imaging time of the image ID “I002” is “t d2 ”. In this case, the position specifying unit 24 specifies the travel position corresponding to the range of auxiliary equipment 71 of the image in the time when the linear interpolation by prorating range of times t d1 ~t d2 as the position of the auxiliary equipment 7 1 be able to. The position specifying unit 24 specifies the center position time by linearly interpolating the imaging times of the two partially captured images by proportional distribution, and attaches the traveling position associated with the time closest to the center position time. It may be determined as the position of the 7 1.

また、付帯設備状態評価装置1は、部分撮像画像の各画素に3次元位置を関連付けて記憶部10に記憶することもできる。この場合、記憶部10には、部分撮像画像の各画素に関連付けられた3次元位置に基づいて、付帯設備7の3次元位置を付帯設備7の位置として判定することができる。 Further, the incidental equipment state evaluation device 1 can also associate a three-dimensional position with each pixel of the partially captured image and store it in the storage unit 10. In this case, the storage unit 10 can determine the three-dimensional position of the ancillary equipment 7 as the position of the ancillary equipment 7 based on the three-dimensional position associated with each pixel of the partially captured image.

部分撮像画像の各画素への3次元位置の関連付けは、例えば、走行型計測装置2によって行うことができる。例えば、走行型計測装置2は、不図示のレーザスキャナ装置を有し、構造物6内を走行しながらレーザスキャナ装置によって走行型計測装置2の周囲を計測し、かかる計測結果に基づいて構造物6の3次元点群と付帯設備7の3次元点群を含む3次元点群の情報を生成する。かかる3次元点群の情報には、各3次元点の3次元座標の情報が含まれる。走行型計測装置2は、例えば、各3次元点を計測した位置と部分撮像画像を撮像した位置とから、部分撮像画像の各画素への3次元位置の関連付けを行うことができる。 The association of the three-dimensional position with each pixel of the partially captured image can be performed by, for example, the traveling type measuring device 2. For example, the traveling type measuring device 2 has a laser scanner device (not shown), measures the surroundings of the traveling type measuring device 2 by the laser scanner device while traveling in the structure 6, and based on the measurement result, the structure. Information on the 3D point group including the 3D point group of 6 and the 3D point group of the incidental equipment 7 is generated. The information of the three-dimensional point cloud includes the information of the three-dimensional coordinates of each three-dimensional point. The traveling type measuring device 2 can, for example, associate the three-dimensional position with each pixel of the partially captured image from the position where each three-dimensional point is measured and the position where the partially captured image is captured.

このように、位置特定部24は、各付帯設備7の位置を判定することができ、判定した付帯設備7の位置の情報を付帯設備7の画像の情報に関連付けて付帯設備情報記憶部13の付帯設備情報テーブル43に追加することができる。 In this way, the position specifying unit 24 can determine the position of each ancillary equipment 7, and associates the determined position information of the ancillary equipment 7 with the image information of the ancillary equipment 7, and the ancillary equipment information storage unit 13 It can be added to the incidental equipment information table 43.

状態評価部25は、付帯設備画像抽出部23によって抽出された付帯設備7の画像の情報に基づいて、付帯設備7におけるメッシュ状に区画された複数の領域Rの各々の変状レベルを判定する。状態評価部25は、分割部31と、領域変状レベル判定部32と、総合評価部33とを備える。 The state evaluation unit 25 determines the deformation level of each of the plurality of regions R partitioned in a mesh shape in the incidental equipment 7 based on the information of the image of the incidental equipment 7 extracted by the incidental equipment image extraction unit 23. .. The state evaluation unit 25 includes a division unit 31, a region deformation level determination unit 32, and a comprehensive evaluation unit 33.

状態評価部25は、付帯設備7の画像を複数の領域Rに分割した後に各領域Rの変状レベルを判定する第1判定モードと、付帯設備7の異常箇所を判定した後に各領域Rの変状レベルを判定する第2判定モードとを有する。以下、第1判定モードおよび第2判定モードについて具体的に説明する。なお、状態評価部25が実行する判定モードは、ユーザ操作または外部からの設定要求に基づいて、第1判定モードおよび第2判定モードのいずれかに設定される。 The state evaluation unit 25 divides the image of the ancillary equipment 7 into a plurality of regions R, and then determines the deformation level of each region R. It has a second determination mode for determining the deformation level. Hereinafter, the first determination mode and the second determination mode will be specifically described. The determination mode executed by the state evaluation unit 25 is set to either the first determination mode or the second determination mode based on the user operation or an external setting request.

まず、第1判定モードについて説明する。状態評価部25の分割部31は、判定モードが第1判定モードに設定されている場合、付帯設備画像抽出部23で抽出された付帯設備7の画像の情報に基づいて、付帯設備7の画像を複数の領域Rに分割する。図9は、実施の形態1にかかる複数の領域へ分割した付帯設備の画像の一例を示す図である。図9に示す例では、付帯設備7の画像が9個の領域R1〜R9にメッシュ状に分割されている。なお、領域Rの数は、9個に限定されず、8個以下であってもよく、10個以上であってもよい。また、図9に示す例では、各領域Rは互いに同じ大きさおよび形状であるが、かかる例に限定されない。 First, the first determination mode will be described. When the determination mode is set to the first determination mode, the division unit 31 of the state evaluation unit 25 determines the image of the incidental equipment 7 based on the information of the image of the incidental equipment 7 extracted by the incidental equipment image extraction unit 23. Is divided into a plurality of regions R. FIG. 9 is a diagram showing an example of an image of ancillary equipment divided into a plurality of regions according to the first embodiment. In the example shown in FIG. 9, the image of the ancillary equipment 7 is divided into nine regions R1 to R9 in a mesh shape. The number of regions R is not limited to 9, and may be 8 or less, or 10 or more. Further, in the example shown in FIG. 9, each region R has the same size and shape as each other, but is not limited to such an example.

状態評価部25の領域変状レベル判定部32は、分割部31によって分割された領域Rの画像の情報に基づいて、領域Rの変状レベルを判定する。領域変状レベル判定部32は、異常判定部34と、レベル判定部35とを備える。 The region deformation level determination unit 32 of the state evaluation unit 25 determines the deformation level of the region R based on the information of the image of the region R divided by the division unit 31. The region deformation level determination unit 32 includes an abnormality determination unit 34 and a level determination unit 35.

異常判定部34は、分割部31によって分割された各領域Rの画像の情報を評価モデルに入力して、各領域Rに異常があるか否かを判定する。例えば、領域変状レベル判定部32は、評価モデルから出力されるスコアが閾値以上である場合に、領域Rに異常があると判定し、評価モデルから出力されるスコアが閾値未満である場合に、領域Rに異常がないと判定することができる。 The abnormality determination unit 34 inputs the image information of each region R divided by the division unit 31 into the evaluation model, and determines whether or not there is an abnormality in each region R. For example, the region deformation level determination unit 32 determines that there is an abnormality in the region R when the score output from the evaluation model is equal to or greater than the threshold value, and when the score output from the evaluation model is less than the threshold value. , It can be determined that there is no abnormality in the area R.

評価モデルは、機械学習によって生成された学習済みモデルである。かかる評価モデルは、例えば、付帯設備7の取り付け状態または付帯設備7自体の状態が異常であることを示す画像を用いて機械学習によって生成される。例えば、評価モデルは、付帯設備7を構造物6に取り付ける取付具が緩んだ状態の画像、取付具が錆びた状態の画像、または亀裂が入った状態の付帯設備7の画像などを異常ありの画像として機械学習によって生成される。なお、取付具が緩んだ状態は、例えば、ネジまたはボルトなどの締結具の位置合わせマークまたは位置合わせラインと締結具が取り付けられる部材の位置合わせマークまたは位置合わせラインとがずれている状態である。 The evaluation model is a trained model generated by machine learning. Such an evaluation model is generated by machine learning using, for example, an image showing that the attached state of the ancillary equipment 7 or the state of the ancillary equipment 7 itself is abnormal. For example, the evaluation model has an abnormality such as an image in which the fixture for attaching the auxiliary equipment 7 to the structure 6 is loose, an image in which the fixture is rusted, or an image in which the auxiliary equipment 7 is cracked. Generated by machine learning as an image. The loosened fitting is, for example, a state in which the alignment mark or alignment line of the fastener such as a screw or a bolt is deviated from the alignment mark or alignment line of the member to which the fastener is attached. ..

なお、評価モデルは、付帯設備7の種別毎の評価モデルであってもよく、変状種別毎の評価モデルであってもよく、付帯設備7の種別毎且つ変状種別毎の評価モデルであってもよい。これにより、異常判定部34は、付帯設備7の種別または変状種別などを特定することができる。変状種別には、例えば、取付具が緩んだ状態、取付具が錆びた状態、および付帯設備7に亀裂が入った状態などの種別が含まれる。また、評価モデルは、領域R毎の評価モデルであってもよく、付帯設備7の種別毎且つ領域R毎の評価モデルであってもよく、付帯設備7の種別毎、変状種別毎、且つ領域R毎の評価モデルであってもよい。 The evaluation model may be an evaluation model for each type of incidental equipment 7, an evaluation model for each type of deformation, and an evaluation model for each type of incidental equipment 7 and each type of deformation. You may. As a result, the abnormality determination unit 34 can specify the type of the ancillary equipment 7 or the type of deformation. The deformation type includes, for example, a state in which the fixture is loose, a state in which the fixture is rusted, and a state in which the incidental equipment 7 is cracked. Further, the evaluation model may be an evaluation model for each area R, an evaluation model for each type of ancillary equipment 7 and an evaluation model for each area R, for each type of ancillary equipment 7, each type of deformation, and It may be an evaluation model for each region R.

レベル判定部35は、異常判定部34によって異常であると判定された領域Rの画像の特徴量を分析して、異常判定部34によって異常であると判定された領域Rの変状レベルを判定する。 The level determination unit 35 analyzes the feature amount of the image of the region R determined to be abnormal by the abnormality determination unit 34, and determines the deformation level of the region R determined to be abnormal by the abnormality determination unit 34. To do.

レベル判定部35は、異常判定部34によって異常であると判定された領域Rの画像の情報から得られる領域Rの画像の特徴量に基づいて、変状レベルを算出する。例えば、レベル判定部35は、異常判定部34によって異常であると判定された領域Rの画像におけるRGB相関値、RGB分散値、輝度相関値、輝度分散値、およびエッジ成分値の一つまたは二つ以上の組み合わせに基づいて、変状レベルを算出することができる。 The level determination unit 35 calculates the deformation level based on the feature amount of the image of the region R obtained from the information of the image of the region R determined to be abnormal by the abnormality determination unit 34. For example, the level determination unit 35 may use one or two of the RGB correlation value, the RGB dispersion value, the brightness correlation value, the brightness dispersion value, and the edge component value in the image of the region R determined to be abnormal by the abnormality determination unit 34. Deformation levels can be calculated based on one or more combinations.

変状レベルは、変状がない正常な状態を0とし、変状度合いが高いほど値が大きくなる正の整数であるが、変状がない正常な状態を正の整数とし、変状度合いが高いほど値が0に近づくものであってもよい。また、変状レベルは、変状の度合いが把握できる値であればよく、例えば、変状がない正常な状態を0とし、変状度合いが高いほど値が小さく大きくなる負の整数であってもよい。なお、変状度合いが高いほど、変状レベルが高くなる。 The deformation level is a positive integer in which the normal state without deformation is 0 and the value increases as the degree of deformation increases, but the normal state without deformation is a positive integer and the degree of deformation is The higher the value, the closer the value may be to 0. Further, the deformation level may be a value as long as the degree of deformation can be grasped. For example, a normal state without deformation is set to 0, and a negative integer whose value becomes smaller and larger as the degree of deformation becomes higher. May be good. The higher the degree of deformation, the higher the level of deformation.

また、レベル判定部35は、異常判定部34によって付帯設備7の種別が特定される場合、付帯設備7の種別毎に異なる基準で変状レベルを判定することができる。また、レベル判定部35は、異常判定部34によって変状種別が特定される場合、変状種別毎に異なる基準で変状レベルを判定することができる。 Further, when the type of the ancillary equipment 7 is specified by the abnormality determination unit 34, the level determination unit 35 can determine the deformation level based on a different standard for each type of the ancillary equipment 7. Further, when the abnormality type is specified by the abnormality determination unit 34, the level determination unit 35 can determine the deformation level based on different criteria for each deformation type.

また、レベル判定部35は、異常判定部34によって異常であると判定された領域Rの画像を、機械学習によって生成された評価モデルに入力することで、かかる領域Rの変状レベルを判定することもできる。かかる評価モデルは、例えば、付帯設備7の取り付け状態または付帯設備7自体の状態が異常であることを示す画像を用いて変状種別毎に機械学習によって生成される。 Further, the level determination unit 35 determines the deformation level of the region R by inputting the image of the region R determined to be abnormal by the abnormality determination unit 34 into the evaluation model generated by machine learning. You can also do it. Such an evaluation model is generated by machine learning for each deformation type using, for example, an image showing that the attached state of the ancillary equipment 7 or the state of the ancillary equipment 7 itself is abnormal.

レベル判定部35は、異常判定部34によって異常であると判定された領域Rの画像の情報を変状種別毎の評価モデルに入力する。レベル判定部35は、変状種別毎の評価モデルから出力されるスコアに基づいて、異常判定部34によって異常であると判定された領域Rの変状レベルを判定する。 The level determination unit 35 inputs the image information of the area R determined to be abnormal by the abnormality determination unit 34 into the evaluation model for each deformation type. The level determination unit 35 determines the deformation level of the region R determined to be abnormal by the abnormality determination unit 34 based on the score output from the evaluation model for each deformation type.

例えば、レベル判定部35は、変状種別毎の評価モデルから出力されるスコアに基づいて、変状種別毎の変状レベルを判定する。レベル判定部35は、スコアが高いほど変状レベルを高くする。レベル判定部35は、判定した変状種別毎の変状レベルのうち最も高い変状レベルを、領域Rの変状レベルとして判定することができる。 For example, the level determination unit 35 determines the deformation level for each deformation type based on the score output from the evaluation model for each deformation type. The level determination unit 35 increases the deformation level as the score increases. The level determination unit 35 can determine the highest deformation level among the determined deformation levels for each deformation type as the deformation level of the region R.

なお、異常判定部34によって異常であると判定された領域Rの変状種別が異常判定部34で特定される場合、レベル判定部35は、異常判定部34から通知される変状種別の評価モデルを用いて領域Rの変状レベルを判定することができる。 When the abnormality determination unit 34 identifies the deformation type of the region R determined to be abnormal by the abnormality determination unit 34, the level determination unit 35 evaluates the deformation type notified from the abnormality determination unit 34. The model can be used to determine the level of deformation of region R.

また、レベル判定部35は、変状種別毎且つ変状レベル毎の評価モデルを用いて、領域Rの変状レベルを判定することもできる。評価モデルは、異常判定部34によって用いられる評価モデルと同じであってもよく、レベル判定部35は、評価モデルから出力されるスコアが高いほど変状レベルを高くする。 Further, the level determination unit 35 can also determine the deformation level of the region R by using the evaluation model for each deformation type and each deformation level. The evaluation model may be the same as the evaluation model used by the abnormality determination unit 34, and the level determination unit 35 increases the deformation level as the score output from the evaluation model increases.

次に、状態評価部25の第2判定モードについて説明する。状態評価部25の異常判定部34は、判定モードが第2判定モードに設定されている場合、付帯設備画像抽出部23で抽出された付帯設備7の画像の情報を評価モデルに入力して、付帯設備7の異常箇所を判定する。 Next, the second determination mode of the state evaluation unit 25 will be described. When the determination mode is set to the second determination mode, the abnormality determination unit 34 of the state evaluation unit 25 inputs the image information of the incidental equipment 7 extracted by the incidental equipment image extraction unit 23 into the evaluation model. Determine the abnormal part of the incidental equipment 7.

第2判定モードで用いられる評価モデルは、付帯設備7の画像のうち異常箇所と正常箇所を区分けする評価モデルである。かかる評価モデルは、例えば、異常が発生する箇所毎の評価モデルを含む。異常が発生する箇所毎の評価モデルは、対応する箇所に異常が発生した状態の画像を用いて機械学習によって生成される。 The evaluation model used in the second determination mode is an evaluation model that distinguishes between an abnormal part and a normal part in the image of the incidental equipment 7. Such an evaluation model includes, for example, an evaluation model for each location where an abnormality occurs. The evaluation model for each place where the abnormality occurs is generated by machine learning using the image of the state where the abnormality occurs at the corresponding place.

図10は、実施の形態1にかかる異常判定部によって判定される異常箇所を含む付帯設備の画像の一例を示す図である。図10に示す例では、異常判定部34によって付帯設備7の画像のうち4箇所が異常箇所として判定されていることを示している。 FIG. 10 is a diagram showing an example of an image of ancillary equipment including an abnormality portion determined by the abnormality determination unit according to the first embodiment. In the example shown in FIG. 10, it is shown that four of the images of the incidental equipment 7 are determined as abnormal parts by the abnormality determination unit 34.

図3に示すレベル判定部35は、異常判定部34によって判定された異常箇所を含む領域Rの画像の特徴量を分析して、異常判定部34によって判定された異常箇所を含む領域Rの変状レベルを判定する。例えば、レベル判定部35は、異常判定部34によって判定された異常箇所を含む領域Rの画像におけるRGB相関値、RGB分散値、輝度相関値、輝度分散値、およびエッジ成分値の一つまたは二つ以上の組み合わせに基づいて、領域Rの変状レベルを算出することができる。 The level determination unit 35 shown in FIG. 3 analyzes the feature amount of the image of the region R including the abnormality portion determined by the abnormality determination unit 34, and changes the region R including the abnormality portion determined by the abnormality determination unit 34. Determine the condition level. For example, the level determination unit 35 may use one or two of the RGB correlation value, the RGB dispersion value, the brightness correlation value, the brightness dispersion value, and the edge component value in the image of the region R including the abnormality portion determined by the abnormality determination unit 34. The deformation level of region R can be calculated based on one or more combinations.

領域Rは、第1モードで分割される領域Rと同じである。図11は、実施の形態1にかかる異常判定部によって判定される異常箇所とレベル判定部で用いられる複数の領域との関係の一例を示す図である。図11に示す例では、領域R1,R3,R8,R9に異常判定部34によって判定された異常箇所が含まれる。この場合、レベル判定部35は、各領域R1,R3,R8,R9の画像の特徴量を分析して、各領域R1,R3,R8,R9の変状レベルを判定する。 The area R is the same as the area R divided in the first mode. FIG. 11 is a diagram showing an example of the relationship between the abnormality portion determined by the abnormality determination unit according to the first embodiment and a plurality of regions used in the level determination unit. In the example shown in FIG. 11, the regions R1, R3, R8, and R9 include the abnormality portion determined by the abnormality determination unit 34. In this case, the level determination unit 35 analyzes the feature amount of the image of each region R1, R3, R8, R9 to determine the deformation level of each region R1, R3, R8, R9.

なお、レベル判定部35は、異常判定部34によって判定された異常箇所を含む領域Rの画像を、機械学習によって生成された評価モデルに入力して、かかる領域Rの変状レベルを判定することもできる。かかる評価モデルは、第1モードで用いられる評価モデルと同じであってもよく、異なっていてもよい。 The level determination unit 35 inputs an image of the region R including the abnormality portion determined by the abnormality determination unit 34 into the evaluation model generated by machine learning, and determines the deformation level of the region R. You can also. Such an evaluation model may be the same as or different from the evaluation model used in the first mode.

上述した評価モデルおよび学習済みモデルとして、例えば、ニューラルネットワークを用いることができる。ニューラルネットワークは、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)、または再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)などを含む。 As the evaluation model and the trained model described above, for example, a neural network can be used. The neural network includes a convolutional neural network (CNN: Convolution Neural Network), a recurrent neural network (RNN: Recurrent Neural Network), and the like.

レベル判定部35は、撮像画像に同一種別の付帯設備7の画像が複数含まれている場合に、複数の領域R1〜R9の各々について変状レベルの平均値を演算することができる。付帯設備7の種別は、例えば、照明機器、送風機、または看板などであるが、付帯設備7の型式などであってもよい。 When the captured image includes a plurality of images of the incidental equipment 7 of the same type, the level determination unit 35 can calculate the average value of the deformation level for each of the plurality of regions R1 to R9. The type of the ancillary equipment 7 is, for example, a lighting device, a blower, a signboard, or the like, but may be a model of the ancillary equipment 7.

状態評価部25の総合評価部33は、領域変状レベル判定部32によって判定された複数の領域Rの変状レベルに基づいて、付帯設備7単位の変状度合いを判定する。総合評価部33は、判定した付帯設備7単位の変状度合いを付帯設備7の画像の情報に関連付けて付帯設備情報記憶部13の付帯設備情報テーブル43に追加することができる。 The comprehensive evaluation unit 33 of the state evaluation unit 25 determines the degree of deformation of 7 units of the ancillary equipment based on the deformation levels of the plurality of regions R determined by the region deformation level determination unit 32. The comprehensive evaluation unit 33 can add the determined degree of deformation of the incidental equipment 7 units to the incidental equipment information table 43 of the incidental equipment information storage unit 13 in association with the image information of the incidental equipment 7.

総合評価部33は、領域変状レベル判定部32によって判定された複数の領域Rの変状レベルのうち最も高い変状レベルを付帯設備7の変状度合いにすることができる。例えば、図2に示すように、領域R1の変状レベルが「4」であり、領域R3の変状レベルが「2」であり、領域R7の変状レベルが「3」であり、領域R8の変状レベルが「1」であり、領域R9の変状レベルが「3」であるとする。また、異常がない領域Rの変状レベルは「0」であるとする。この場合、総合評価部33は、付帯設備7の変状度合いを「4」にする。 The comprehensive evaluation unit 33 can set the highest deformation level among the deformation levels of the plurality of regions R determined by the region deformation level determination unit 32 as the degree of deformation of the incidental equipment 7. For example, as shown in FIG. 2, the deformation level of the region R1 is "4", the deformation level of the region R3 is "2", the deformation level of the region R7 is "3", and the deformation level of the region R8 is "3". The deformation level of is "1", and the deformation level of the region R9 is "3". Further, it is assumed that the deformation level of the region R where there is no abnormality is “0”. In this case, the comprehensive evaluation unit 33 sets the degree of deformation of the incidental equipment 7 to “4”.

また、総合評価部33は、領域変状レベル判定部32によって判定された複数の領域Rの変状レベルのうち閾値レベル以上の領域Rを判定する。そして、総合評価部33は、付帯設備7の画像のうち閾値レベル以上の領域Rが占める割合に基づいて、付帯設備7の変状度合いを判定することができる。 Further, the comprehensive evaluation unit 33 determines the region R equal to or higher than the threshold level among the deformation levels of the plurality of regions R determined by the region deformation level determination unit 32. Then, the comprehensive evaluation unit 33 can determine the degree of deformation of the ancillary equipment 7 based on the ratio occupied by the region R equal to or higher than the threshold level in the image of the ancillary equipment 7.

例えば、各領域Rの変状レベルが図2に示す状態であり、閾値レベルが「3」であるとする。また、異常がない領域Rの変状レベルは0であるとする。この場合、変状レベルが閾値レベル以上である領域Rは、領域R1,R7,R9である。したがって、総合評価部33は、付帯設備7の変状度合いを「0.33」にする。このように、総合評価部33は、付帯設備7の変状度合いを5段階の変状レベルとは異なる評価値として得ることができる。 For example, it is assumed that the deformation level of each region R is the state shown in FIG. 2 and the threshold level is “3”. Further, it is assumed that the deformation level of the region R where there is no abnormality is 0. In this case, the regions R whose deformation level is equal to or higher than the threshold level are regions R1, R7, and R9. Therefore, the comprehensive evaluation unit 33 sets the degree of deformation of the incidental equipment 7 to "0.33". In this way, the comprehensive evaluation unit 33 can obtain the degree of deformation of the ancillary equipment 7 as an evaluation value different from the five-level deformation level.

また、総合評価部33は、領域変状レベル判定部32によって判定された複数の領域Rの変状レベルを合算した値を変状レベルの最大値を合算した値で除算して得られる値を付帯設備7の変状度合いにすることもできる。例えば、各領域Rの変状レベルが図2に示す状態であるとする。また、異常がない領域Rの変状レベルは0であるとする。この場合、総合評価部33は、付帯設備7の変状度合いを12/45にする。なお、分母は、各領域Rの変状レベルの最大値である「5」を合算した値である。このように、総合評価部33は、付帯設備7の変状度合いを5段階の変状レベルとは異なる評価値として得ることができる。 Further, the comprehensive evaluation unit 33 divides the value obtained by dividing the total value of the deformation levels of the plurality of regions R determined by the region deformation level determination unit 32 by the total value of the maximum values of the deformation levels. It is also possible to adjust the degree of deformation of the ancillary equipment 7. For example, it is assumed that the deformation level of each region R is in the state shown in FIG. Further, it is assumed that the deformation level of the region R where there is no abnormality is 0. In this case, the comprehensive evaluation unit 33 sets the degree of deformation of the incidental equipment 7 to 12/45. The denominator is the sum of "5", which is the maximum value of the deformation level of each region R. In this way, the comprehensive evaluation unit 33 can obtain the degree of deformation of the ancillary equipment 7 as an evaluation value different from the five-level deformation level.

総合評価部33は、付帯設備7の変状度合いを総合評価値または変状割合などとして表すことができる。例えば、総合評価部33は、複数の領域Rの変状レベルのうち最も高い変状レベルを総合評価値とし、付帯設備7の画像のうち閾値レベル以上の領域Rが占める割合または複数の領域Rの変状レベルを合算した値を最大値で除算した値を付帯設備7の変状割合とすることもできる。変状割合は、付帯設備7の画像のうち変状が占める割合である。 The comprehensive evaluation unit 33 can express the degree of deformation of the ancillary equipment 7 as a comprehensive evaluation value, a deformation ratio, or the like. For example, the comprehensive evaluation unit 33 sets the highest deformation level among the deformation levels of the plurality of regions R as the comprehensive evaluation value, and the ratio of the region R equal to or higher than the threshold level in the image of the incidental equipment 7 or the plurality of regions R. The value obtained by dividing the total value of the deformation levels of the above by the maximum value can be used as the deformation ratio of the incidental equipment 7. The deformation ratio is the ratio of the deformation in the image of the incidental equipment 7.

表示情報生成部26は、付帯設備情報記憶部13に記憶された付帯設備情報テーブル43の情報に基づいて、表示情報を生成する。例えば、表示情報生成部26は、各領域Rの変状レベルの情報、総合評価レベルの情報、付帯設備7の変状度合いの情報を付帯設備7の画像の情報に関連付けた表示情報を生成することができる。また、表示情報生成部26は、各領域Rの変状レベルの情報に加え位置特定部24によって判定された付帯設備7の位置を示す情報を付帯設備7の画像の情報に関連付けた表示情報を生成することができる。表示情報生成部26は、生成した表示情報を制御部20からネットワーク5に接続された装置へ送信することもできる。 The display information generation unit 26 generates display information based on the information in the incidental equipment information table 43 stored in the incidental equipment information storage unit 13. For example, the display information generation unit 26 generates display information in which the deformation level information of each area R, the comprehensive evaluation level information, and the deformation degree information of the incidental equipment 7 are associated with the image information of the incidental equipment 7. be able to. Further, the display information generation unit 26 provides display information in which, in addition to the information on the deformation level of each region R, the information indicating the position of the ancillary equipment 7 determined by the position specifying unit 24 is associated with the image information of the ancillary equipment 7. Can be generated. The display information generation unit 26 can also transmit the generated display information from the control unit 20 to the device connected to the network 5.

表示処理部27は、表示情報生成部26によって生成された表示情報に基づいて、表示部3に画像を表示する。図12は、実施の形態1にかかる表示情報に基づいて表示処理部によって表示部に表示される表示画像の一例を示す図である。 The display processing unit 27 displays an image on the display unit 3 based on the display information generated by the display information generation unit 26. FIG. 12 is a diagram showing an example of a display image displayed on the display unit by the display processing unit based on the display information according to the first embodiment.

図12に示す表示画像80には、構造物6の名称を表示する表示領域81と、走行型計測装置2による計測方向を表示する表示領域82と、撮像面を表示する表示領域83と、表示対象にする付帯設備7の名称を表示する表示領域84とが含まれる。撮像面は、構造物6のうち撮像部51によって撮像される領域である。 The display image 80 shown in FIG. 12 includes a display area 81 for displaying the name of the structure 6, a display area 82 for displaying the measurement direction by the traveling type measuring device 2, and a display area 83 for displaying the imaging surface. A display area 84 for displaying the name of the target incidental equipment 7 is included. The imaging surface is a region of the structure 6 that is imaged by the imaging unit 51.

図12に示す例では、構造物6の名称として表示領域81に「トンネルA」の文字が表示され、走行型計測装置2の計測方向として表示領域82に「東→西」の文字が表示されている。また、図12に示す例では、表示領域83に「左側面」の文字が表示され、表示領域84に「照明機器」の文字が表示されている。 In the example shown in FIG. 12, the characters "tunnel A" are displayed in the display area 81 as the name of the structure 6, and the characters "east → west" are displayed in the display area 82 as the measurement direction of the traveling type measuring device 2. ing. Further, in the example shown in FIG. 12, the characters "left side" are displayed in the display area 83, and the characters "lighting equipment" are displayed in the display area 84.

図12に示す表示画像80は、複数の撮像面の中から一つの撮像面を選択するためのリストボックスを表示させるボタン85と、複数種類の付帯設備7の中から表示させる付帯設備7の種別を選択するためのリストボックスを表示させるボタン86を含む。付帯設備状態評価装置1のユーザは、ボタン85へのユーザ操作によって撮像面を選択したり、ボタン86へのユーザ操作によって表示させる付帯設備7の種別を選択したりすることができる。制御部20は、ユーザ操作によって選択された撮像面の撮像画像の情報から、ユーザ操作によって選択された種別の付帯設備7の画像の情報を抽出し、抽出した付帯設備7の画像の情報に基づいて、上述した処理によって付帯設備7の変状状態を評価することができる。 The display image 80 shown in FIG. 12 has a button 85 for displaying a list box for selecting one imaging surface from a plurality of imaging surfaces, and a type of ancillary equipment 7 to be displayed from among a plurality of types of ancillary equipment 7. Includes a button 86 that displays a list box for selecting. The user of the incidental equipment state evaluation device 1 can select the imaging surface by the user operation of the button 85, or select the type of the incidental equipment 7 to be displayed by the user operation of the button 86. The control unit 20 extracts the image information of the incidental equipment 7 of the type selected by the user operation from the image information of the image pickup surface selected by the user operation, and is based on the image information of the extracted incidental equipment 7. Therefore, the deformed state of the ancillary equipment 7 can be evaluated by the above-mentioned processing.

図6に示す走行型計測装置2では、複数の撮像面のうち左側面を撮像する撮像部51のみ図示しているが、走行型計測装置2には、構造物6の上面を撮像する不図示の撮像部と構造物6の右側面を撮像する不図示の撮像部とが搭載される。付帯設備状態評価装置1の制御部20は、撮像部51の撮像画像と同様に、上面を撮像する不図示の撮像部の撮像画像および右側面を撮像する不図示の撮像部の撮像画像を処理して、領域Rの変状レベルの判定および付帯設備7の変状度合いの判定などを行うことができる。 In the traveling type measuring device 2 shown in FIG. 6, only the imaging unit 51 that images the left side of the plurality of imaging surfaces is shown, but the traveling type measuring device 2 does not show the image of the upper surface of the structure 6. An imaging unit and an imaging unit (not shown) that images the right side surface of the structure 6 are mounted. The control unit 20 of the incidental equipment state evaluation device 1 processes an image captured by an imaging unit (not shown) that images the upper surface and an image captured by the imaging unit (not shown) that images the right side surface, similarly to the image captured by the imaging unit 51. Then, it is possible to determine the deformation level of the area R and the degree of deformation of the incidental equipment 7.

図12に示す表示画像80には、付帯設備7の付帯設備状態情報を示す付帯設備状態情報表示領域87が含まれる。付帯設備状態情報表示領域87には、付帯設備7の付帯設備ID、付帯設備7の位置を示す情報、付帯設備7の変状の総合評価値を示す情報、付帯設備7の画像に対する変状が占める割合を示す情報、および付帯設備7の画像を示す情報が付帯設備7毎に含まれる。 The display image 80 shown in FIG. 12 includes an incidental equipment status information display area 87 showing incidental equipment status information of the incidental equipment 7. In the incidental equipment status information display area 87, the incidental equipment ID of the incidental equipment 7, the information indicating the position of the incidental equipment 7, the information indicating the comprehensive evaluation value of the deformation of the incidental equipment 7, and the deformation of the image of the incidental equipment 7 are displayed. Information indicating the proportion and information indicating an image of the ancillary equipment 7 are included for each ancillary equipment 7.

例えば、図12に示す付帯設備ID「I001」の付帯設備7は、位置が「x,y,z」であり、変状の総合評価値が「4」であり、変状が占める割合が「0.33」である。また、図12に示す付帯設備ID「I002」の付帯設備7は、位置が「x11,y11,z11」であり、変状の総合評価値が「2」であり、変状が占める割合が「0.11」である。これにより、付帯設備状態評価装置1のユーザは、構造物6のどの位置にある付帯設備7がどの程度の変状状態であるかを容易に把握することができる。また、図12に示す例では、付帯設備7の配列順で付帯設備IDが連番で割り当てられており、これによっても構造物6のどの位置にある付帯設備7がどの程度の変状状態であるかを把握することができる。 For example, the incidental equipment 7 having the incidental equipment ID “I001” shown in FIG. 12 has a position of “x 4 , y 4 , z 4 ” and a comprehensive evaluation value of the deformation of “4”, which is occupied by the deformation. The ratio is "0.33". Further, the incidental equipment 7 of the incidental equipment ID “I002” shown in FIG. 12 has a position of “x 11 , y 11 , z 11 ”, and the overall evaluation value of the deformation is “2”, which is occupied by the deformation. The ratio is "0.11". As a result, the user of the incidental equipment state evaluation device 1 can easily grasp at which position of the structure 6 the incidental equipment 7 is in a deformed state. Further, in the example shown in FIG. 12, the incidental equipment IDs are assigned in serial numbers in the order of arrangement of the incidental equipment 7, and even by this, the incidental equipment 7 at which position of the structure 6 is in a deformed state. You can figure out if there is one.

また、付帯設備7の画像には、付帯設備7の画像を9個の領域Rに区画するための線と、9個の分割された領域Rのうち変状があると判定された領域Rに変状レベルが示される。これにより、付帯設備状態評価装置1のユーザは、例えば、付帯設備7のどの領域Rに変状が生じているか、およびどの領域Rが故障しやすいかなどを容易に把握することができる。 Further, in the image of the ancillary equipment 7, a line for dividing the image of the ancillary equipment 7 into nine areas R and an area R among the nine divided areas R determined to have a deformation are included. Deformation level is shown. As a result, the user of the incidental equipment state evaluation device 1 can easily grasp, for example, which region R of the incidental equipment 7 is deformed and which region R is likely to fail.

なお、図12に示す付帯設備7の画像では、各領域Rの変状レベルを文字で示しているが、表示情報生成部26は、各領域Rの変状レベルを、色または記号などで示すこともできる。例えば、表示情報生成部26は、各領域Rの変状レベルを領域Rの画像の濃度または領域Rの画像の色で表す表示情報を生成することができる。具体的には、表示情報生成部26は、変状レベルが低い領域Rほど元の画像よりも濃くなるように表示情報を生成することができる。これによっても、付帯設備7のどの領域Rに変状が生じているか、およびどの領域Rが故障しやすいかなどを容易に把握することができる。 In the image of the ancillary equipment 7 shown in FIG. 12, the deformation level of each area R is indicated by characters, but the display information generation unit 26 indicates the deformation level of each area R by a color, a symbol, or the like. You can also do it. For example, the display information generation unit 26 can generate display information in which the deformation level of each region R is represented by the density of the image in the region R or the color of the image in the region R. Specifically, the display information generation unit 26 can generate display information so that the region R having a lower deformation level is darker than the original image. Also from this, it is possible to easily grasp which area R of the incidental equipment 7 is deformed and which area R is likely to fail.

また、表示情報生成部26は、変状レベルが低い領域Rほど元の画像よりも薄くなるように表示情報を生成したり、各領域Rの変状レベルを色と文字で表す表示情報を生成したりすることができる。これによっても、付帯設備7のどの領域Rに変状が生じているか、およびどの領域Rが故障しやすいかなどを容易に把握することができる。 Further, the display information generation unit 26 generates display information so that the region R having a lower deformation level is thinner than the original image, or generates display information representing the deformation level of each region R with colors and characters. Can be done. Also from this, it is possible to easily grasp which area R of the incidental equipment 7 is deformed and which area R is likely to fail.

また、表示情報生成部26は、レベル判定部35によって判定された各領域Rの変状レベルの平均値を示す文字、色または記号の情報を含む表示情報を生成することができる。表示処理部27は、各領域Rの変状レベルの平均値を示す文字、色または記号の情報を表示部3に表示することができる。これにより付帯設備状態評価装置1のユーザは、付帯設備7の種別毎に、どの領域Rに変状が生じやすいかなどを容易に把握することができる。 Further, the display information generation unit 26 can generate display information including information of characters, colors, or symbols indicating the average value of the deformation levels of each region R determined by the level determination unit 35. The display processing unit 27 can display information on characters, colors, or symbols indicating the average value of the deformation levels of each area R on the display unit 3. As a result, the user of the incidental equipment state evaluation device 1 can easily grasp which region R is likely to be deformed for each type of the incidental equipment 7.

つづいて、付帯設備状態評価装置1の動作を、フローチャートを用いて説明する。図13は、実施の形態1にかかる付帯設備状態評価装置の制御部の処理の一例を示すフローチャートである。かかる処理は、例えば、ユーザ操作が付帯設備状態情報の表示要求である場合に開始される。 Next, the operation of the incidental equipment state evaluation device 1 will be described with reference to a flowchart. FIG. 13 is a flowchart showing an example of processing of the control unit of the incidental equipment state evaluation device according to the first embodiment. Such processing is started, for example, when the user operation is a request for displaying incidental equipment status information.

図13に示すように、付帯設備状態評価装置1の制御部20は、記憶部10から撮像画像の情報を取得し(ステップS10)、取得した撮像画像の情報から付帯設備7の画像の情報を抽出する(ステップS11)。また、制御部20は、記憶部10から撮像画像の情報および関連情報を取得し、取得した撮像画像の情報および関連情報に基づいて、付帯設備7の位置を判定する(ステップS12)。 As shown in FIG. 13, the control unit 20 of the incidental equipment state evaluation device 1 acquires the information of the captured image from the storage unit 10 (step S10), and obtains the image information of the incidental equipment 7 from the acquired captured image information. Extract (step S11). Further, the control unit 20 acquires the captured image information and the related information from the storage unit 10, and determines the position of the incidental equipment 7 based on the acquired captured image information and the related information (step S12).

次に、制御部20は、第1判定モードに設定されているか否かを判定する(ステップS13)。制御部20は、第1判定モードに設定されていると判定した場合(ステップS13:Yes)、付帯設備7の画像を複数の領域Rに分割し(ステップS14)、各領域Rが異常であるか否かを判定する(ステップS15)。そして、制御部20は、異常である領域Rの変状レベルを判定する(ステップS16)。 Next, the control unit 20 determines whether or not the first determination mode is set (step S13). When the control unit 20 determines that the first determination mode is set (step S13: Yes), the image of the incidental equipment 7 is divided into a plurality of regions R (step S14), and each region R is abnormal. Whether or not it is determined (step S15). Then, the control unit 20 determines the deformation level of the abnormal region R (step S16).

制御部20は、第1判定モードに設定されていないと判定した場合(ステップS13:No)、すなわち、第2判定モードに設定されていると判定した場合、付帯設備7の画像の異常箇所を判定し(ステップS17)、かかる異常箇所を含む領域Rの変状レベルを判定する(ステップS18)。 When the control unit 20 determines that the first determination mode is not set (step S13: No), that is, when it determines that the second determination mode is set, the control unit 20 determines the abnormal portion of the image of the incidental equipment 7. The determination is made (step S17), and the deformation level of the region R including the abnormal portion is determined (step S18).

制御部20は、ステップS16の処理が終了した場合、またはステップS18の処理が終了した場合、付帯設備7の変状度合いを判定する(ステップS19)。制御部20は、付帯設備状態情報を含む表示情報を生成し(ステップS20)、かかる表示情報に基づいて、付帯設備状態情報を表示部3に表示して(ステップS21)、図13に示す処理を終了する。 When the process of step S16 is completed or the process of step S18 is completed, the control unit 20 determines the degree of deformation of the ancillary equipment 7 (step S19). The control unit 20 generates display information including the incidental equipment status information (step S20), displays the incidental equipment status information on the display unit 3 based on the display information (step S21), and performs the process shown in FIG. To finish.

図14は、実施の形態1にかかる付帯設備状態評価装置のハードウェア構成の一例を示す図である。図14に示すように、付帯設備状態評価装置1は、プロセッサ101と、メモリ102と、入出力回路103と、通信装置104とを備えるコンピュータを含む。 FIG. 14 is a diagram showing an example of the hardware configuration of the incidental equipment state evaluation device according to the first embodiment. As shown in FIG. 14, the incidental equipment state evaluation device 1 includes a computer including a processor 101, a memory 102, an input / output circuit 103, and a communication device 104.

プロセッサ101、メモリ102、入出力回路103、および通信装置104は、例えば、バス105によって互いにデータの送受信が可能である。通信部30は、通信装置104で実現される。記憶部10は、メモリ102によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、入力受付部21、情報取得部22、付帯設備画像抽出部23、位置特定部24、状態評価部25、表示情報生成部26、および表示処理部27の機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。 The processor 101, the memory 102, the input / output circuit 103, and the communication device 104 can send and receive data to and from each other by, for example, the bus 105. The communication unit 30 is realized by the communication device 104. The storage unit 10 is realized by the memory 102. By reading and executing the program stored in the memory 102, the processor 101 reads and executes an input reception unit 21, an information acquisition unit 22, an incidental equipment image extraction unit 23, a position identification unit 24, a state evaluation unit 25, and a display information generation unit. 26 and the display processing unit 27 are executed. The processor 101 is, for example, an example of a processing circuit, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processer), and a system LSI (Large Scale Integration).

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能なプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、付帯設備状態評価装置1は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。 The memory 102 includes one or more of RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). Including. The memory 102 also includes a recording medium on which a computer-readable program is recorded. Such recording media include one or more of non-volatile or volatile semiconductor memories, magnetic disks, flexible memories, optical disks, compact discs, and DVDs (Digital Versatile Discs). The incidental equipment state evaluation device 1 may include integrated circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).

以上のように、実施の形態1にかかる付帯設備状態評価装置1は、情報取得部22と、付帯設備画像抽出部23と、状態評価部25と、表示情報生成部26とを備える。情報取得部22は、構造物6の付帯設備7の画像と構造物6の画像とを含む撮像画像の情報を取得する。付帯設備画像抽出部23は、情報取得部22によって取得された撮像画像の情報から付帯設備7の画像の情報を抽出する。状態評価部25は、付帯設備画像抽出部23によって抽出された付帯設備7の画像の情報に基づいて、付帯設備7におけるメッシュ状に区画された複数の領域Rの各々の変状レベルを判定する。表示情報生成部26は、複数の領域Rの各々の変状レベルの情報を付帯設備7の画像の情報に関連付けた表示情報を生成する。これにより、点検員が付帯設備7に直接触れることなく、付帯設備7の点検を効率的に行うことができる。また、付帯設備7におけるメッシュ状に区画された複数の領域Rの各々の変状レベルを付帯設備7の画像の情報に関連付けて表示することができる。そのため、付帯設備7の点検員は、付帯設備7のどの箇所に問題があるかなどを容易に把握することができ、これによっても、点検員は付帯設備7の点検を効率的に行うことができる。 As described above, the incidental equipment state evaluation device 1 according to the first embodiment includes an information acquisition unit 22, an incidental equipment image extraction unit 23, a state evaluation unit 25, and a display information generation unit 26. The information acquisition unit 22 acquires the information of the captured image including the image of the incidental equipment 7 of the structure 6 and the image of the structure 6. The incidental equipment image extraction unit 23 extracts the image information of the incidental equipment 7 from the information of the captured image acquired by the information acquisition unit 22. The state evaluation unit 25 determines the deformation level of each of the plurality of regions R partitioned in a mesh shape in the incidental equipment 7 based on the information of the image of the incidental equipment 7 extracted by the incidental equipment image extraction unit 23. .. The display information generation unit 26 generates display information in which the information on the deformation level of each of the plurality of regions R is associated with the information on the image of the incidental equipment 7. As a result, the inspector can efficiently inspect the ancillary equipment 7 without directly touching the ancillary equipment 7. Further, it is possible to display the deformation level of each of the plurality of regions R partitioned in the mesh shape in the incidental equipment 7 in association with the information of the image of the incidental equipment 7. Therefore, the inspector of the ancillary equipment 7 can easily grasp which part of the ancillary equipment 7 has a problem, and the inspector can efficiently inspect the ancillary equipment 7. it can.

また、状態評価部25は、分割部31と、領域変状レベル判定部32とを備える。分割部31は、付帯設備7の画像を複数の領域Rに分割する。領域変状レベル判定部32は、分割部31によって分割された複数の領域Rの各々の画像の情報に基づいて、複数の領域Rの各々の変状レベルを判定する。付帯設備7の画像の情報に比べ各領域Rの画像の情報は情報量が少ないため、領域Rの変状レベルを容易に判定することができる。 Further, the state evaluation unit 25 includes a division unit 31 and a region deformation level determination unit 32. The dividing unit 31 divides the image of the ancillary equipment 7 into a plurality of regions R. The region deformation level determination unit 32 determines each deformation level of the plurality of regions R based on the information of each image of the plurality of regions R divided by the division unit 31. Since the amount of information in the image of each region R is smaller than that in the image of the incidental equipment 7, the deformation level of the region R can be easily determined.

また、領域変状レベル判定部32は、異常判定部34と、レベル判定部35とを備える。異常判定部34は、分割部31によって分割された複数の領域Rの各々の画像の情報に基づいて、複数の領域Rの各々に異常があるか否かを判定する。レベル判定部35は、異常判定部34によって異常であると判定された領域Rの変状レベルを判定する。これにより、異常があると判定した領域Rのみの変状レベルを判定すればよいため、付帯設備状態評価装置1における処理負荷を軽減することができる。 Further, the region deformation level determination unit 32 includes an abnormality determination unit 34 and a level determination unit 35. The abnormality determination unit 34 determines whether or not there is an abnormality in each of the plurality of regions R based on the information of each image of the plurality of regions R divided by the division unit 31. The level determination unit 35 determines the deformation level of the region R determined to be abnormal by the abnormality determination unit 34. As a result, it is sufficient to determine the deformation level of only the region R determined to have an abnormality, so that the processing load on the incidental equipment state evaluation device 1 can be reduced.

また、異常判定部34は、付帯設備7の画像の情報に基づいて、付帯設備7の異常箇所を判定する。レベル判定部35は、複数の領域Rのうち異常判定部34によって異常であると判定された異常箇所を含む領域Rの変状レベルを判定する。これにより、付帯設備7の画像を分割する処理を行うことなく、領域Rの変状レベルを判定することができる。 Further, the abnormality determination unit 34 determines the abnormality portion of the incidental equipment 7 based on the information of the image of the incidental equipment 7. The level determination unit 35 determines the deformation level of the region R including the abnormal portion determined to be abnormal by the abnormality determination unit 34 among the plurality of regions R. As a result, the deformation level of the region R can be determined without performing the process of dividing the image of the incidental equipment 7.

また、レベル判定部35は、撮像画像に同一種別の付帯設備7の画像が複数含まれている場合に、複数の領域Rの各々について変状レベルの平均値を演算する。表示情報生成部26は、複数の領域Rの各々の変状レベルの情報に加え変状レベルの平均値の情報を付帯設備7の画像の情報に関連付けた表示情報を生成する。これにより、付帯設備7の種別毎に、どの領域Rに変状が生じやすいかなどを容易に把握することができる。 Further, the level determination unit 35 calculates the average value of the deformation level for each of the plurality of regions R when a plurality of images of the incidental equipment 7 of the same type are included in the captured image. The display information generation unit 26 generates display information in which information on the average value of the deformation level is associated with the information on the image of the incidental equipment 7 in addition to the information on the deformation level of each of the plurality of regions R. As a result, it is possible to easily grasp which area R is likely to be deformed for each type of incidental equipment 7.

また、状態評価部25は、複数の領域Rの各々の変状レベルに基づいて、付帯設備7単位の変状度合いを判定する総合評価部33を備える。表示情報生成部26は、複数の領域Rの各々の変状レベルの情報に加え付帯設備7単位の変状度合いの情報を付帯設備7の画像の情報に関連付けた表示情報を生成する。これにより、点検員は、各領域Rの変状レベルに加え、各領域Rの変状レベルによって求めた付帯設備7単位の変状度合いを把握することができる。 Further, the state evaluation unit 25 includes a comprehensive evaluation unit 33 that determines the degree of deformation of 7 units of incidental equipment based on the deformation level of each of the plurality of regions R. The display information generation unit 26 generates display information in which, in addition to the information on the deformation level of each of the plurality of regions R, the information on the degree of deformation of the incidental equipment 7 units is associated with the information on the image of the incidental equipment 7. As a result, the inspector can grasp the degree of deformation of the incidental equipment 7 units obtained from the deformation level of each area R in addition to the deformation level of each area R.

また、付帯設備状態評価装置1は、構造物6における付帯設備7の位置を特定する位置特定部24を備える。撮像画像は、同一種別の付帯設備7の画像が複数含まれる画像である。表示情報生成部26は、複数の領域Rの各々の変状レベルの情報に加え付帯設備7の位置の情報を付帯設備7の画像の情報に関連付けた表示情報を生成する。これにより、例えば、同一種別の付帯設備7のうちどの位置の付帯設備7に変状が生じているかなどを容易に把握することができる。 Further, the incidental equipment state evaluation device 1 includes a position specifying unit 24 for specifying the position of the incidental equipment 7 in the structure 6. The captured image is an image including a plurality of images of the incidental equipment 7 of the same type. The display information generation unit 26 generates display information in which the position information of the ancillary equipment 7 is associated with the image information of the ancillary equipment 7 in addition to the information of the deformation level of each of the plurality of regions R. Thereby, for example, it is possible to easily grasp which position of the incidental equipment 7 of the same type is deformed.

また、撮像画像は、走行型計測装置2に搭載された撮像部51が走行型計測装置2の走行時に繰り返し撮像して得られる画像である。位置特定部24は、撮像画像のうち付帯設備7の領域Rが撮像部51によって撮像された時刻に基づいて、複数の付帯設備7の各々の位置を特定する。これにより、複数の付帯設備7の各々の位置を精度よく特定することができる。 Further, the captured image is an image obtained by the imaging unit 51 mounted on the traveling type measuring device 2 repeatedly taking an image while the traveling type measuring device 2 is traveling. The position specifying unit 24 identifies the position of each of the plurality of incidental equipment 7 based on the time when the region R of the incidental equipment 7 in the captured image is captured by the imaging unit 51. As a result, the position of each of the plurality of incidental facilities 7 can be accurately specified.

また、撮像画像は、走行型計測装置2に搭載された撮像部51が走行型計測装置2の走行時に繰り返し撮像して得られる画像である。位置特定部24は、撮像部51による撮像順に付帯設備7に識別情報を付与することで、複数の付帯設備7の各々の位置を特定する。これにより、例えば、同一種別の付帯設備7のうち何番目の位置にある付帯設備7に片場外生じているかなどを容易に把握することができる。 Further, the captured image is an image obtained by the imaging unit 51 mounted on the traveling type measuring device 2 repeatedly taking an image while the traveling type measuring device 2 is traveling. The position specifying unit 24 identifies the position of each of the plurality of ancillary equipment 7 by adding identification information to the ancillary equipment 7 in the order of imaging by the imaging unit 51. Thereby, for example, it is possible to easily grasp which position of the incidental equipment 7 of the same type is generated outside the field.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above-described embodiment shows an example of the content of the present invention, can be combined with another known technique, and is one of the configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

1 付帯設備状態評価装置、2 走行型計測装置、3 表示部、4 入力部、5 ネットワーク、6 構造物、7,7,7,7,7 付帯設備、10 記憶部、11 撮像画像情報記憶部、12 関連情報記憶部、13 付帯設備情報記憶部、20 制御部、21 入力受付部、22 情報取得部、23 付帯設備画像抽出部、24 位置特定部、25 状態評価部、26 表示情報生成部、27 表示処理部、30 通信部、31 分割部、32 領域変状レベル判定部、33 総合評価部、34 異常判定部、35 レベル判定部、41 撮像画像情報テーブル、42 関連情報テーブル、43 付帯設備情報テーブル、51 撮像部、80 表示画像、81,82,83,84 表示領域、85,86 ボタン、87 付帯設備状態情報表示領域、R,R1〜R9 領域。 1 Ancillary equipment status evaluation device, 2 Traveling type measuring device, 3 Display unit, 4 Input unit, 5 Network, 6 Structure, 7, 7 1 , 7 2 , 7 3 , 7 4 Ancillary equipment, 10 Storage unit, 11 Imaging Image information storage unit, 12 Related information storage unit, 13 Ancillary equipment information storage unit, 20 Control unit, 21 Input reception unit, 22 Information acquisition unit, 23 Ancillary equipment image extraction unit, 24 Position identification unit, 25 Status evaluation unit, 26 Display information generation unit, 27 display processing unit, 30 communication unit, 31 division unit, 32 area deformation level determination unit, 33 comprehensive evaluation unit, 34 abnormality determination unit, 35 level determination unit, 41 captured image information table, 42 related information Table, 43 incidental equipment information table, 51 imaging unit, 80 display image, 81, 82, 83, 84 display area, 85, 86 buttons, 87 incidental equipment status information display area, R, R1 to R9 area.

Claims (11)

構造物の付帯設備の画像と前記構造物の画像とを含む撮像画像の情報を取得する情報取得部と、
前記情報取得部によって取得された前記撮像画像の情報から前記付帯設備の画像の情報を抽出する付帯設備画像抽出部と、
前記付帯設備画像抽出部によって抽出された前記付帯設備の画像の情報に基づいて、前記付帯設備におけるメッシュ状に区画された複数の領域の各々の変状レベルを判定する状態評価部と、
前記複数の領域の各々の変状レベルの情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する表示情報生成部と、を備える
ことを特徴とする付帯設備状態評価装置。
An information acquisition unit that acquires information on a captured image including an image of ancillary equipment of a structure and an image of the structure.
Ancillary equipment image extraction unit that extracts image information of the ancillary equipment from the information of the captured image acquired by the information acquisition unit, and
Based on the information of the image of the ancillary equipment extracted by the ancillary equipment image extraction unit, a state evaluation unit that determines the deformation level of each of a plurality of regions divided in a mesh shape in the ancillary equipment.
Ancillary equipment state evaluation device comprising: a display information generation unit which generates display information which associates the information of the deformation level of each of the plurality of regions with the information of the image of the ancillary equipment.
前記状態評価部は、
前記付帯設備の画像を前記複数の領域に分割する分割部と、
前記分割部によって分割された前記複数の領域の各々の画像の情報に基づいて、前記複数の領域の各々の変状レベルを判定する領域変状レベル判定部と、を備える
ことを特徴とする請求項1に記載の付帯設備状態評価装置。
The state evaluation unit
A division portion that divides the image of the ancillary equipment into the plurality of areas, and
A claim comprising a region deformation level determination unit for determining the deformation level of each of the plurality of regions based on the information of each image of the plurality of regions divided by the division unit. Item 2. Ancillary equipment condition evaluation device according to item 1.
前記領域変状レベル判定部は、
前記分割部によって分割された前記複数の領域の各々の画像の情報に基づいて、前記複数の領域の各々に異常があるか否かを判定する異常判定部と、
前記異常判定部によって異常であると判定された領域の変状レベルを判定するレベル判定部と、を備える
ことを特徴とする請求項2に記載の付帯設備状態評価装置。
The area deformation level determination unit
An abnormality determination unit that determines whether or not there is an abnormality in each of the plurality of regions based on the information of each image of the plurality of regions divided by the division unit.
The incidental equipment state evaluation device according to claim 2, further comprising a level determination unit for determining a deformation level of a region determined to be abnormal by the abnormality determination unit.
前記状態評価部は、
前記付帯設備の画像の情報に基づいて、前記付帯設備の異常箇所を判定する異常判定部と、
前記複数の領域のうち前記異常判定部によって異常であると判定された異常箇所を含む領域の変状レベルを判定するレベル判定部と、を備える
ことを特徴とする請求項1に記載の付帯設備状態評価装置。
The state evaluation unit
An abnormality determination unit that determines an abnormal part of the ancillary equipment based on the information of the image of the ancillary equipment, and
The ancillary equipment according to claim 1, further comprising a level determination unit for determining the deformation level of the region including the abnormality portion determined to be abnormal by the abnormality determination unit among the plurality of regions. Condition evaluation device.
前記レベル判定部は、
前記撮像画像に同一種別の前記付帯設備の画像が複数含まれている場合に、前記複数の領域の各々について前記変状レベルの平均値を演算し、
前記表示情報生成部は、
前記複数の領域の各々の変状レベルの情報に加え前記変状レベルの平均値の情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する
ことを特徴とする請求項3または4に記載の付帯設備状態評価装置。
The level determination unit
When the captured image contains a plurality of images of the incidental equipment of the same type, the average value of the deformation level is calculated for each of the plurality of regions.
The display information generation unit
According to claim 3 or 4, in addition to the information on the deformation level of each of the plurality of regions, the information on the average value of the deformation level is associated with the information on the image of the ancillary equipment to generate display information. The described incidental equipment condition evaluation device.
前記状態評価部は、
前記複数の領域の各々の変状レベルに基づいて、前記複数の領域を含む前記付帯設備単位の変状度合いを判定する総合評価部を備え、
前記表示情報生成部は、
前記複数の領域の各々の変状レベルの情報に加え前記付帯設備単位の変状度合いの情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する
ことを特徴とする請求項1から5のいずれか一つに記載の付帯設備状態評価装置。
The state evaluation unit
A comprehensive evaluation unit for determining the degree of deformation of the incidental equipment unit including the plurality of regions based on the deformation level of each of the plurality of regions is provided.
The display information generation unit
Claims 1 to 5 include generating display information in which information on the degree of deformation of the incidental equipment unit is associated with information on an image of the incidental equipment in addition to information on the deformation level of each of the plurality of regions. Ancillary equipment condition evaluation device according to any one of.
前記構造物における前記付帯設備の位置を特定する位置特定部を備え、
前記撮像画像は、同一種別の付帯設備の画像が複数含まれる画像であり、
前記表示情報生成部は、
前記複数の領域の各々の変状レベルの情報に加え前記付帯設備の位置の情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する
ことを特徴とする請求項6に記載の付帯設備状態評価装置。
A position specifying part for specifying the position of the ancillary equipment in the structure is provided.
The captured image is an image including a plurality of images of ancillary equipment of the same type.
The display information generation unit
The ancillary equipment according to claim 6, wherein in addition to the information on the deformation level of each of the plurality of regions, the information on the position of the ancillary equipment is associated with the information on the image of the ancillary equipment to generate display information. Condition evaluation device.
前記撮像画像は、走行型計測装置に搭載された撮像部が前記走行型計測装置の走行時に繰り返し撮像して得られる画像であり、
前記位置特定部は、
前記撮像画像のうち前記付帯設備の領域が前記撮像部によって撮像された時刻に基づいて、複数の前記付帯設備の各々の位置を特定する
ことを特徴とする請求項7に記載の付帯設備状態評価装置。
The captured image is an image obtained by repeatedly capturing an image captured by an imaging unit mounted on the traveling type measuring device while the traveling type measuring device is traveling.
The position specifying part is
The incidental equipment state evaluation according to claim 7, wherein the position of each of the plurality of incidental equipments is specified based on the time when the region of the incidental equipment in the captured image is imaged by the imaging unit. apparatus.
前記撮像画像は、走行型計測装置に搭載された撮像部が前記走行型計測装置の走行時に繰り返し撮像して得られる画像であり、
前記位置特定部は、
複数の前記付帯設備の各々に前記撮像部による撮像順に識別情報を付与することで、複数の前記付帯設備の各々の位置を特定する
ことを特徴とする請求項7に記載の付帯設備状態評価装置。
The captured image is an image obtained by repeatedly capturing an image captured by an imaging unit mounted on the traveling type measuring device while the traveling type measuring device is traveling.
The position specifying part is
The ancillary equipment state evaluation apparatus according to claim 7, wherein identification information is given to each of the plurality of ancillary equipment in the order of imaging by the imaging unit to specify the position of each of the plurality of ancillary equipment. ..
コンピュータによって実行される付帯設備状態評価方法であって、
構造物の付帯設備の画像と前記構造物の画像とを含む撮像画像の情報を取得する情報取得ステップと、
前記情報取得ステップによって取得された前記撮像画像の情報から前記付帯設備の画像の情報を抽出する付帯設備画像抽出ステップと、
前記付帯設備画像抽出ステップによって抽出された前記付帯設備の画像の情報に基づいて、前記付帯設備におけるメッシュ状に区画された複数の領域の各々の変状レベルを判定する状態評価ステップと、
前記複数の領域の各々の変状レベルの情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する表示情報生成ステップと、を含む
ことを特徴とする付帯設備状態評価方法。
Ancillary equipment condition evaluation method executed by a computer
An information acquisition step for acquiring information on a captured image including an image of ancillary equipment of a structure and an image of the structure, and
Ancillary equipment image extraction step for extracting image information of the ancillary equipment from the information of the captured image acquired by the information acquisition step, and
Based on the information of the image of the ancillary equipment extracted by the ancillary equipment image extraction step, a state evaluation step of determining the deformation level of each of a plurality of regions divided in a mesh shape in the ancillary equipment, and a state evaluation step.
A method for evaluating ancillary equipment state, which comprises a display information generation step of generating display information in which information on the deformation level of each of the plurality of regions is associated with image information of the ancillary equipment.
構造物の付帯設備の画像と前記構造物の画像とを含む撮像画像の情報を取得する情報取得ステップと、
前記情報取得ステップによって取得された前記撮像画像の情報から前記付帯設備の画像の情報を抽出する付帯設備画像抽出ステップと、
前記付帯設備画像抽出ステップによって抽出された前記付帯設備の画像の情報に基づいて、前記付帯設備におけるメッシュ状に区画された複数の領域の各々の変状レベルを判定する状態評価ステップと、
前記複数の領域の各々の変状レベルの情報を前記付帯設備の画像の情報に関連付けた表示情報を生成する表示情報生成ステップと、をコンピュータに実行させる
ことを特徴とする付帯設備状態評価プログラム。
An information acquisition step for acquiring information on a captured image including an image of ancillary equipment of a structure and an image of the structure, and
Ancillary equipment image extraction step for extracting image information of the ancillary equipment from the information of the captured image acquired by the information acquisition step, and
Based on the information of the image of the ancillary equipment extracted by the ancillary equipment image extraction step, a state evaluation step of determining the deformation level of each of a plurality of regions divided in a mesh shape in the ancillary equipment, and a state evaluation step.
An incidental equipment state evaluation program characterized by causing a computer to execute a display information generation step of generating display information in which information on the deformation level of each of the plurality of regions is associated with image information of the incidental equipment.
JP2019061848A 2019-03-27 2019-03-27 Incidental equipment condition evaluation device, incidental equipment condition evaluation method, and incidental equipment condition evaluation program Active JP7154172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061848A JP7154172B2 (en) 2019-03-27 2019-03-27 Incidental equipment condition evaluation device, incidental equipment condition evaluation method, and incidental equipment condition evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061848A JP7154172B2 (en) 2019-03-27 2019-03-27 Incidental equipment condition evaluation device, incidental equipment condition evaluation method, and incidental equipment condition evaluation program

Publications (2)

Publication Number Publication Date
JP2020159969A true JP2020159969A (en) 2020-10-01
JP7154172B2 JP7154172B2 (en) 2022-10-17

Family

ID=72642941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061848A Active JP7154172B2 (en) 2019-03-27 2019-03-27 Incidental equipment condition evaluation device, incidental equipment condition evaluation method, and incidental equipment condition evaluation program

Country Status (1)

Country Link
JP (1) JP7154172B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097275A1 (en) * 2020-11-06 2022-05-12 株式会社インキュビット Information processing system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144200A (en) * 1997-07-25 1999-02-16 Toshiba Corp Road tunnel comprehensively monitoring control device
JP2004037419A (en) * 2002-07-08 2004-02-05 Nakata Sokuryo:Kk Tunnel control chart and its system
JP2006112127A (en) * 2004-10-15 2006-04-27 Hitachi Ltd Road control system
JP2007280282A (en) * 2006-04-11 2007-10-25 Oriental Consultants:Kk Inspection recording system of construction
JP2011031643A (en) * 2009-07-30 2011-02-17 Railway Technical Res Inst Condition monitoring system for railway overhead line installation
WO2016006283A1 (en) * 2014-07-10 2016-01-14 三菱電機株式会社 Structure maintenance management system
JP6337226B1 (en) * 2018-03-02 2018-06-06 株式会社エネルギア・コミュニケーションズ Abnormal point detection system
WO2018138912A1 (en) * 2017-01-30 2018-08-02 三菱電機株式会社 Facility maintenance system and facility information providing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144200A (en) * 1997-07-25 1999-02-16 Toshiba Corp Road tunnel comprehensively monitoring control device
JP2004037419A (en) * 2002-07-08 2004-02-05 Nakata Sokuryo:Kk Tunnel control chart and its system
JP2006112127A (en) * 2004-10-15 2006-04-27 Hitachi Ltd Road control system
JP2007280282A (en) * 2006-04-11 2007-10-25 Oriental Consultants:Kk Inspection recording system of construction
JP2011031643A (en) * 2009-07-30 2011-02-17 Railway Technical Res Inst Condition monitoring system for railway overhead line installation
WO2016006283A1 (en) * 2014-07-10 2016-01-14 三菱電機株式会社 Structure maintenance management system
WO2018138912A1 (en) * 2017-01-30 2018-08-02 三菱電機株式会社 Facility maintenance system and facility information providing method
JP6337226B1 (en) * 2018-03-02 2018-06-06 株式会社エネルギア・コミュニケーションズ Abnormal point detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097275A1 (en) * 2020-11-06 2022-05-12 株式会社インキュビット Information processing system

Also Published As

Publication number Publication date
JP7154172B2 (en) 2022-10-17

Similar Documents

Publication Publication Date Title
WO2019117065A1 (en) Data generation device, data generation method and data generation program
JP2016502216A (en) Method and system for improved automated visual inspection of physical assets
CN110428394B (en) Method, apparatus and computer storage medium for target movement detection
WO2020110164A1 (en) Display data generation device, display data generation method, and display data generation program
JP2021196705A (en) Image processing system, image processing method and program
JP2018181333A5 (en)
TW201814326A (en) Weather data processing apparatus and method using weather radar
JP6926486B2 (en) Information processing equipment, information processing methods and programs
JP2020159969A (en) Auxiliary facility state evaluation device, auxiliary facility state evaluation method, and auxiliary facility state evaluation program
JP6980208B2 (en) Structure maintenance work support system
JP6786015B1 (en) Motion analysis system and motion analysis program
JP2024019350A (en) Information processing apparatus, information processing method, and program
JP2022062915A (en) Information processor, method for processing information, and program
JP2019164450A (en) Image processing method, computer program and recording medium
CN112233139A (en) System and method for detecting motion during 3D data reconstruction
CN110824451A (en) Processing method and device of radar echo map, computer equipment and storage medium
US20190096109A1 (en) Information processing apparatus, system of assessing structural object, method of assessing structural object and storage medium
US20210304417A1 (en) Observation device and observation method
JP2020008481A (en) Image processing apparatus, image processing method, and image processing program
JP6350988B2 (en) Camera for diagnosing bridge damage
JP6389120B2 (en) Data processing apparatus, data processing method, and program
JP7188798B2 (en) Coordinate calculation device, coordinate calculation method, and program
WO2020075468A1 (en) Environmental similarity display device, environmental similarity display method, and environmental similarity display algorithm
JP2011141664A (en) Device, method and program for comparing document
JP3447716B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150