JP6833452B2 - Patrol inspection system, information processing device, patrol inspection control program - Google Patents

Patrol inspection system, information processing device, patrol inspection control program Download PDF

Info

Publication number
JP6833452B2
JP6833452B2 JP2016212167A JP2016212167A JP6833452B2 JP 6833452 B2 JP6833452 B2 JP 6833452B2 JP 2016212167 A JP2016212167 A JP 2016212167A JP 2016212167 A JP2016212167 A JP 2016212167A JP 6833452 B2 JP6833452 B2 JP 6833452B2
Authority
JP
Japan
Prior art keywords
image
abnormal
abnormality
learning model
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016212167A
Other languages
Japanese (ja)
Other versions
JP2018074757A (en
Inventor
晋一 樫本
晋一 樫本
惠補 三田
惠補 三田
朗 藤井
朗 藤井
章 馬瀬
章 馬瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016212167A priority Critical patent/JP6833452B2/en
Publication of JP2018074757A publication Critical patent/JP2018074757A/en
Priority to JP2021015785A priority patent/JP7087130B2/en
Application granted granted Critical
Publication of JP6833452B2 publication Critical patent/JP6833452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、飛行体などを用いた巡視点検システム、情報処理装置、巡視点検制御プログラムに関する。 The present invention relates to a patrol inspection system, an information processing device, and a patrol inspection control program using a flying object or the like.

従来、架空送電線(以下、送電線と称する)などの送電設備に対する定期点検や事故発生時の巡視は、巡視員がヘリコプターに同乗して送電線に沿って飛行して双眼鏡で送電線を見ながら異常個所の有無を確認したり、送電設備を徒歩で移動しながら確認したりしていた。 Conventionally, for periodic inspections of power transmission equipment such as overhead power transmission lines (hereinafter referred to as power transmission lines) and patrols in the event of an accident, a patrolman rides on a helicopter and flies along the power transmission line to see the power transmission line with binoculars. However, he was checking for abnormalities and checking the power transmission equipment while moving on foot.

また、ヘリコプターから送電線の画像撮影を行って、撮影した画像を巡視員が見て送電線の素線切れやアーク痕(雷痕)の有無の点検などをすることもなされている。 In addition, an image of a transmission line is taken from a helicopter, and a patrolman looks at the taken image to inspect the transmission line for a broken wire or an arc mark (lightning mark).

特開2005−57956号公報Japanese Unexamined Patent Publication No. 2005-57956

しかしながら、巡視員による双眼鏡を持っての点検/巡視は、巡視員の負担となっており、また、異常個所を見過ごすおそれがあった。 However, inspection / patrol by the patrolman with binoculars is a burden on the patrolman, and there is a risk that an abnormal part may be overlooked.

また、ヘリコプターを使用した送電設備の点検/巡視は、ヘリコプターを利用するための費用の他、ヘリコプターの操縦士の他に複数の巡視員を搭乗させるため、点検/巡視のための費用が高くなるほか、急に点検/巡視が必要になった場合に簡易かつ迅速に対応することができない。 In addition to the cost of using a helicopter, inspection / patrol of power transmission equipment using a helicopter requires a plurality of patrols in addition to the helicopter pilot, so the cost for inspection / patrol is high. In addition, if an inspection / patrol is suddenly required, it cannot be handled simply and quickly.

また、画像撮影による送電線の点検作業も、撮影された全ての画像を巡視員が見ながら異常個所を検出しているため、迅速かつ正確な点検が行えないという問題がある。さらに、画像に対して画像処理の技術を利用して素線切れやアーク痕を検出する技術も考えられているが、撮影される画像の品質が撮影環境の変動のため一定では無く、また検出対象とする素線切れやアーク痕などの異常箇所の状態も様々であり、安定して異常箇所を検出することが困難となっている。 In addition, the inspection work of the transmission line by taking an image also has a problem that a quick and accurate inspection cannot be performed because an abnormal part is detected while the patrolman is looking at all the taken images. Furthermore, a technique for detecting wire breaks and arc marks on an image using image processing technology has been considered, but the quality of the captured image is not constant due to fluctuations in the shooting environment and is detected. There are various states of abnormal parts such as broken wires and arc marks, which make it difficult to stably detect abnormal parts.

本発明が解決しようとする課題は、送電設備に生じた異常箇所を画像処理によって安定して検出することが可能な巡視点検システム、情報処理装置、巡視点検制御プログラムを提供することである。 An object to be solved by the present invention is to provide a patrol inspection system, an information processing device, and a patrol inspection control program capable of stably detecting an abnormal portion generated in a power transmission facility by image processing.

実施形態によれば、巡視点検システムは、航空機などに搭載されたカメラにより撮影された画像データをもとに被点検物について巡視点検する。巡視点検システムは、管理装置と情報処理装置とを含む。前記管理装置は、前記被点検物に生じた異常を画像中から検出するための学習モデルを生成する学習モデル生成手段を有する。前記情報処理装置は、記憶手段と、入力手段と、異常箇所検出手段と、異常箇所表示手段とを含む。記憶手段は、前記管理装置により生成された学習モデルを記憶する。入力手段は、前記画像データを入力する。異常箇所検出手段は、前記学習モデルをもとに前記画像データから前記被点検物に異常が生じた異常箇所の画像データを検出する。異常箇所表示手段は、前記異常箇所の画像データをもとに異常箇所の画像を表示する。前記学習モデル生成手段は、前記被点検物に生じた異常箇所を表す異常画像と、前記異常箇所の周辺にある異常箇所ではない少なくとも1つの正常画像とを組み合わせた類似画像をもとに、前記学習モデルを生成する。 According to the embodiment, the patrol inspection system patrols and inspects the object to be inspected based on the image data taken by the camera mounted on the aircraft or the like. The patrol inspection system includes a management device and an information processing device. The management device has a learning model generating means for generating a learning model for detecting an abnormality occurring in the object to be inspected from the image. The information processing device includes a storage means, an input means, an abnormal portion detecting means, and an abnormal portion displaying means. The storage means stores the learning model generated by the management device. The input means inputs the image data. The abnormality location detecting means detects the image data of the abnormality portion where the abnormality has occurred in the inspected object from the image data based on the learning model. The abnormal portion display means displays an image of the abnormal portion based on the image data of the abnormal portion. The learning model generating means is based on a similar image obtained by combining an abnormal image showing an abnormal portion generated in the object to be inspected and at least one normal image that is not an abnormal portion around the abnormal portion. Generate a learning model.

本実施形態における巡視点検システムの構成を示すブロック図。The block diagram which shows the structure of the patrol inspection system in this embodiment. 本実施形態における巡視点検システムの構成を示すブロック図。The block diagram which shows the structure of the patrol inspection system in this embodiment. 本実施形態における情報処理装置の構成を示すブロック図。The block diagram which shows the structure of the information processing apparatus in this embodiment. 本実施形態における情報処理装置における機能構成を示すブロック図。The block diagram which shows the functional structure in the information processing apparatus in this embodiment. 本実施形態におけるドローンの外観の一例を示す図。The figure which shows an example of the appearance of the drone in this embodiment. 本実施形態におけるドローンの主要な構成を示すブロック図。The block diagram which shows the main structure of the drone in this embodiment. 本実施形態における管理装置における機能構成を示すブロック図。The block diagram which shows the functional structure in the management apparatus in this embodiment. 本実施形態における管理装置により実行される学習モデル生成処理を説明するためのフローチャート。The flowchart for demonstrating the learning model generation process executed by the management apparatus in this embodiment. 本実施形態における異常画像の領域と正常画像の領域の一例を示す図。The figure which shows an example of the region of an abnormal image and the region of a normal image in this embodiment. 本実施形態における異常画像の領域と正常画像の領域の一例を示す図。The figure which shows an example of the region of an abnormal image and the region of a normal image in this embodiment. 本実施形態における異常画像の領域と正常画像の領域の一例を示す図。The figure which shows an example of the region of an abnormal image and the region of a normal image in this embodiment. 本実施形態における正常画像/異常画像組み合わせ制御部による異常画像と正常画像の組み合わせを概念的に示す図。The figure which conceptually shows the combination of the abnormal image and the normal image by the normal image / abnormal image combination control part in this embodiment. 本実施形態における指標/条件関連記憶部により記憶される生成画像条件と再現率の関連性を示す図。The figure which shows the relationship between the generated image condition and the recall rate stored by the index / condition-related storage part in this embodiment. 本実施形態における指標/条件関連記憶部により記憶される生成画像条件と適合率の関連性を示す図。The figure which shows the relationship between the generated image condition stored by the index / condition-related storage part in this embodiment, and the precision rate. 本実施形態における巡回/点検ルート選択画面の一例を示す図。The figure which shows an example of the patrol / inspection route selection screen in this embodiment. 本実施形態におけるドローンのフライトプランを説明するための図。The figure for demonstrating the flight plan of the drone in this embodiment. 本実施形態におけるドローンのフライトプランを説明するための図。The figure for demonstrating the flight plan of the drone in this embodiment. 本実施形態における送電設備に設けられる被点検物の一例を示す図。The figure which shows an example of the object to be inspected provided in the power transmission facility in this embodiment. 本実施形態における送電設備に設けられる被点検物の一例を示す図。The figure which shows an example of the object to be inspected provided in the power transmission facility in this embodiment. 本実施形態における送電設備に設けられる被点検物の一例を示す図。The figure which shows an example of the object to be inspected provided in the power transmission facility in this embodiment. 本実施形態におけるフライトプラン処理部によって生成されるフライトプラン(飛行制御データ)の一例を示す図。The figure which shows an example of the flight plan (flight control data) generated by the flight plan processing part in this embodiment. 本実施形態における取得データ生成部により生成される取得データの一例を示す図。The figure which shows an example of the acquired data generated by the acquired data generation part in this embodiment. 本実施形態における取得データ生成部により生成される取得データの一例を示す図。The figure which shows an example of the acquired data generated by the acquired data generation part in this embodiment. 本実施形態における検査対象項目選択画面の一例を示す図。The figure which shows an example of the inspection target item selection screen in this embodiment. 本実施形態における情報処理装置における取得データ管理処理を示すフローチャート。The flowchart which shows the acquisition data management processing in the information processing apparatus in this embodiment. 本実施形態における異常箇所検出処理を説明するフローチャート。The flowchart explaining the abnormality place detection process in this embodiment. 本実施形態における異常候補画像表示画面の一例を示す図。The figure which shows an example of the abnormality candidate image display screen in this embodiment. 本実施形態における異常箇所確認画面の一例を示す図。The figure which shows an example of the abnormality part confirmation screen in this embodiment.

以下、実施形態について図面を参照して説明する。
図1及び図2は、本実施形態における巡視点検システム1の構成を示すブロック図である。本実施形態における巡視点検システム1は、例えば発電所や変電所から送電するための送電設備(送電線、鉄塔)17について、通常時あるいは事故発生時において航空機、例えば無人航空機(以下、ドローン14と称する)を利用して、巡視点検するためのシステムである。巡視点検システム1は、ドローン14と、ドローン14に搭載されたカメラにより撮影された画像データをもとに、送電設備17に含まれる複数の異なる被点検物(例えば、架空地線、送電線、碍子、閃絡表示器、アークホーン、鉄塔、鉄塔基礎コンクリートなど)に生じた異常箇所を検出し、この検出結果を巡視点検結果報告として記録する巡視点検制御システム2により構成される。本実施形態では、巡視点検制御システム2は、例えば情報処理装置10とネットワーク15を介して接続される管理装置12により構成する。ただし、巡視点検制御システム2を1つの装置として実現することも可能である。また、管理装置12は、クラウドコンピューティングにより実現されるものとし、ネットワーク15(インターネット)を介して接続された1台のサーバ、あるいは複数のサーバが協働して動作することで実現されても良い。
Hereinafter, embodiments will be described with reference to the drawings.
1 and 2 are block diagrams showing the configuration of the patrol inspection system 1 according to the present embodiment. In the patrol inspection system 1 of the present embodiment, for example, regarding the power transmission equipment (transmission line, steel tower) 17 for transmitting power from a power plant or a substation, an aircraft, for example, an unmanned aerial vehicle (hereinafter referred to as a drone 14) is used during normal times or when an accident occurs. It is a system for patrol inspection using (referred to as). The patrol inspection system 1 is based on the image data taken by the drone 14 and the camera mounted on the drone 14, and a plurality of different objects to be inspected (for example, overhead ground wire, transmission line, etc.) included in the power transmission facility 17. It is composed of a patrol inspection control system 2 that detects abnormal parts that occur in insulators, flash indicators, arc horns, steel towers, steel tower foundation concrete, etc., and records the detection results as a patrol inspection result report. In the present embodiment, the patrol inspection control system 2 is composed of, for example, a management device 12 connected to the information processing device 10 via a network 15. However, it is also possible to realize the patrol inspection control system 2 as one device. Further, the management device 12 is realized by cloud computing, and even if it is realized by one server connected via the network 15 (Internet) or a plurality of servers operating in cooperation with each other. good.

図1及び図2に示すように、巡視点検システム1は、巡視点検制御システム2(情報処理装置10、管理装置12)、及びドローン14を含む。
情報処理装置10は、ドローン14の航行の管理/制御、ドローン14から取得される取得データ(画像データ(動画像、静止画像)、位置データ等を含む)の整理/管理、ドローン14からの取得データに対する処理結果をまとめる巡視/点検管理などの処理を実行する。情報処理装置10は、例えばドローン14と共に巡視点検対象とする送電設備17の近くまで搬送されて使用され、ドローン14により撮影された画像データをもとにした被点検物に生じた異常箇所の検出、異常箇所の画像の確認処理などが実行される。
As shown in FIGS. 1 and 2, the patrol inspection system 1 includes a patrol inspection control system 2 (information processing device 10, management device 12), and a drone 14.
The information processing device 10 manages / controls the navigation of the drone 14, organizes / manages the acquired data (including image data (moving image, still image), position data, etc.) acquired from the drone 14, and acquires from the drone 14. Performs processing such as patrol / inspection management that summarizes the processing results for the data. The information processing device 10 is used by being transported to the vicinity of the power transmission facility 17 to be inspected by the drone 14 together with the drone 14, and detects an abnormal portion generated in the inspected object based on the image data taken by the drone 14. , Confirmation process of the image of the abnormal part is executed.

管理装置12は、情報処理装置10における画像データをもとに、被点検物に生じた異常箇所を検出するための画像処理に用いる学習モデルの生成、情報処理装置10において作成された処理結果の記録等を実行する。 The management device 12 generates a learning model used for image processing for detecting an abnormal portion generated in an inspected object based on the image data in the information processing device 10, and generates a processing result created in the information processing device 10. Perform recording, etc.

ドローン14は、情報処理装置10により設定される送電設備17を巡回するためのフライトプラン(飛行制御データ)をもとに、GNSS(Global Navigation Satellite System))を利用して生成される位置データ等、例えばGPS(Global Positioning System)衛星16から受信されるGPS信号から生成する位置データ等を利用して自律飛行し、巡視点検対象とする送電設備17を撮影して画像データを記憶する。なお、ドローン14は、飛行中にリアルタイムで飛行制御データを情報処理装置10から受信して、情報処理装置10に対する作業者による操作に応じて、マニュアル制御により飛行することも可能である。 The drone 14 has position data and the like generated by using GNSS (Global Navigation Satellite System) based on a flight plan (flight control data) for patrolling the power transmission facility 17 set by the information processing device 10. For example, it makes an autonomous flight using position data or the like generated from a GPS signal received from a GPS (Global Positioning System) satellite 16, takes a picture of a power transmission facility 17 to be patrol-inspected, and stores image data. The drone 14 can also receive flight control data from the information processing device 10 in real time during flight and fly by manual control according to the operation of the information processing device 10 by the operator.

図3は、本実施形態における情報処理装置10の構成を示すブロック図である。情報処理装置10は、例えばパーソナルコンピュータによって実現される。情報処理装置10は、プロセッサ10a、メモリ10b、記憶装置10c、入出力インタフェース(I/F)10d、表示装置10e、入力装置10f、無線通信装置10g、通信装置10hを有する。 FIG. 3 is a block diagram showing the configuration of the information processing device 10 according to the present embodiment. The information processing device 10 is realized by, for example, a personal computer. The information processing device 10 includes a processor 10a, a memory 10b, a storage device 10c, an input / output interface (I / F) 10d, a display device 10e, an input device 10f, a wireless communication device 10g, and a communication device 10h.

プロセッサ10aは、メモリ10bに記憶された基本プログラム(OS)やアプリケーションプログラムを実行して、各種の機能を実現する。例えば、プロセッサ10aは、巡視点検制御プログラムを実行することで、ドローン14の飛行を管理し、ドローン14により撮影された画像をもとに、送電施設の被点検物に生じた異常箇所を検出し、その検出結果をもとに巡視点検結果をまとめる処理を実行する(図4参照)。 The processor 10a executes a basic program (OS) or an application program stored in the memory 10b to realize various functions. For example, the processor 10a manages the flight of the drone 14 by executing the patrol inspection control program, and detects an abnormal part generated in the inspected object of the power transmission facility based on the image taken by the drone 14. , The process of summarizing the patrol inspection results based on the detection results is executed (see FIG. 4).

メモリ10bは、プロセッサ10aにより実行されるプログラムや一時的なデータ等を記憶する。 The memory 10b stores a program executed by the processor 10a, temporary data, and the like.

記憶装置10cは、各種のプログラムや各種データが記憶される。記憶装置10cに記憶されるデータには、ドローン14の航行を制御するための飛行制御データ、ドローン14から受信される取得データ(画像データ、位置データ)、画像データから被点検物に生じた異常箇所を検出するための画像処理に用いる学習モデルデータ、異常箇所の画像データ、巡視点検結果をまとめた巡視点検データなどを含む。 The storage device 10c stores various programs and various data. The data stored in the storage device 10c includes flight control data for controlling the navigation of the drone 14, acquired data (image data, position data) received from the drone 14, and abnormalities caused in the object to be inspected from the image data. Includes learning model data used for image processing to detect locations, image data of abnormal locations, patrol inspection data summarizing patrol inspection results, and the like.

入出力I/F10dは、外部機器とデータを送受信するためのインタフェースである。入出力I/F10dは、例えば可搬型のメモリ媒体を介してデータを入出力することができる。 The input / output I / F10d is an interface for transmitting / receiving data to / from an external device. The input / output I / F10d can input / output data via, for example, a portable memory medium.

表示装置10eは、LCD(Liquid Crystal Display)などであり、プロセッサ10aの処理に応じた画面を表示させる。入力装置10fは、キーボードやポインティングデバイスなどであり、作業者等により操作される。 The display device 10e is an LCD (Liquid Crystal Display) or the like, and displays a screen corresponding to the processing of the processor 10a. The input device 10f is a keyboard, a pointing device, or the like, and is operated by an operator or the like.

無線通信装置10gは、無線通信を制御するもので、ドローン14との間、あるいは無線公衆網に収容された基地局との間の無線通信を制御する。 The wireless communication device 10g controls wireless communication, and controls wireless communication with the drone 14 or with a base station housed in the wireless public network.

通信装置10hは、ネットワーク15を通じた外部装置、例えば管理装置12、ドローン14、他の情報処理装置10との通信を制御する。ネットワーク15は、無線あるいは有線によるWAN(Wide Area Network)、LAN(Local Area Network)等を含む。 The communication device 10h controls communication with an external device, for example, a management device 12, a drone 14, and another information processing device 10 through the network 15. The network 15 includes a wireless or wired WAN (Wide Area Network), a LAN (Local Area Network), and the like.

図4は、本実施形態における情報処理装置10において、プロセッサ10aにより巡視点検制御プログラムを実行することにより実現される機能構成を示すブロック図である。 FIG. 4 is a block diagram showing a functional configuration realized by executing a patrol inspection control program by the processor 10a in the information processing apparatus 10 according to the present embodiment.

情報処理装置10は、巡視点検制御プログラムに基づいて、例えば航行管理部20、取得データ整理管理部21、巡視点検管理部22の機能を実現する。 The information processing device 10 realizes the functions of, for example, the navigation management unit 20, the acquired data organization management unit 21, and the patrol inspection management unit 22 based on the patrol inspection control program.

航行管理部20は、ドローン14の航行の管理/制御をするもので、巡視点検指示入力部20a、フライトプラン処理部20bを含む。 The navigation management unit 20 manages / controls the navigation of the drone 14, and includes a patrol inspection instruction input unit 20a and a flight plan processing unit 20b.

巡視点検指示入力部20aは、例えば作業員による入力装置10fに対する入力操作によって、例えば表示装置10eに表示させた選択メニューに対する選択に応じて巡視点検の内容についての指示を入力する。巡視点検の内容として
は、例えば巡視点検の対象とする送電設備17の指定、検査対象とする送電設備17に含まれる被点検物の指定、検査対象とする異常種類(アーク痕など)がある。
The patrol inspection instruction input unit 20a inputs an instruction regarding the content of the patrol inspection, for example, by an input operation to the input device 10f by an operator, for example, according to a selection for a selection menu displayed on the display device 10e. The contents of the patrol inspection include, for example, designation of the power transmission equipment 17 to be inspected, designation of the object to be inspected included in the power transmission equipment 17 to be inspected, and abnormal types (arc marks, etc.) to be inspected.

フライトプラン処理部20bは、巡視点検指示入力部20aにおいて入力された巡視点検の内容に応じたフライトプラン、すなわち巡視点検の対象とする被点検物を撮影することができる経路をドローン14に航行させる飛行制御データを生成する。なお、巡視点検指示入力部20aは、ネットワーク15を通じて外部から取得される情報、例えば気象情報や地図情報などを利用してフライトプランを生成することができる。 The flight plan processing unit 20b causes the drone 14 to navigate a flight plan according to the contents of the patrol inspection input in the patrol inspection instruction input unit 20a, that is, a route capable of photographing the object to be inspected for the patrol inspection. Generate flight control data. The patrol inspection instruction input unit 20a can generate a flight plan by using information acquired from the outside through the network 15, such as weather information and map information.

取得データ整理管理部21は、ドローン14から取得される取得データ(画像データ(動画像、静止画像)、位置データ等を含む)の整理/管理をするもので、学習モデル記憶部21a、検出対象指示入力部21b、異常箇所検出部21c、取得データ記憶部21d、画像確認部21e、異常箇所表示部21f、異常箇所記憶部21g、確認指示入力部21h、確認データ記憶部21k、及び異常箇所画像データ記憶部21mを含む。 The acquired data organization management unit 21 organizes / manages the acquired data (including image data (moving image, still image), position data, etc.) acquired from the drone 14, and is a learning model storage unit 21a, a detection target. Instruction input unit 21b, abnormality location detection unit 21c, acquisition data storage unit 21d, image confirmation unit 21e, abnormality location display unit 21f, abnormality location storage unit 21g, confirmation instruction input unit 21h, confirmation data storage unit 21k, and abnormality location image. Includes a data storage unit 21m.

学習モデル記憶部21aは、管理装置12により生成された学習モデルを記憶する。学習モデルは、ドローン14から取得された画像データから被点検物に生じた異常を画像中から検出するためのもので、被点検物に生じる異常状態の特徴を表す。管理装置12では、ドローン14により撮影される撮影環境の変動等により画像データが一定でない、あるいは検出対象とする異常箇所が様々な状態である状況に対応できるように、被点検物に生じた異常箇所を確実に検出することができる学習モデルが生成される(学習モデルの生成の詳細については後述する)。被点検物に生じた異常としては、例えば送電線の場合にはアーク痕がある。アーク痕は、送電線に落雷があった場合に生じる異常であるため、頻繁に生じる事象ではなく、実際に生じた状態を撮影した画像データのサンプルが少ない。従って、実際に生じた異常箇所(アーク痕)の画像データをもとにした学習モデルのみでは、ドローン14により撮影された画像データから確実に異常箇所を検出することが困難となる。本実施形態では、管理装置12において、実際に生じた異常箇所の画像データだけでなく、被点検物に生じる異常/劣化の状態を表す擬似的な画像(類似画像)をニューラルネットワークを活用したディープラーニング(深層学習)の技術を利用して生成する。本実施形態では、ディープラーニング(深層学習)の技術を利用して、異常箇所の画像(異常画像)と異常箇所の周辺にある正常画像の組み合わせと、正常画像と異常画像とを組み合わせる比を変更しながら類似画像を生成することで、大量の類似画像に基づいた学習モデルを学習(生成)する。よって、管理装置12により生成された学習モデルを学習モデル21aに記憶させて、学習モデル21aに記憶された学習モデルを用いて画像データから異常箇所を探索することで、確実に被点検物に生じた異常箇所を検出できるようにすることができる。 The learning model storage unit 21a stores the learning model generated by the management device 12. The learning model is for detecting an abnormality occurring in the inspected object from the image data acquired from the drone 14, and represents a feature of the abnormal state occurring in the inspected object. In the management device 12, an abnormality has occurred in the object to be inspected so that the image data is not constant due to changes in the shooting environment taken by the drone 14, or the abnormal portion to be detected is in various states. A learning model that can reliably detect the location is generated (details of the generation of the learning model will be described later). As an abnormality that has occurred in the object to be inspected, for example, in the case of a transmission line, there is an arc mark. Since the arc mark is an abnormality that occurs when there is a lightning strike on the transmission line, it is not an event that occurs frequently, and there are few samples of image data that capture the actual state. Therefore, it is difficult to reliably detect the abnormal portion from the image data taken by the drone 14 only by the learning model based on the image data of the abnormal portion (arc mark) actually generated. In the present embodiment, in the management device 12, not only the image data of the abnormal portion actually generated but also the pseudo image (similar image) showing the abnormal / deteriorated state occurring in the inspected object is deeply utilized by the neural network. It is generated using learning (deep learning) technology. In the present embodiment, the combination of the image of the abnormal part (abnormal image) and the normal image around the abnormal part and the ratio of combining the normal image and the abnormal image are changed by using the technique of deep learning (deep learning). By generating similar images while learning (generating) a learning model based on a large number of similar images. Therefore, by storing the learning model generated by the management device 12 in the learning model 21a and searching for an abnormal part from the image data using the learning model stored in the learning model 21a, it surely occurs in the object to be inspected. It is possible to detect an abnormal part.

検出対象指示入力部21bは、巡視点検の対象とする送電設備17に含まれる被点検物、検出対象とする異常種類などの検出対象についての指示を巡視員の入力操作に応じて入力する。 The detection target instruction input unit 21b inputs an instruction regarding a detection target such as an object to be inspected included in the power transmission equipment 17 to be patrol-inspected and an abnormality type to be detected according to an input operation of the patrol staff.

異常箇所検出部21cは、取得データ記憶部21dに記憶された取得データから、学習モデル21aに記憶された学習モデル(被点検物の異常箇所の特徴)をもとにした画像処理により、検出対象指示入力部21bにより入力された検出対象の指示に応じた異常箇所を検出する。 The abnormality location detection unit 21c is a detection target by image processing based on the learning model (characteristics of the abnormality portion of the object to be inspected) stored in the learning model 21a from the acquired data stored in the acquisition data storage unit 21d. The abnormal portion corresponding to the instruction of the detection target input by the instruction input unit 21b is detected.

取得データ記憶部21dは、ドローン14から取得された取得データ(図23参照)を記憶する。取得データには、例えば、被点検物を撮影した動画像データ(静止画像データでも良い)、画像撮影時のドローン14の位置を示す位置データ(緯度、経度、高度)、被点検物(巡回/点検対象)毎の撮影をした期間(あるい開始タイミング)を判別するための巡回/点検対象データが含まれる。 The acquired data storage unit 21d stores the acquired data (see FIG. 23) acquired from the drone 14. The acquired data includes, for example, moving image data (still image data may be used) obtained by photographing the inspected object, position data (latitude, longitude, altitude) indicating the position of the drone 14 at the time of image taking, and inspected object (patrol / patrol / Includes patrol / inspection target data for determining the shooting period (or start timing) for each inspection target).

画像確認部21eは、取得データ記憶部21dに記憶された取得データ、あるいは異常箇所検出部21cによる処理結果に応じた画像を表示させる。画像確認部21eには、異常箇所表示部21fが含まれる。異常箇所表示部21fは、異常箇所検出部21cにより画像データから検出された異常箇所の候補とする部分の画像(異常候補画像)を表示する異常候補画像表示画面(図27参照)、異常箇所の候補とする異常候補画像について作業員等が最終確認するための異常箇所確認画面(図28参照)などを表示させる。 The image confirmation unit 21e displays the acquired data stored in the acquired data storage unit 21d or an image according to the processing result by the abnormality location detection unit 21c. The image confirmation unit 21e includes an abnormal portion display unit 21f. The abnormal part display unit 21f is an abnormality candidate image display screen (see FIG. 27) for displaying an image (abnormal candidate image) of a portion as a candidate for an abnormal part detected from image data by the abnormal part detecting unit 21c, and an abnormal part. An abnormality location confirmation screen (see FIG. 28) for the worker or the like to finally confirm the candidate abnormality candidate image is displayed.

異常箇所記憶部21gは、異常箇所検出部21cにより画像データから検出された異常箇所の候補とする異常箇所画像データを記憶する。異常箇所記憶部21gに記憶された異常箇所画像データは、取得データ整理管理部21に読み出されて異常候補画像表示画面あるいは異常箇所確認画面において表示される。 The abnormal location storage unit 21g stores the abnormal location image data as a candidate for the abnormal location detected from the image data by the abnormal location detection unit 21c. The abnormal location image data stored in the abnormal location storage unit 21g is read out by the acquired data organizing management unit 21 and displayed on the abnormal location candidate image display screen or the abnormal location confirmation screen.

確認指示入力部21hは、異常候補画像表示画面あるいは異常箇所確認画面に対する、作業員等による確認指示を入力する。異常箇所確認画面に対しては、異常候補画像を作業員が確認した結果、異常箇所(欠陥)であるか、誤認識(異常なし)であるかを指示することができ、また異常箇所については異常種類(例えば、アーク痕、素線切れ、炭付着、炭が剥がれた光沢)などを指示することができる。 The confirmation instruction input unit 21h inputs a confirmation instruction by a worker or the like to the abnormality candidate image display screen or the abnormality location confirmation screen. On the abnormality location confirmation screen, as a result of the worker confirming the abnormality candidate image, it is possible to instruct whether the abnormality location (defect) or erroneous recognition (no abnormality), and for the abnormality location, It is possible to indicate the type of abnormality (for example, arc mark, broken wire, charcoal adhesion, gloss from which charcoal is peeled off) and the like.

確認データ記憶部21kは、異常箇所確認画面において、異常候補画像が異常箇所であることが確認された画像データ(異常箇所画像データ)、検出対象とする被点検物、検出対象とする異常種類、検出位置、検出日時などを示す各データを確認データとして記憶する。確認データは、例えば、巡視点検管理部22において巡視点検データとして使用される。 On the abnormality location confirmation screen, the confirmation data storage unit 21k includes image data (abnormal location image data) in which the abnormality candidate image is confirmed to be an abnormality location, an object to be inspected to be detected, an abnormality type to be detected, and the abnormality type. Each data indicating the detection position, detection date and time, etc. is stored as confirmation data. The confirmation data is used as patrol inspection data in, for example, the patrol inspection management unit 22.

異常箇所画像データ記憶部21mは、管理装置12において学習モデルの生成に利用するために、異常箇所画像データ、検出対象とする被点検物及び検出対象とする異常種類を示すデータが記憶される。 The abnormality location image data storage unit 21m stores the abnormality location image data, the data to be inspected to be detected, and the data indicating the abnormality type to be detected in order to be used in the management device 12 for generating the learning model.

巡視点検管理部22は、ドローン14からの取得データに対する処理結果をまとめる巡視/点検管理をするもので、巡視点検データ記憶部22a、巡視点検結果報告作成部22bを含む。 The patrol inspection management unit 22 performs patrol / inspection management that summarizes the processing results of the data acquired from the drone 14, and includes the patrol inspection data storage unit 22a and the patrol inspection result report creation unit 22b.

巡視点検データ記憶部22aは、取得データ整理管理部21による処理結果とする巡視点検データを記憶する。巡視点検データには、例えば、異常箇所が検出された被点検物、異常箇所と確認された異常箇所画像データ、異常箇所の異常種類、異常箇所が検出された位置(被点検物における位置、被点検物における異常箇所の位置(緯度、経度)など)を含む。 The patrol inspection data storage unit 22a stores patrol inspection data as a processing result by the acquired data organization management unit 21. The patrol inspection data includes, for example, the object to be inspected in which the abnormal part is detected, the image data of the abnormal part confirmed to be the abnormal part, the type of abnormality in the abnormal part, and the position where the abnormal part is detected (position in the inspected object, subject). Includes the position (latitude, longitude) of the abnormal part in the inspection object).

巡視点検結果報告作成部22bは、巡視点検データ記憶部22aに記憶された巡視点検データをもとに、巡視点検の結果をまとめた巡視点検結果報告データを作成する。 The patrol inspection result report creation unit 22b creates patrol inspection result report data summarizing the patrol inspection results based on the patrol inspection data stored in the patrol inspection data storage unit 22a.

図5は、本実施形態におけるドローン14の外観の一例を示す図である。
図5に示すドローン14は、制御ユニット等を内部に収納するドローン本体14aと、ドローン本体14aから上方に向けて対称に設けられた4つのローター14bと、ドローン本体14aの下方に撮影方向を可変にして設けられたカメラ14cとを有している。ローター14bは、回転によって上向きの揚力を発生させる回転翼であり、制御ユニットにより回転が制御され、ドローン14を垂直方向及び水平方向へ移動させることができる。また、ほぼ同じ位置で飛行を継続するホバリングをさせることもできる。カメラ14cは、静止画または動画像を撮影するデジタルカメラやビデオカメラ等である。
FIG. 5 is a diagram showing an example of the appearance of the drone 14 in the present embodiment.
The drone 14 shown in FIG. 5 has a drone body 14a for accommodating a control unit and the like, four rotors 14b symmetrically provided upward from the drone body 14a, and a variable shooting direction below the drone body 14a. It has a camera 14c provided in the above. The rotor 14b is a rotary blade that generates an upward lift by rotation, and the rotation is controlled by a control unit, so that the drone 14 can be moved in the vertical direction and the horizontal direction. It is also possible to hover to continue flying at almost the same position. The camera 14c is a digital camera, a video camera, or the like that captures a still image or a moving image.

図6は、本実施形態におけるドローン14の主要な構成を示すブロック図である。ドローン14のドローン本体14aには、制御ユニット30a、取得データ生成部30b、撮影制御部30c、飛行制御部30d、センサ群30e、メモリ30f、GPSデータ受信部30g、無線通信部30h、カメラユニット30k、駆動ユニット30mが設けられる。 FIG. 6 is a block diagram showing a main configuration of the drone 14 in the present embodiment. The drone body 14a of the drone 14 includes a control unit 30a, an acquisition data generation unit 30b, a shooting control unit 30c, a flight control unit 30d, a sensor group 30e, a memory 30f, a GPS data reception unit 30g, a wireless communication unit 30h, and a camera unit 30k. , A drive unit 30 m is provided.

制御ユニット30aは、ドローン14の全体の制御を司るもので、専用のコントローラとして構成されても良いし、プロセッサとメモリを含む汎用のユニットであっても良い。制御ユニット30aは、各制御プログラムを実行することにより実現される、取得データ生成部30b、撮影制御部30c、飛行制御部30dの各機能モジュールを有する。 The control unit 30a controls the entire drone 14, and may be configured as a dedicated controller or may be a general-purpose unit including a processor and a memory. The control unit 30a has each functional module of the acquisition data generation unit 30b, the imaging control unit 30c, and the flight control unit 30d, which are realized by executing each control program.

取得データ生成部30bは、情報処理装置10に提供する取得データを生成する。取得データ生成部30bは、例えば、カメラ14cにより撮影された画像(動画像あるいは静止画像)の画像データ、GPSデータ受信部30gにより生成される画像撮影時のドローン14の位置を示す位置データ(緯度、経度、高度)、及び飛行制御部30dによる飛行制御に用いられる飛行制御データをもとに被点検物(巡回/点検対象)毎の撮影をした期間(あるい開始タイミング)を示す巡回/点検対象データとを対応づけて、取得データを生成する(図23参照)。 The acquisition data generation unit 30b generates the acquisition data to be provided to the information processing apparatus 10. The acquisition data generation unit 30b is, for example, image data of an image (moving image or still image) taken by the camera 14c, and position data (latitude) indicating the position of the drone 14 at the time of image taking generated by the GPS data receiving unit 30g. , Longitudinal, altitude), and patrol / inspection showing the period (or start timing) of shooting for each object to be inspected (patrol / inspection target) based on the flight control data used for flight control by the flight control unit 30d. Acquired data is generated by associating with the target data (see FIG. 23).

撮影制御部30cは、飛行制御部30dの制御によりドローン14が飛行する間に、巡視点検の対象とする送電設備17をカメラ14cにより撮影するための制御をする。撮影制御部30cは、例えばカメラ14cのレンズ、シャッター、絞り、フォーカス機構、ズーム機構等の制御、撮影方向(レンズ方向)を調整する機能を有している。撮影方向を調整する機能としては、カメラユニット30kを駆動してカメラ14cのレンズ向きをドローン本体14aに対して水平方向又は垂直方向に回動させて撮影方向を変更させても良いし、飛行制御部30dを通じて駆動ユニット30mの駆動を制御し、ドローン14を傾斜させてカメラ14cの撮影方向を変更させても良い。カメラ14cでは、ドローン14の下方向の画像だけでなく、横方向あるいは上方向の画像を撮影できるようにする。 The photographing control unit 30c controls the power transmission equipment 17 to be inspected by the camera 14c while the drone 14 is flying under the control of the flight control unit 30d. The shooting control unit 30c has, for example, a function of controlling the lens, shutter, aperture, focus mechanism, zoom mechanism, etc. of the camera 14c, and adjusting the shooting direction (lens direction). As a function of adjusting the shooting direction, the camera unit 30k may be driven to rotate the lens direction of the camera 14c in the horizontal or vertical direction with respect to the drone body 14a to change the shooting direction, or flight control. The drive of the drive unit 30 m may be controlled through the unit 30d, and the drone 14 may be tilted to change the shooting direction of the camera 14c. The camera 14c enables the drone 14 to capture not only a downward image but also a lateral or upward image.

飛行制御部30dは、情報処理装置10から受信される飛行制御データ、GPSデータ受信部30gにより生成されるドローン14の現在位置を示す位置データ、センサ群30eなどにより検出される障害物や被点検物等の位置に基づいて、駆動ユニット30m(モータ)を駆動し、ドローン14を自律飛行させるための制御をする。飛行制御部30dは、飛行制御データを取得すると、GPSデータ受信部30gから位置データを取得し、ドローン14を送電設備17の被点検物から所定の範囲内で飛行するように制御する。 The flight control unit 30d includes flight control data received from the information processing device 10, position data indicating the current position of the drone 14 generated by the GPS data reception unit 30g, obstacles detected by the sensor group 30e, and the inspected. Based on the position of an object or the like, the drive unit 30 m (motor) is driven to control the drone 14 to fly autonomously. When the flight control unit 30d acquires the flight control data, it acquires the position data from the GPS data receiving unit 30g and controls the drone 14 to fly within a predetermined range from the inspected object of the power transmission equipment 17.

センサ群30eは、例えば位置、高度、速度及び方向などの各種情報を取得するもので、例えば物体の加速度を計測する3軸加速度計、物体の角度や角速度を検出するジャイロスコープ、3軸磁気センサ等を含む。また、センサ群30eには、障害物や被点検物を検知するための障害物カメラを含む。障害物カメラは、例えば複数(例えば4台)を設けることで、飛行制御部30dにおいて障害物や被点検物の画像を3次元処理して、障害物や被点検物の位置を3次元空間で認識できるようにすることができる。これにより、障害物や被点検物との接触/衝突を回避したり、被点検物に対して所定の距離を保って飛行するといった飛行制御を可能にする。 The sensor group 30e acquires various information such as position, altitude, velocity and direction. For example, a 3-axis accelerometer that measures the acceleration of an object, a gyroscope that detects an angle and an angular velocity of an object, and a 3-axis magnetic sensor. Etc. are included. Further, the sensor group 30e includes an obstacle camera for detecting an obstacle or an object to be inspected. By providing a plurality of obstacle cameras (for example, four), the flight control unit 30d processes the image of the obstacle or the inspected object in three dimensions, and the position of the obstacle or the inspected object is determined in the three-dimensional space. It can be made recognizable. This enables flight control such as avoiding contact / collision with an obstacle or an object to be inspected and flying at a predetermined distance to the object to be inspected.

メモリ30fは、各種データが記憶されるもので、例えば情報処理装置10から受信される飛行制御データ、取得データ生成部30bにより生成された取得データなどが記憶される。メモリ30fは、例えば脱着可能な可搬型に構成されたメモリ媒体とすることができ、情報処理装置10に取得データを提供する場合に、ドローン14から取り外して情報処理装置10にデータを読み取らせることもできる。 The memory 30f stores various data, for example, flight control data received from the information processing device 10, acquired data generated by the acquired data generation unit 30b, and the like. The memory 30f can be, for example, a removable and portable memory medium, and when the acquired data is provided to the information processing device 10, it is removed from the drone 14 and the information processing device 10 is made to read the data. You can also.

GPSデータ受信部30gは、GPS衛星16からのGPS信号を受信し、GPS信号をもとにドローン14の現在位置を位置データ(緯度、経度、高度)及び時刻データを生成する。GPSデータ受信部30gにより生成された位置データは、飛行制御部30dによる自律飛行制御や取得データの生成に利用される。 The GPS data receiving unit 30g receives a GPS signal from the GPS satellite 16 and generates position data (latitude, longitude, altitude) and time data at the current position of the drone 14 based on the GPS signal. The position data generated by the GPS data receiving unit 30g is used for autonomous flight control by the flight control unit 30d and generation of acquired data.

無線通信部30hは、情報処理装置10との間、あるいは無線公衆網に収容された基地局との間の無線通信を制御する。無線通信部30hは、制御ユニット30aの制御により、ドローン14の飛行中に撮影した取得データ(画像データ)をリアルタイムで情報処理装置10に送信しても良い。また、無線通信部30hは、ドローン14をマニュアル制御により飛行させるために、飛行中に情報処理装置10に対する作業者による操作に応じた飛行制御データを受信することもできる。 The wireless communication unit 30h controls wireless communication with the information processing device 10 or with a base station housed in the wireless public network. The wireless communication unit 30h may transmit the acquired data (image data) captured during the flight of the drone 14 to the information processing device 10 in real time under the control of the control unit 30a. Further, in order to fly the drone 14 by manual control, the wireless communication unit 30h can also receive flight control data according to the operation of the information processing device 10 by the operator during the flight.

カメラユニット30kは、ドローン本体14aの下部においてカメラ14cを支持し、撮影制御部30cの制御により駆動されてカメラ14cによる撮影方向を調整する。 The camera unit 30k supports the camera 14c at the lower part of the drone main body 14a, and is driven by the control of the photographing control unit 30c to adjust the photographing direction by the camera 14c.

駆動ユニット30mは、飛行制御部30dの制御に応じて駆動され、複数のローター14bをそれぞれ個別に回転させる。複数のローター14bを個別に回転制御することで、ドローン14を垂直方向や水平方向へ移動させたり、ホバリングやドローン本体14aを傾斜させるなどの姿勢調整をすることができる。 The drive unit 30m is driven according to the control of the flight control unit 30d, and rotates the plurality of rotors 14b individually. By controlling the rotation of the plurality of rotors 14b individually, it is possible to adjust the posture such as moving the drone 14 in the vertical direction or the horizontal direction, hovering, or tilting the drone body 14a.

次に、本実施形態における管理装置12について説明する。 Next, the management device 12 in this embodiment will be described.

管理装置12は、例えば図3に示す情報処理装置10と同様の構成を有するものとして、詳細な説明を省略する。管理装置12は、プロセッサにより学習モデル生成プログラムを実行することにより、情報処理装置10における画像処理で使用される学習モデルを生成するための各種機能を実現する。 Assuming that the management device 12 has the same configuration as the information processing device 10 shown in FIG. 3, detailed description thereof will be omitted. The management device 12 realizes various functions for generating a learning model used in image processing in the information processing device 10 by executing a learning model generation program by a processor.

図7は、本実施形態における管理装置12において、プロセッサにより学習モデル生成プログラムを実行することにより実現される機能構成を示すブロック図である。
管理装置12は、学習モデル生成プログラムに基づいて、データ記憶部40a(異常箇所画像データ40b、学習用画像データ40c、教示メタデータ40d、検証画像データ40e)、学習画像読み込み部40f、教示メタデータ読み込み部40g、エッジ切り出し部40h、隣接正常画像探索部40k、正常画像/異常画像組み合わせ制御部40m、類似画像生成部40n、学習済みモデル管理部40p、検証画像読み込み部40q、推論実施部40r、指標/条件関連記憶部40s、関連対応部40t、問い合わせ部40u、学習モデル記憶部40vの機能を実現する。
FIG. 7 is a block diagram showing a functional configuration realized by executing a learning model generation program by a processor in the management device 12 in the present embodiment.
Based on the learning model generation program, the management device 12 includes a data storage unit 40a (abnormal portion image data 40b, learning image data 40c, teaching metadata 40d, verification image data 40e), a learning image reading unit 40f, and teaching metadata. Reading unit 40g, edge cutting unit 40h, adjacent normal image search unit 40k, normal image / abnormal image combination control unit 40m, similar image generation unit 40n, trained model management unit 40p, verification image reading unit 40q, inference execution unit 40r, The functions of the index / condition related storage unit 40s, the related correspondence unit 40t, the inquiry unit 40u, and the learning model storage unit 40v are realized.

次に、管理装置12により学習モデルを生成する学習モデル生成処理について説明する。図8は、本実施形態における管理装置12により実行される学習モデル生成処理を説明するためのフローチャートである。以下の説明では、送電設備17に含まれる架空地線あるいは送電線に生じるアーク痕を検出対象とする異常箇所とし、この異常箇所を検出するための学習モデルを生成する場合を例にして説明する。他の被点検物に生じる異常箇所を検出するための学習モデルについても同様にして、それぞれの被点検物の異常箇所に応じた学習モデルが生成されるものとして詳細な説明を省略する。 Next, a learning model generation process for generating a learning model by the management device 12 will be described. FIG. 8 is a flowchart for explaining the learning model generation process executed by the management device 12 in the present embodiment. In the following description, an abnormal portion to be detected is an abnormal portion of an overhead ground wire or an arc mark generated in a transmission line included in the transmission equipment 17, and a learning model for detecting this abnormal portion is generated as an example. .. The same applies to the learning model for detecting the abnormal part occurring in the other inspected object, and detailed description will be omitted assuming that the learning model corresponding to the abnormal part of each inspected object is generated.

本実施形態では、架空地線あるいは送電線に落雷があったことにより生じたアーク痕の画像データのサンプルが少ないことから、実際に生じた異常箇所(アーク痕)の異常箇所画像データだけでなく、被点検物に対して擬似的に付加した異常/劣化の状態を撮影した画像データ(学習用画像データ)をもとに疑似画像(類似画像)を生成し、ニューラルネットワークを活用したディープラーニング(深層学習)の技術を利用して大量の学習モデルを学習(生成)する。 In the present embodiment, since there are few samples of the image data of the arc mark generated by the lightning strike on the overhead ground line or the transmission line, not only the abnormal part image data of the abnormal part (arc mark) actually generated but also the abnormal part image data , Deep learning using a neural network by generating a pseudo image (similar image) based on the image data (learning image data) that captures the abnormal / deteriorated state that is artificially added to the object to be inspected. A large number of learning models are trained (generated) using the technology of deep learning).

管理装置12には、データ記憶部40aにより、学習モデルを生成するために必要なデータが予め記憶される。データ記憶部40aにより記憶されるデータには、異常箇所画像データ40b、学習用画像データ40c、教示メタデータ40d、検証画像データ40eが含まれる。 The data storage unit 40a stores in advance the data necessary for generating the learning model in the management device 12. The data stored by the data storage unit 40a includes the abnormal portion image data 40b, the learning image data 40c, the teaching metadata 40d, and the verification image data 40e.

異常箇所画像データ40bは、情報処理装置10及びドローン14を用いて、実際に被点検物に対する巡視点検をすることより取得された異常箇所の実画像データである。異常箇所画像データ40bは、ドローン14により撮影された画像データから、異常箇所であること及び異常種類が作業員等によって確認された画像データが用いられる。 The abnormal portion image data 40b is actual image data of the abnormal portion acquired by actually performing a patrol inspection of the inspected object using the information processing device 10 and the drone 14. As the abnormality location image data 40b, image data in which the abnormality location and the abnormality type are confirmed by an operator or the like from the image data taken by the drone 14 is used.

学習用画像データ40cは、擬似的に付加した異常/劣化の状態を撮影した学習用疑似画像データである。学習用画像データ40cは、例えば、素線が切れた状態、送電線に炭がついた状態、炭がとれて送電線が光った(光沢)状態などを工具等で送電線に対して付加し、この送電線を撮影することにより生成される。 The learning image data 40c is learning pseudo image data obtained by capturing a pseudo-added abnormal / deteriorated state. The learning image data 40c is provided with, for example, a state in which the wire is cut, a state in which the transmission line is charred, a state in which the charcoal is removed and the transmission line is shining (glossy), and the like are added to the transmission line with a tool or the like. , Generated by photographing this power line.

教示メタデータ40dは、異常箇所画像データ40b及び学習用画像データ40cに対して作業員等の操作により指示(教示)された、類似画像(学習モデル)を生成するために必要なデータである。教示メタデータ40dには、例えば画像中の被点検物を含む領域、異常箇所に相当する部分(異常画像)を含む領域、異常/劣化(異常種類)等の種別、検出対象と区別する領域(処理対象外とする領域)などを示すデータが含まれる。 The teaching metadata 40d is data necessary for generating a similar image (learning model) instructed (taught) by an operation of a worker or the like with respect to the abnormal portion image data 40b and the learning image data 40c. The teaching metadata 40d includes, for example, a region including an object to be inspected in an image, a region including a portion corresponding to an abnormal portion (abnormal image), a type such as abnormality / deterioration (abnormal type), and a region distinguishing from a detection target (abnormal type). Data indicating the area to be excluded from processing) is included.

学習用画像データ40c及び教示メタデータ40dの生成は、管理装置12あるいは情報処理装置10において実行される。例えば、情報処理装置10において実行される場合、異常箇所画像データ40bあるいは学習用画像データ40cをもとに画像を表示し、この画像に対する領域についての指示(教示)を作業員等の操作に応じて入力する。 The generation of the learning image data 40c and the teaching metadata 40d is executed by the management device 12 or the information processing device 10. For example, when it is executed in the information processing apparatus 10, an image is displayed based on the abnormal portion image data 40b or the learning image data 40c, and instructions (teaching) about the area for this image are given according to the operation of a worker or the like. And enter.

例えば、被点検物を送電線とする場合、作業員等は、ポインティングデバイス等の操作により、被点検物の領域として画像中の送電線全体が含まれる範囲を矩形領域(例えば、矩形の対角の2頂点を示す位置)により教示し、送電線の上のアーク痕等の異常箇所の部分(異常画像)を矩形領域で教示する。さらに、作業員等は、異常/劣化等の異常種類を示す情報として、アーク痕のラベルの付加を指示する。また、送電線に装着された難着雪リングなど、異常箇所のアーク痕と明確に区別したい領域がある場合は、作業員等は、難着雪リングに相当領域を同様にして教示することができる。 For example, when the object to be inspected is a power transmission line, a worker or the like operates a pointing device or the like to set a rectangular area (for example, diagonal of a rectangle) to include the entire power transmission line in the image as the area to be inspected. (Positions indicating the two vertices) are taught, and the portion of the abnormal part (abnormal image) such as the arc mark on the transmission line is taught in the rectangular area. Further, the worker or the like instructs to add a label of the arc mark as information indicating the type of abnormality such as abnormality / deterioration. In addition, if there is an area that you want to clearly distinguish from the arc mark of the abnormal part such as the snow accretion ring attached to the power transmission line, the worker etc. can teach the area corresponding to the snow accretion ring in the same way. it can.

情報処理装置10は、作業員等の操作により入力された指示(教示)に応じて教示メタデータ40dを生成して、異常箇所画像データ40bあるいは学習用画像データ40cのそれぞれと対応づけたファイルに記憶する。 The information processing device 10 generates teaching metadata 40d in response to an instruction (teaching) input by an operation of a worker or the like, and creates a file associated with each of the abnormal portion image data 40b or the learning image data 40c. Remember.

検証画像データ40eは、異常箇所画像データ40b、学習用画像データ40c及び教示メタデータ40dをもとに生成した学習モデルを用いて、異常箇所の認識精度を評価するための検証用の画像データである。検証画像データ40eは、例えば複数枚分の画像データを含む。 The verification image data 40e is image data for verification for evaluating the recognition accuracy of the abnormal portion using a learning model generated based on the abnormal portion image data 40b, the learning image data 40c, and the teaching metadata 40d. is there. The verification image data 40e includes, for example, a plurality of image data.

以下、学習用画像データ40cを用いて学習モデルを生成する場合を例にして説明する。なお、学習用画像データ40cのみを使用する場合、学習用画像データ40cと異常箇所画像データ40bを混在して使用する場合、さらには異常箇所画像データ40bのみを使用する場合を任意に選択できるようにしても良い。 Hereinafter, a case where a learning model is generated using the learning image data 40c will be described as an example. It should be noted that the case where only the learning image data 40c is used, the case where the learning image data 40c and the abnormal portion image data 40b are used together, and the case where only the abnormal portion image data 40b is used can be arbitrarily selected. You can do it.

まず、学習画像読み込み部40fは、データ記憶部40aに予め記憶された学習用画像データ40cを読み込む(ステップA1)。また、教示メタデータ読み込み部40gは、学習画像読み込み部40fにより読み込まれた学習用画像データ40cに対応する教示メタデータ40dを読み込む。 First, the learning image reading unit 40f reads the learning image data 40c stored in advance in the data storage unit 40a (step A1). Further, the teaching metadata reading unit 40g reads the teaching metadata 40d corresponding to the learning image data 40c read by the learning image reading unit 40f.

エッジ切り出し部40hは、学習画像読み込み部40fにより読み込まれた学習用画像データ40cに対して、教示メタデータ読み込み部40gにより読み出された教示メタデータ40dを利用し、例えばエッジ検出の画像処理手法を用いて送電線の輪郭を切り出す(ステップA2)。すなわち、エッジ切り出し部40hは、教示メタデータ40dが示す学習用画像中の送電線の全体を含む領域から送電線に相当する領域を切り出す。 The edge cutting unit 40h uses the teaching metadata 40d read by the teaching metadata reading unit 40g with respect to the learning image data 40c read by the learning image reading unit 40f, for example, an image processing method for edge detection. The outline of the transmission line is cut out using (step A2). That is, the edge cutting portion 40h cuts out a region corresponding to the transmission line from the region including the entire transmission line in the learning image shown by the teaching metadata 40d.

なお、エッジ切り出し部40hは、送電線に相当する領域の輪郭全てをエッジ検出するだけでなく、次に説明するように、より簡易な処理により送電線に相当する領域を切り出すこともできる。送電線全体が含まれる範囲が矩形領域により教示されている。この矩形領域に含まれる送電線の画像は、左上を頂点の1つとする右下がり、あるいは左下を頂点の1つとする右上がりにより存在している。送電線の画像の輪郭は、局所的にみれば直線でほぼ近似できる。従って、例えば左右方向に離れた少なくとも2箇所においてエッジ検出することにより、そのエッジの位置をもとに、矩形領域に含まれる送電線の画像が右下がりであるか、右上がりであるかを判定することができる。そして、左右方向で検出されたエッジの位置を通過する直線を、近似された送電線の画像の輪郭として見なすことができる。これにより、送電線の領域の輪郭全てをエッジ検出する必要がないため処理負荷を軽減することができる。 The edge cutting portion 40h can not only detect the edge of the entire contour of the region corresponding to the transmission line, but can also cut out the region corresponding to the transmission line by a simpler process as described below. The extent to which the entire transmission line is included is taught by the rectangular area. The image of the transmission line included in this rectangular area exists by descending to the right with the upper left as one of the vertices or rising to the right with the lower left as one of the vertices. The outline of the image of the transmission line can be approximated by a straight line when viewed locally. Therefore, for example, by detecting edges at at least two locations separated in the left-right direction, it is determined whether the image of the transmission line included in the rectangular region is downward-sloping or upward-sloping based on the position of the edge. can do. Then, a straight line passing through the position of the edge detected in the left-right direction can be regarded as the outline of the image of the approximated transmission line. As a result, it is not necessary to detect the entire contour of the region of the transmission line at the edge, so that the processing load can be reduced.

次に、隣接正常画像探索部40kは、教示メタデータ40dが示す異常箇所に相当する領域、すなわちアーク痕等の異常箇所の部分(異常画像領域)を設定し(ステップA3)、異常画像領域をもとに被点検物の画像(送電線輪郭内)中の異常画像の周辺にある複数の正常画像領域を探索する(ステップA4)。 Next, the adjacent normal image search unit 40k sets a region corresponding to the abnormal portion indicated by the teaching metadata 40d, that is, a portion of the abnormal portion (abnormal image region) such as an arc mark (step A3), and sets the abnormal image region. Based on this, a plurality of normal image areas around the abnormal image in the image of the object to be inspected (inside the contour of the transmission line) are searched (step A4).

例えば、隣接正常画像探索部40kは、教示メタデータ40dが示す異常画像領域を示す矩形領域と同じ大きさの矩形領域により正常画像領域を探索する。ここで、隣接正常画像探索部40kは、例えば、教示メタデータ40dが示す検出対象と区別する領域(難着雪リングなどの処理対象外とする領域)を除いた領域を対象として、次の優先度(1)〜(4)に基づいて複数の正常画像領域を探索する。 For example, the adjacent normal image search unit 40k searches for a normal image area with a rectangular area having the same size as the rectangular area indicating the abnormal image area indicated by the teaching metadata 40d. Here, the adjacent normal image search unit 40k targets, for example, a region excluding a region distinguished from the detection target indicated by the teaching metadata 40d (a region excluded from processing such as a snow accretion ring), and has the following priority. A plurality of normal image regions are searched based on the degrees (1) to (4).

(1)異常画像の矩形領域の左右いずれかに最も近い(通常では隣接する)正常画像領域、(2)異常画像の矩形領域の上下のいずれかに最も近い(通常は隣接する)正常画像領域、(3)異常画像の矩形領域の左上、右上、左下、右下の何れかに位置する正常画像領域、(4)先に探索済みの正常画像領域に最も近い(通常は隣接する)正常画像領域。 (1) Normal image area closest to either the left or right (usually adjacent) of the rectangular area of the abnormal image, (2) Normal image area closest to either the top or bottom of the rectangular area of the abnormal image (usually adjacent) , (3) Normal image area located in any of the upper left, upper right, lower left, and lower right of the rectangular area of the abnormal image, (4) Normal image closest to (usually adjacent to) the previously searched normal image area region.

図9、図10及び図11には、教示メタデータ40dが示す異常画像の領域56と、異常画像の領域56の位置をもとに探索される複数の正常画像の領域58の一例を示している。図9〜図11に示すように、画像中の送電線50を含む領域52、異常箇所に相当する部分(異常画像)を含む領域56、検出対象と区別する領域54(難着雪リングの領域)が教示メタデータ40dにより指示されている。なお、領域56は、1箇所の異常箇所に対して、1つの矩形領域により指示しても良いし、複数の矩形領域を隣接させて指示しても良い。また、図9、図10及び図11では、領域56を正方形により指定(教示)された例を示している。図9に示す例では1箇所の異常箇所が2つの領域56により指示されおり、図10に示す例では同じく4つの領域56、図11に示す例では同じく1つの領域56が指示されている。 9, 10 and 11 show an example of an abnormal image region 56 indicated by the teaching metadata 40d and a plurality of normal image regions 58 searched based on the positions of the abnormal image region 56. There is. As shown in FIGS. 9 to 11, the area 52 including the power transmission line 50 in the image, the area 56 including the part corresponding to the abnormal part (abnormal image), and the area 54 distinguishing from the detection target (the area of the snow accretion ring). ) Is indicated by the teaching metadata 40d. The area 56 may be designated by one rectangular area or a plurality of rectangular areas may be adjacent to one abnormal place. Further, FIGS. 9, 10 and 11 show an example in which the area 56 is designated (taught) by a square. In the example shown in FIG. 9, one abnormal portion is indicated by two regions 56, in the example shown in FIG. 10, four regions 56 are also indicated, and in the example shown in FIG. 11, one region 56 is also indicated.

図9では、前述した優先度に従って、領域56の左右に隣接する正常画像の領域58が探索され、さらに探索された領域58と左右に隣接する正常画像の領域58が探索され、以下、繰り返して左右に隣接する領域58が探索されている。図9では、検出対象と区別する領域54(難着雪リング)が指示されているため。この領域54を探索の対象外として、領域58が探索されている。 In FIG. 9, according to the priority described above, the area 58 of the normal image adjacent to the left and right of the area 56 is searched, the searched area 58 and the area 58 of the normal image adjacent to the left and right are searched, and so on. Areas 58 adjacent to the left and right are being searched. In FIG. 9, the area 54 (snow accretion ring) to be distinguished from the detection target is indicated. The area 58 is being searched with the area 54 out of the search target.

図10では、前述した優先度に従って、異常画像の領域56の左下あるいは右上に位置する正常画像の領域58が探索された例を示している。図11では、前述した優先度に従って、異常画像の領域56の左、下に正常画像の領域58が探索され、さらに探索された領域58の左に隣接する正常画像の領域58が探索されている。
なお、図9〜図11に示す例では、領域56,58を正方形として説明しているが長方形であっても良い。また、隣接正常画像探索部40kは、被点検物(送電線50)の画像から抽出可能な全ての正常画像を抽出しても良いし、正常画像/異常画像組み合わせ制御部40mの処理において必要とする予め決められた枚数分としても良い。
FIG. 10 shows an example in which the normal image region 58 located at the lower left or upper right of the abnormal image region 56 is searched according to the above-mentioned priority. In FIG. 11, according to the priority described above, the normal image region 58 is searched to the left and below the abnormal image region 56, and the normal image region 58 adjacent to the left of the searched region 58 is searched. ..
In the examples shown in FIGS. 9 to 11, the areas 56 and 58 are described as squares, but they may be rectangular. Further, the adjacent normal image search unit 40k may extract all the normal images that can be extracted from the image of the object to be inspected (transmission line 50), and is necessary for the processing of the normal image / abnormal image combination control unit 40m. It may be a predetermined number of sheets.

次に、正常画像/異常画像組み合わせ制御部40mは、教示メタデータ40dが示す領域56の異常画像と、領域隣接正常画像探索部40kにより探索された複数の領域58の異常画像とを組み合わせる割合を設定する(ステップA5)。例えば、正常画像/異常画像組み合わせ制御部40mは、正常画像と異常画像とを組み合わせる割合を、例えば1:1〜10:1に段階的に変更するものとする。 Next, the normal image / abnormal image combination control unit 40m determines the ratio of combining the abnormal image of the region 56 indicated by the teaching metadata 40d and the abnormal image of the plurality of regions 58 searched by the region adjacent normal image search unit 40k. Set (step A5). For example, the normal image / abnormal image combination control unit 40m shall change the ratio of combining the normal image and the abnormal image stepwise, for example, from 1: 1 to 10: 1.

類似画像生成部40nは、ニューラルネットワークを活用したディープラーニング(深層学習)の技術を利用し、正常画像/異常画像組み合わせ制御部40mにより設定された正常画像と異常画像とを組み合わせる割合に応じて、隣接正常画像探索部40kにより探索された複数の正常画像と、教示メタデータ40dが示す異常画像とを組み合わせ(ステップA6)、被点検物に生じる異常/劣化の状態を表す疑似画像(類似画像)を生成する(ステップA7)。正常画像と異常画像を組み合わせた疑似画像は、例えば既存の画像処理方法を用いて生成することができる。 The similar image generation unit 40n uses a deep learning technique utilizing a neural network, and depending on the ratio of combining the normal image and the abnormal image set by the normal image / abnormal image combination control unit 40m, A plurality of normal images searched by the adjacent normal image search unit 40k and an abnormal image indicated by the teaching metadata 40d are combined (step A6), and a pseudo image (similar image) showing a state of abnormality / deterioration occurring in the object to be inspected. Is generated (step A7). A pseudo image that combines a normal image and an abnormal image can be generated by using, for example, an existing image processing method.

例えば、正常画像と異常画像とを組み合わせる割合が1:1の場合、1枚の異常画像に対して、複数の正常画像から1枚の正常画像を選択して組み合わせる。複数の正常画像から選択する対象を変更して、それぞれ異常画像と組み合わせることで複数の疑似画像を生成することができる。 For example, when the ratio of combining the normal image and the abnormal image is 1: 1, one normal image is selected from a plurality of normal images and combined with respect to one abnormal image. A plurality of pseudo images can be generated by changing the target to be selected from a plurality of normal images and combining each with an abnormal image.

また、1枚の学習用画像データ40cが示す学習用疑似画像に含まれる異常画像と正常画像とを組み合わせるだけで無く、複数枚の他の学習用疑似画像に含まれる異常画像と正常画像とを組み合わせることもできる。また、正常画像と異常画像とを組み合わせる割合に合致していれば、複数枚の正常画像と複数枚の異常画像の組み合わせも可能である。例えば正常画像と異常画像とを組み合わせる割合が1:1の場合、2枚の正常画像と2枚の異常画像との組み合わせることも可能である。この場合、2枚の正常画像は、3枚以上の正常画像から組み合わせを変更することができ、同様にして、2枚の異常画像は、3枚以上の異常画像から組み合わせを変更することができる。従って、複数枚の正常画像と複数枚の異常画像との組み合わせ数は、正常画像と異常画像のそれぞれの組み合わせを変更することで大量にすることができる。 Further, not only the abnormal image and the normal image included in the learning pseudo image shown by one learning image data 40c are combined, but also the abnormal image and the normal image included in the plurality of other learning pseudo images are combined. It can also be combined. Further, as long as the ratio of the normal image and the abnormal image is matched, it is possible to combine a plurality of normal images and a plurality of abnormal images. For example, when the ratio of combining the normal image and the abnormal image is 1: 1, it is possible to combine the two normal images and the two abnormal images. In this case, the combination of the two normal images can be changed from three or more normal images, and similarly, the combination of the two abnormal images can be changed from three or more abnormal images. .. Therefore, the number of combinations of the plurality of normal images and the plurality of abnormal images can be increased by changing the combination of the normal image and the abnormal image.

図12には、本実施形態における正常画像/異常画像組み合わせ制御部40mによる異常画像と正常画像の組み合わせを概念的に示している。前述したように、複数の異常画像(A)と複数の正常画像(B)とを組み合わせることで、大量の類似画像を生成することができる。 FIG. 12 conceptually shows the combination of the abnormal image and the normal image by the normal image / abnormal image combination control unit 40m in the present embodiment. As described above, by combining the plurality of abnormal images (A) and the plurality of normal images (B), a large number of similar images can be generated.

類似画像生成部40nは、正常画像/異常画像組み合わせ制御部40mによって段階的に変更される正常画像と異常画像とを組み合わせる割合のそれぞれについて、前述したように、ディープラーニングにより正常画像と異常画像とを組み合わせて類似画像を生成する(ステップA5〜A7)。 As described above, the similar image generation unit 40n sets the normal image and the abnormal image by deep learning for each of the ratios of combining the normal image and the abnormal image which are changed stepwise by the normal image / abnormal image combination control unit 40m. To generate similar images (steps A5 to A7).

学習済みモデル管理部40pは、類似画像生成部40nにより生成された正常画像と異常画像の割合別の類似画像を学習する(ステップA9)。すなわち、学習済みモデル管理部40pは、ディープラーニングにより生成された類似画像を、類似画像を生成した条件、例えば異常画像と正常画像とを組み合わせた割合などの条件(生成画像条件)と対応づけて、学習モデル記憶部40vに記憶/管理する。 The trained model management unit 40p learns similar images according to the ratio of the normal image and the abnormal image generated by the similar image generation unit 40n (step A9). That is, the trained model management unit 40p associates the similar image generated by deep learning with the condition for generating the similar image, for example, the condition (generated image condition) such as the ratio of the abnormal image and the normal image combined. , Stored / managed in the learning model storage unit 40v.

なお、前述した一連の類似画像を生成する処理では、被点検物において生じる異常種類のそれぞれに対応する類似画像(学習モデル)を生成する。例えば、架空地線や送電線において生じるアーク痕について、素線切れ、炭付着、炭が剥がれた光沢などの細分化したカテゴリのそれぞれについて、個別に類似画像を生成して学習させるものとする。 In the process of generating a series of similar images described above, similar images (learning models) corresponding to each of the abnormal types occurring in the inspected object are generated. For example, it is assumed that similar images are individually generated and learned for each of the subdivided categories such as wire breakage, charcoal adhesion, and charcoal peeling gloss for arc marks generated in overhead ground wires and power transmission lines.

学習済みモデル管理部40pにより類似画像(学習モデル)が学習されると、推論実施部40rは、検証画像読み込み部40qによってデータ記憶部40aから検証画像データ40eを読み込ませ(ステップA10)、検証画像データ40e(検証画像)に対する学習モデルを用いた認証の精度(認識精度)を表す指標を推論する(ステップA11)。すなわち、学習済みモデル管理部40pは、例えば異常箇所を含む画像と異常箇所を含まない画像とが混在する複数の検証画像に対して、検証画像に含まれる異常箇所の異常種類に対して生成された学習モデルを用いて異常箇所の検出(認証)処理を実行する。ここで、推論実施部40rは、類似画像を生成した生成画像条件(異常画像と正常画像とを組み合わせた割合)が異なる学習モデルのそれぞれを用いて、異常箇所の検出(認証)処理を実行することで、生成画像条件別の認証精度の指標を推論する。 When a similar image (learning model) is learned by the trained model management unit 40p, the inference execution unit 40r causes the verification image reading unit 40q to read the verification image data 40e from the data storage unit 40a (step A10), and the verification image. An index representing the accuracy (recognition accuracy) of authentication using the learning model for the data 40e (verification image) is inferred (step A11). That is, the trained model management unit 40p is generated for a plurality of verification images in which an image including an abnormal portion and an image not including an abnormal portion are mixed, for example, for an abnormal type of an abnormal portion included in the verification image. The abnormal part detection (authentication) process is executed using the learning model. Here, the inference execution unit 40r executes the detection (authentication) process of the abnormal portion by using each of the learning models having different generated image conditions (ratio of the combination of the abnormal image and the normal image) that generated similar images. By doing so, the index of authentication accuracy for each generated image condition is inferred.

推論実施部40rは、認識精度を表す指標として、例えば「再現率」と「適合率」とを求める。なお、その他の指標を求めるようにしても良い。 The inference execution unit 40r obtains, for example, "reproducibility" and "adaptation rate" as indexes representing recognition accuracy. In addition, other indicators may be obtained.

「再現率」は、被点検物(送電線など)に生じた異常箇所を見逃さない割合を示すもので、異常箇所を再現する割合という意味を有する。例えば、25枚の異常画像を含む検証画像に対して、学習モデルを用いて異常箇所の検出(認証)処理を実行した結果、20枚の検証画像から異常箇所が検出(認識)された場合には、再現率(見逃さない率)80%となる。 The "reproduction rate" indicates a ratio of not overlooking an abnormal part generated in an object to be inspected (transmission line, etc.), and has a meaning of a ratio of reproducing an abnormal part. For example, when an abnormal part is detected (recognized) from 20 verification images as a result of executing an abnormal part detection (authentication) process using a learning model for a verification image including 25 abnormal images. Is a recall rate (a rate not to be overlooked) of 80%.

「適合率」は、被点検物(送電線など)に生じた異常箇所を検出した結果、実際に異常があった箇所の割合(空振りしない)を示すもので、検出(認識)した異常箇所の適合割合という意味を有する。例えば、学習モデルを用いて異常箇所の検出(認証)処理を実行した結果、20枚の検証画像から異常箇所が検出された場合に、実際に異常箇所を含む検証画像が15枚の場合には、適合率(空振りしない率)75%となる(この場合、5枚(25%)が空振り)。 The "compliance rate" indicates the percentage of abnormal locations (not missed) as a result of detecting abnormal locations on the object to be inspected (transmission line, etc.), and the detected (recognized) abnormal locations. It has the meaning of conformity ratio. For example, when an abnormal part is detected from 20 verification images as a result of executing an abnormal part detection (authentication) process using a learning model, when there are actually 15 verification images including the abnormal part, , The precision rate (rate of not missing) is 75% (in this case, 5 sheets (25%) are missed).

指標/条件関連記憶部40sは、推論実施部40rによって求められた指標(「再現率」「適合率」)と、この指標を求める際に使用した学習モデル(類似画像)を生成した生成画像条件(異常画像と正常画像とを組み合わせた割合)との関連を記憶する(ステップA12)。 The index / condition-related storage unit 40s generates an index (“recall rate” and “fitness rate”) obtained by the inference execution unit 40r and a learning model (similar image) used for obtaining this index. The relationship with (the ratio of the abnormal image and the normal image combined) is memorized (step A12).

図13は、指標/条件関連記憶部40sにより記憶される生成画像条件と再現率の関連性を示す図であり、図14は、指標/条件関連記憶部40sにより記憶される生成画像条件と適合率の関連性を示す図である。図13及び図14では、アーク痕の異常種類として素線切れ(Cut)、炭付着(Chacoal)、炭が剥がれた光沢(Glare)の各カテゴリについての指標値を示している。 FIG. 13 is a diagram showing the relationship between the generated image condition stored by the index / condition-related storage unit 40s and the recall rate, and FIG. 14 is a diagram matching the generated image condition stored by the index / condition-related storage unit 40s. It is a figure which shows the relevance of a rate. In FIGS. 13 and 14, index values are shown for each category of wire breakage (Cut), charcoal adhesion (Chacoal), and charcoal peeling gloss (Glare) as abnormal types of arc marks.

問い合わせ部40uは、例えば作業員等の操作に応じて、検出対象とする異常箇所の異常種類(例えば、送電線のアーク痕、素線切れ、炭付着、光沢など)と、作業員等が所望する再現率もしくは適合率の少なくとも一方の指定を入力する。問い合わせ部40uは、入力された異常箇所の異常種類と、再現率もしくは適合率の少なくとも一方の指定に応じて、関連対応部40tに対して、例えば最も良好な異常箇所の検出結果を得られる学習モデル(生成画像条件)を問い合わせる。 The inquiry unit 40u desires, for example, the type of abnormality (for example, arc mark of a transmission line, broken wire, charcoal adhesion, gloss, etc.) of an abnormal part to be detected, and the worker or the like according to the operation of the worker or the like. Enter at least one of the recall rate or the precision rate to be specified. The inquiry unit 40u is a learning unit that can obtain, for example, the best detection result of an abnormal part with respect to the related corresponding unit 40t according to the specified abnormality type of the input abnormal part and at least one of the recall rate and the precision rate. Inquire about the model (generated image condition).

関連対応部40tは、問い合わせ部40uからの問い合わせ(クエリ)に対して、指標/条件関連記憶部40sにより記憶された指標と生成画像条件に基づいて、最も良好な異常箇所の検出結果を得られる学習モデル(生成画像条件)を応答して、作業員等に提示させる。 In response to the inquiry (query) from the inquiry unit 40u, the related correspondence unit 40t can obtain the best detection result of the abnormal portion based on the index and the generated image condition stored by the index / condition related storage unit 40s. The learning model (generated image condition) is responsive and presented to the worker or the like.

例えば「アーク痕全般」「再現率/適合率の両方」を指定し、「最も良い生成画像条件は?」という問い合わせ(クエリ)が入力されたものとする。この場合、関連対応部40tは、図13及び図14に示す指標と生成画像条件が記憶されている場合、素線切れ(Cut)、炭付着(Chacoal)、光沢(Glare)のそれぞれの再現率と適合率を用いて、所定の演算方法により総合して最も良好な数値が得られる生成画像条件(正常画像と異常画像の比)を求める。この結果、正常画像と異常画像を組み合わせる比が8:1の場合に最も良好な結果が得られることが求められる。すなわち、情報処理装置10の異常箇所検出処理(異常箇所を検出する画像処理)において、被点検物の画像から「アーク痕全般」について異常箇所を検出する場合に、正常画像と異常画像の比が8:1に対応する学習モデルを用いた場合に、最も良好に異常箇所を検出することができる。 For example, it is assumed that "general arc marks" and "both recall rate / precision rate" are specified, and an inquiry (query) "What is the best generated image condition?" Is input. In this case, when the index and the generated image condition shown in FIGS. 13 and 14 are stored, the related corresponding unit 40t has a recall rate of each of wire breakage (Cut), charcoal adhesion (Chacoal), and gloss (Glare). And the precision rate are used to obtain the generated image condition (ratio of normal image and abnormal image) that gives the best numerical value in total by a predetermined calculation method. As a result, it is required that the best result can be obtained when the ratio of combining the normal image and the abnormal image is 8: 1. That is, in the abnormal part detection process (image processing for detecting the abnormal part) of the information processing apparatus 10, when the abnormal part is detected for "the entire arc mark" from the image of the object to be inspected, the ratio of the normal image to the abnormal image is When a learning model corresponding to 8: 1 is used, the abnormal portion can be detected most satisfactorily.

また、「素線切れ」「再現率/適合率の両方」を指定し、「最も良い生成画像条件は?」という問い合わせ(クエリ)が入力されたものとする。この場合、関連対応部40tは、素線切れの再現率と適合率を用いて、所定の演算方法により総合して最も良好な数値が得られる生成画像条件(正常画像と異常画像の割合)を求める。この結果、正常画像と異常画像の比が9:1の場合に最も良好な結果が得られることが求められる。すなわち、情報処理装置10の異常箇所検出処理において、被点検物の画像から「素線切れ」について異常箇所を検出する場合に、正常画像と異常画像の比が9:1に対応する学習モデルを用いた場合に、最も良好に異常箇所を検出することができる。 In addition, it is assumed that "broken wire" and "both recall rate / conformity rate" are specified, and an inquiry (query) "What is the best generated image condition?" Is input. In this case, the related corresponding unit 40t uses the recall rate and the matching rate of the broken wire to determine the generated image condition (ratio of normal image and abnormal image) in which the best numerical value is obtained by a predetermined calculation method. Ask. As a result, it is required that the best result can be obtained when the ratio of the normal image to the abnormal image is 9: 1. That is, in the abnormal part detection process of the information processing apparatus 10, when the abnormal part is detected for "wire breakage" from the image of the object to be inspected, a learning model corresponding to a ratio of the normal image to the abnormal image of 9: 1 is provided. When used, the abnormal part can be detected most satisfactorily.

こうして、問い合わせ部40uから問い合わせた結果に基づいて、情報処理装置10における異常箇所検出処理に用いる学習モデルを決定し、情報処理装置10(学習モデル21a)に記憶させることができる。例えば、情報処理装置10において、異常種類として「アーク痕全般」「素線切れ」「炭付着」「光沢」を個別に選択して異常箇所を検出できるようにする場合には、それぞれに対応する学習モデルが決定される。また、情報処理装置10において、「再現率」あるいは「適合率」の何れかを選択して異常箇所を検出できるようにする場合には、「再現率」あるいは「適合率」の何れか一方に基づいて学習モデルが決定される。 In this way, based on the result of the inquiry from the inquiry unit 40u, the learning model used for the abnormal portion detection process in the information processing device 10 can be determined and stored in the information processing device 10 (learning model 21a). For example, in the information processing apparatus 10, when "general arc mark", "broken wire", "charcoal adhesion", and "gloss" are individually selected as the abnormality type so that the abnormality portion can be detected, each of them corresponds to each. The learning model is determined. Further, in the information processing apparatus 10, when either the "recall rate" or the "compliance rate" is selected so that the abnormal portion can be detected, either the "recall rate" or the "compliance rate" is selected. The learning model is determined based on this.

なお、前述した説明では、作業員等の操作により入力される指示に応じて、問い合わせ部40uから問い合わせをすることで、問い合わせに応じた生成画像条件が応答されるとしているが、管理装置12は、情報処理装置10で使用する学習モデルの条件を予め設定しておくことで、この条件を満たす生成画像条件の学習モデルを情報処理装置10に対して送信するようにしても良い。学習モデルの条件は、前述した問い合わせ(異常種類、再現率もしくは適合率の少なくとも一方の指定)と同様の内容とすることができる。 In the above description, the inquiry unit 40u responds to the generated image condition in response to the inquiry in response to the instruction input by the operation of the worker or the like. By setting the conditions of the learning model used in the information processing device 10 in advance, the learning model of the generated image conditions satisfying this condition may be transmitted to the information processing device 10. The conditions of the learning model can be the same as the above-mentioned inquiry (designation of at least one of the abnormality type, recall rate, and precision rate).

また、前述した説明では、1つの「最も良い生成画像条件」を決定して、情報処理装置10の異常箇所検出処理で使用する学習モデルとしているが、例えば複数の生成画像条件(例えば、正常画像/異常画像が9:1と8:1)の学習モデルを組み合わせて、情報処理装置10において用いられるようにしても良い。 Further, in the above description, one "best generated image condition" is determined and used as a learning model used in the abnormal portion detection process of the information processing apparatus 10, but for example, a plurality of generated image conditions (for example, a normal image) are used. / Abnormal images may be used in the information processing device 10 by combining the learning models of 9: 1 and 8: 1).

このようにして、本実施形態における管理装置12では、異常/劣化等の検出対象とする異常画像とその画像の近傍の正常画像とを用いて、ディープラーニング(深層学習)の技術を利用して類似画像を効率的に精度良く自動生成し、情報処理装置10における異常箇所検出処理に用いる学習モデルを生成することができる。 In this way, in the management device 12 in the present embodiment, the technique of deep learning (deep learning) is utilized by using the abnormal image to be detected such as abnormality / deterioration and the normal image in the vicinity of the image. Similar images can be automatically generated efficiently and accurately, and a learning model used for abnormality detection processing in the information processing apparatus 10 can be generated.

なお、前述した管理装置12における学習モデルを生成する処理は、送電設備17において発生する異常箇所(送電線のアーク痕など)を例にして説明しているが、産業向けの機器/構造物等で画像認識によって異常/劣化等を判別するシステム/装置に広く適用することが可能である。 The process of generating the learning model in the management device 12 described above is described by taking an abnormal portion (such as an arc mark of a transmission line) generated in the power transmission facility 17 as an example, but is an industrial device / structure or the like. It can be widely applied to systems / devices that discriminate abnormalities / deteriorations by image recognition.

次に、本実施形態における情報処理装置10とドローン14による巡視点検の動作について説明する。ここでは、例えば送電設備17に対して落雷による異常箇所が生じる場合を想定と説明する。
例えば、作業員等は、送電設備17に対してドローン14を用いた巡視点検をする場合には、情報処理装置10とドローン14を自動車などに搭載して、ドローン14が送電設備17まで飛行可能な範囲内に移動する。
Next, the operation of the patrol inspection by the information processing device 10 and the drone 14 in the present embodiment will be described. Here, for example, it is assumed that an abnormal portion occurs due to a lightning strike on the power transmission facility 17.
For example, when a worker or the like performs a patrol inspection using a drone 14 on a power transmission facility 17, the information processing device 10 and the drone 14 can be mounted on an automobile or the like, and the drone 14 can fly to the power transmission facility 17. Move within a range.

まず、情報処理装置10では、巡視点検の対象とする送電設備17に応じてフライトプランの設定を行う。情報処理装置10は、例えば図15に示すような、フライトプランを設定するための巡回/点検ルート選択画面60を表示させて、作業員等により選択させる。巡回/点検ルート選択画面60には、例えば定期巡回ボタン61、事故巡回ボタン62、鉄塔巡回ボタン63が設けられており、何れかを任意に選択することができる。事故巡回は、例えば、送電設備17への落雷等の事故発生時に巡回し、事故原因を特定するために実行される。定期巡回及び鉄塔巡回は、定期的な巡回あるいは点検のために巡回される。 First, the information processing device 10 sets a flight plan according to the power transmission equipment 17 to be inspected. The information processing device 10 displays a patrol / inspection route selection screen 60 for setting a flight plan, as shown in FIG. 15, and allows an operator or the like to select the screen 60. The patrol / inspection route selection screen 60 is provided with, for example, a regular patrol button 61, an accident patrol button 62, and a tower patrol button 63, and any of them can be arbitrarily selected. The accident patrol is executed to identify the cause of the accident by patrol when an accident such as a lightning strike on the power transmission facility 17 occurs. Regular patrols and tower patrols are patrols for regular patrols or inspections.

事故巡回ボタン62により事故巡回が選択された場合、情報処理装置10のフライトプラン処理部20bは、巡視点検指示入力部20aにより選択内容を入力し、図16に示すように、例えば、鉄塔に設けられた被点検物(閃絡表示器、アークホーン、碍子等)と、架空地線及び送電線の画像を撮影して戻るフライトプラン(飛行制御データ)を生成する。また、定期巡回ボタン61により定期巡回が選択された場合、フライトプラン処理部20bは、同様にして、図17に示すように、例えば架空地線及び送電線の画像を撮影可能なフライトプラン(飛行制御データ)を生成する。なお、図示しないが、鉄塔巡回ボタン63により鉄塔巡回が選択された場合には、フライトプラン処理部20bは、対象とする鉄塔を下部から上端までの画像を撮影可能なフライトプラン(飛行制御データ)を生成する。 When the accident patrol is selected by the accident patrol button 62, the flight plan processing unit 20b of the information processing device 10 inputs the selection contents by the patrol inspection instruction input unit 20a, and is provided on, for example, a steel tower as shown in FIG. Generates a flight plan (flight control data) that takes images of the inspected objects (flash indicator, arc horn, insulator, etc.) and the overhead ground wire and power transmission line. Further, when the regular patrol is selected by the regular patrol button 61, the flight plan processing unit 20b similarly captures an image of, for example, an overhead ground wire and a power transmission line as shown in FIG. 17 (flight). Control data) is generated. Although not shown, when tower patrol is selected by the tower patrol button 63, the flight plan processing unit 20b can capture an image of the target tower from the bottom to the top (flight control data). To generate.

なお、巡視点検の対象とする送電設備17については、予め鉄塔が設置された位置、鉄塔の形状などの基本情報が情報処理装置10に記憶されており、作業員等により指定できるものとする。フライトプラン処理部20bは、巡視点検の対象とする送電設備17の位置などの基本情報と、巡回/点検ルート選択画面60において選択された巡視点検のフライトプランに基づいて飛行制御データを生成する。 Regarding the power transmission equipment 17 to be inspected by patrol, basic information such as the position where the steel tower is installed and the shape of the steel tower is stored in the information processing device 10 in advance, and can be specified by a worker or the like. The flight plan processing unit 20b generates flight control data based on basic information such as the position of the power transmission facility 17 to be patrol-inspected and the flight plan of the patrol-inspection selected on the patrol / inspection route selection screen 60.

なお、巡回/点検ルート選択画面60では、定期巡回ボタン61、事故巡回ボタン62、鉄塔巡回ボタン63のそれぞれに対して、通常ボタン61a,62a,63aと冬季ボタン61b,62b,63bがそれぞれ設けられている。 In the patrol / inspection route selection screen 60, normal buttons 61a, 62a, 63a and winter buttons 61b, 62b, 63b are provided for each of the regular patrol button 61, the accident patrol button 62, and the tower patrol button 63, respectively. ing.

一般に、落雷は送電設備17の上空から下向きに放電されるため、例えば架空地線に落雷があった場合、架空地線の上面側にアーク痕などの異常箇所が生じる。従って、通常ボタン61a,62a,63aの選択によって(デフォルト)、ドローン14が架空地線の上側の画像を撮影することができるフライトプランが作成される。 Generally, a lightning strike is discharged downward from above the power transmission facility 17, so that, for example, when there is a lightning strike on the overhead ground wire, an abnormal portion such as an arc mark is generated on the upper surface side of the overhead ground wire. Therefore, by selecting the normal buttons 61a, 62a, 63a (default), a flight plan is created in which the drone 14 can take an image above the overhead ground wire.

一方、北陸地方の冬季間においては、地表から上向きに放電される冬季雷が発生する場合がある。従って、冬季雷によって送電設備17に落雷があった場合には、送電線の下面側にアーク痕などの異常箇所が生じる可能性がある。よって、冬季ボタン61b,62b,63bの選択によって、架空地線や送電線の下面側の画像を撮影することができるフライトプランを作成できるようにしている。 On the other hand, during the winter in the Hokuriku region, winter lightning that is discharged upward from the ground surface may occur. Therefore, if the power transmission equipment 17 is struck by lightning due to winter lightning, an abnormal portion such as an arc mark may occur on the lower surface side of the power transmission line. Therefore, by selecting the winter buttons 61b, 62b, 63b, it is possible to create a flight plan capable of taking an image of the lower surface side of the overhead ground wire or the transmission line.

なお、図16及び図17では、ドローン14を送電設備17の上方を飛行させることで、例えば架空地線と複数の送電線を含む画像を撮影する例を示しているが、例えば架空地線と複数の送電線の画像を個々に撮影させるために、鉄塔の間を複数回往復するように飛行させても良い。また、落雷以外の異常箇所、例えば送電線の側面側よりクレーン、飛行物、樹木等が接触することにより生じる異常箇所の画像を撮影するために、送電線の側面側から画像を撮影させるように飛行させても良い。 Note that FIGS. 16 and 17 show an example in which the drone 14 is made to fly above the power transmission facility 17 to take an image including, for example, an overhead ground wire and a plurality of power transmission lines. In order to take images of a plurality of power transmission lines individually, they may be flown back and forth between the towers a plurality of times. In addition, in order to take an image of an abnormal part other than a lightning strike, for example, an abnormal part caused by contact with a crane, a flying object, a tree, etc. from the side surface side of the transmission line, an image is taken from the side surface side of the transmission line. You may fly it.

図18、図19及び図20には、送電設備17に設けられる被点検物の一例を示している。図18は、1つの鉄塔17aを示している。鉄塔17aには、通常、架空地線17b、3本の送電線17c,17d,17eが架設されている。送電線17c,17d,17eは、それぞれ碍子17hを介して、鉄塔17aに架設されている。図19は、碍子17hの一例を示している。碍子17hには、鉄塔17aに落雷があった場合に、碍子17hが破壊されるのを防ぐためにアークホーン17gが設けられている。また、鉄塔17aには、鉄塔17aあるいは架空地線17bに落雷があった場合に、落雷があったことを通知するための閃絡表示器17fが装着されている。図20には、閃絡表示器17fの一例を示している。図20(A)は、通常時の閃絡表示器17fの状態を示し、図20(B)は、鉄塔17aに落雷があった場合の閃絡表示器17fを示している。図20(B)に示すように、閃絡表示器17fは、鉄塔17aあるいは架空地線17bに落雷があった場合、鉄塔17aに流れる電流により表示器本体17f1から蓋17f2が開き、内部に収納されていた表示布17f3が露出される。 18, FIG. 19 and FIG. 20 show an example of an object to be inspected provided in the power transmission facility 17. FIG. 18 shows one tower 17a. Normally, overhead ground wires 17b and three transmission lines 17c, 17d, 17e are erected on the tower 17a. The transmission lines 17c, 17d, and 17e are erected on the steel tower 17a via insulators 17h, respectively. FIG. 19 shows an example of the insulator 17h. The insulator 17h is provided with an arc horn 17g in order to prevent the insulator 17h from being destroyed in the event of a lightning strike on the steel tower 17a. Further, the steel tower 17a is equipped with a flash indicator 17f for notifying that there is a lightning strike when there is a lightning strike on the steel tower 17a or the overhead ground wire 17b. FIG. 20 shows an example of the flash indicator 17f. FIG. 20 (A) shows the state of the flash indicator 17f in a normal state, and FIG. 20 (B) shows the flash indicator 17f when there is a lightning strike on the tower 17a. As shown in FIG. 20B, when there is a lightning strike on the steel tower 17a or the overhead ground wire 17b, the flash display 17f opens the lid 17f2 from the display main body 17f1 due to the current flowing through the steel tower 17a and is housed inside. The display cloth 17f3 that has been used is exposed.

管理装置12では、前述した送電線に生じる異常状態に対する学習モデルと同様にして、アークホーン17g、碍子17h、閃絡表示器17fに対する学習モデルを作成することで、これらの被点検物についても、ドローン14により撮影される画像から検出することができる。例えば、アークホーン17gについては、落雷によって生じるアーク痕を検出可能な学習モデルが生成される。碍子17hについては、落雷によって生じる破損(亀裂)を検出可能な学習モデルが生成される。 In the management device 12, the learning model for the arc horn 17g, the insulator 17h, and the flash indicator 17f is created in the same manner as the learning model for the abnormal state occurring in the transmission line described above, so that these inspected objects can also be inspected. It can be detected from the image taken by the drone 14. For example, for the arc horn 17g, a learning model capable of detecting an arc mark caused by a lightning strike is generated. For insulator 17h, a learning model that can detect damage (cracks) caused by lightning strikes is generated.

図21には、本実施形態におけるフライトプラン処理部20bによって生成されるフライトプラン(飛行制御データ)の一例を示している。飛行制御データは、巡視点検の対象とする送電設備17を撮影するための一連の飛行経路をドローン14により飛行させるためのもので、例えば巡回/点検対象ごとに区分する巡回/点検対象データが対応づけられている。 FIG. 21 shows an example of a flight plan (flight control data) generated by the flight plan processing unit 20b in the present embodiment. The flight control data is for flying a series of flight routes for photographing the power transmission equipment 17 to be inspected by the drone by the drone 14, and for example, the patrol / inspection target data classified for each patrol / inspection target corresponds. It is attached.

次に、本実施形態におけるドローン14による動作について、図22に示すフローチャートを参照しながら説明する。
ドローン14の制御ユニット30aは、情報処理装置10から受信した飛行制御データを記憶した後、飛行開始が指示されると、飛行制御部30dにより駆動ユニット30mを駆動して、飛行制御データに応じた経路を飛行させる飛行制御を開始する(ステップB1)。
Next, the operation of the drone 14 in the present embodiment will be described with reference to the flowchart shown in FIG.
The control unit 30a of the drone 14 stores the flight control data received from the information processing device 10, and when the flight start is instructed, the flight control unit 30d drives the drive unit 30m to respond to the flight control data. Flight control for flying the route is started (step B1).

また、制御ユニット30aは、取得データ生成部30bによる取得データの生成し記憶を開始させる。すなわち、取得データ生成部30bは、被点検物(巡回/点検対象)毎の撮影をした期間(あるい開始タイミング)を示す巡回/点検対象データの記憶(ステップB2)、カメラ14cにより撮影される画像データ(ここでは、例えば動画像データ)の記録、GPSデータ受信部30gにより生成される位置データの記憶を開始する(ステップB2,B3,B4)。 Further, the control unit 30a generates the acquired data by the acquired data generation unit 30b and starts the storage. That is, the acquired data generation unit 30b stores the patrol / inspection target data (step B2) indicating the period (or start timing) of shooting for each inspected object (patrol / inspection target), and is photographed by the camera 14c. Recording of image data (here, for example, moving image data) and storage of position data generated by the GPS data receiving unit 30g are started (steps B2, B3, B4).

図23は、本実施形態における取得データ生成部30bにより生成される取得データの一例を示している。図23に示すように、取得データ生成部30bは、カメラ14cにより撮影された動画像データ(図23(A))、GPSデータ受信部30gにより生成される位置データ(図23(C))、及び巡回/点検対象データ(図23(B))とが対応づけて記憶する。 FIG. 23 shows an example of the acquired data generated by the acquired data generation unit 30b in the present embodiment. As shown in FIG. 23, the acquisition data generation unit 30b includes moving image data (FIG. 23 (A)) taken by the camera 14c, position data (FIG. 23 (C)) generated by the GPS data reception unit 30g, and so on. And the patrol / inspection target data (FIG. 23 (B)) are associated and stored.

最初の巡回/点検対象が「鉄塔B−1」であるため、巡回/点検対象データとして「鉄塔B−1」が記憶される。動画像データと位置データは継続して記憶される。なお、位置データは、所定の時間毎に記憶されるようにしても良い。また、動画像データではなく、静止画像データ連続して記憶するようにしても良い。 Since the first patrol / inspection target is "steel tower B-1", "steel tower B-1" is stored as patrol / inspection target data. The moving image data and the position data are continuously stored. The position data may be stored at predetermined time intervals. Further, instead of the moving image data, the still image data may be continuously stored.

図23に示すように、巡回/点検データを記憶しておくことで、ドローン14による撮影が終了した後、巡回/点検データをもとに、動画像データに含まれる被点検物別の記録範囲を容易に検索することができる。例えば、「架空地線」を示す巡回/点検対象データをもとに、「架空地線」が撮影された動画像データの範囲M2を検索することができる。また、動画像データと位置データとが対応づけて記憶されるため、例えば動画像データの範囲M2に異常箇所が撮影されている場合に、異常箇所が撮影された時のドローン14の位置を示す位置データPEをもとに、「架空地線」に生じている異常箇所の位置(緯度、経度)を大まかに把握することができる。 As shown in FIG. 23, by storing the patrol / inspection data, after the shooting by the drone 14 is completed, the recording range for each inspected object included in the moving image data is based on the patrol / inspection data. Can be easily searched. For example, it is possible to search the range M2 of the moving image data in which the "fictitious ground wire" is captured, based on the patrol / inspection target data indicating the "fictitious ground wire". Further, since the moving image data and the position data are stored in association with each other, for example, when an abnormal part is photographed in the range M2 of the moving image data, the position of the drone 14 when the abnormal part is photographed is shown. Based on the position data PE, the position (latitude, longitude) of the abnormal part occurring on the "fictitious ground wire" can be roughly grasped.

なお、前述した説明では、取得データをドローン14(例えばメモリ30f)に記憶させるとしているが、リアルタイムで情報処理装置10に対して無線通信により送信することも可能である(ステップB5)。 In the above description, the acquired data is stored in the drone 14 (for example, the memory 30f), but it is also possible to transmit the acquired data to the information processing device 10 by wireless communication in real time (step B5).

取得データ生成部30bは、巡回/点検対象に対応する範囲の飛行が完了すると(ステップB6、Yes)、全ての巡回/点検対象に対応する範囲の飛行が完了していなければ(ステップB7、No)、次の被点検物に巡回/点検対象が移った時点で新たな巡回/点検対象データを記憶させる(ステップB2)。以下、同様にして、次の巡回/点検対象について撮影した動画像データと位置データとを記憶させる(ステップB3、B4)。 When the flight of the range corresponding to the patrol / inspection target is completed (step B6, Yes), the acquired data generation unit 30b has not completed the flight of the range corresponding to all the patrol / inspection targets (step B7, No.). ), When the patrol / inspection target moves to the next inspection target, new patrol / inspection target data is stored (step B2). Hereinafter, in the same manner, the moving image data and the position data taken for the next patrol / inspection target are stored (steps B3 and B4).

以下同様にして、取得データの記録を継続し、全ての巡回/点検対象に対応する範囲の飛行が完了すると(ステップB7、Yes)、制御ユニット30aは、ドローン14を元の飛行開始位置に戻す飛行制御を開始して、取得データの記憶を終了させる。 In the same manner thereafter, the recording of the acquired data is continued, and when the flight in the range corresponding to all the patrol / inspection targets is completed (step B7, Yes), the control unit 30a returns the drone 14 to the original flight start position. Flight control is started and the storage of acquired data is completed.

次に、本実施形態における情報処理装置10における取得データ管理処理について、図25及び図26に示すフローチャートを参照しながら説明する。
ドローン14により記憶された取得データは、情報処理装置10に送信され、取得データ記憶部21dにおいて記憶される。取得データ記憶部21dには、ドローン14による複数回の飛行により記憶された取得データを記憶させてくことができる。情報処理装置10は、作業者等の操作により、画像データをもとに被点検物に生じた異常箇所を検出して確認するための取得データの整理を開始する。
Next, the acquired data management process in the information processing apparatus 10 according to the present embodiment will be described with reference to the flowcharts shown in FIGS. 25 and 26.
The acquired data stored by the drone 14 is transmitted to the information processing device 10 and stored in the acquired data storage unit 21d. The acquired data storage unit 21d can store the acquired data stored by the drone 14 in a plurality of flights. The information processing device 10 starts organizing the acquired data for detecting and confirming the abnormal portion generated in the inspected object based on the image data by the operation of the operator or the like.

まず、情報処理装置10は、巡回/点検ルート選択画面60を通じて処理対象とする巡回/点検ルートの指定を入力し、指定された巡回/点検ルートの飛行により記憶された取得データから処理対象を選択する(ステップC1)。また、情報処理装置10は、例えば図24に示すような、検査対象とする被点検物を選択するための検査対象項目選択画面70を表示させて、作業員等により何れかの検査対象項目を選択させる。検査対象項目選択画面70には、例えば全てボタン71の他、架空地線及び送電線を対象とした、アーク痕ボタン72、素線切れボタン73、炭付着ボタン74、光沢ボタン75が設けられている。なお、検査対象項目選択画面70には、他の被点検物(碍子、アークホーン、閃絡表示器)を指定する選択対象項目が設けられている(図示せず)。 First, the information processing device 10 inputs the designation of the patrol / inspection route to be processed through the patrol / inspection route selection screen 60, and selects the processing target from the acquired data stored by the flight of the designated patrol / inspection route. (Step C1). Further, the information processing apparatus 10 displays an inspection target item selection screen 70 for selecting an inspection target object to be inspected, as shown in FIG. 24, and a worker or the like displays one of the inspection target items. Let me choose. In addition to the buttons 71, the inspection target item selection screen 70 is provided with an arc mark button 72, a wire break button 73, a charcoal adhesion button 74, and a gloss button 75 for overhead ground wires and power transmission lines, for example. There is. The inspection target item selection screen 70 is provided with selection target items for designating other objects to be inspected (insulator, arc horn, flash indicator) (not shown).

例えば、全てボタン71が選択された場合、異常箇所検出部21cは、指定された巡回/点検ルートにおいてドローン14により撮影される全ての被点検物を検査対象として、全ての被点検物のそれぞれを検出するための学習モデルを設定する(ステップC3)。 For example, when all the buttons 71 are selected, the abnormality location detection unit 21c targets all the objects to be inspected taken by the drone 14 on the designated patrol / inspection route, and inspects all the objects to be inspected. A learning model for detection is set (step C3).

同様にして、例えばアーク痕ボタン72が選択された場合、異常箇所検出部21cは、アーク痕(素線切れ、炭付着、光沢の各カテゴリを含む)を検出対象として、アーク痕(素線切れ、炭付着、光沢)を検出するための学習モデルを設定する(ステップC3)。同様にして、素線切れボタン73、炭付着ボタン74、光沢ボタン75の何れかが選択された場合には、それぞれに対応する異常箇所を検出するための学習モデルが設定される。前述したように、異常箇所を検出するための学習モデルは、管理装置12において、異常種類毎に最も良好に異常箇所を検出することができる正常画像と異常画像の組み合わせの割合(比)で組み合わせた類似画像をもとに生成されている。 Similarly, for example, when the arc mark button 72 is selected, the abnormal portion detection unit 21c sets the arc mark (including each category of wire breakage, charcoal adhesion, and gloss) as a detection target, and the arc mark (wire breakage). , Charcoal adhesion, gloss), and a learning model for detecting (step C3). Similarly, when any of the wire break button 73, the charcoal adhesion button 74, and the gloss button 75 is selected, a learning model for detecting an abnormal portion corresponding to each is set. As described above, the learning model for detecting the abnormal part is combined by the ratio (ratio) of the combination of the normal image and the abnormal image that can detect the abnormal part best for each abnormality type in the management device 12. It is generated based on similar images.

検査対象項目選択画面70において、検査対象項目を選択できるようにすることで、特定の異常箇所に対応する学習モデルを用いて異常箇所の検出処理を実行できるため、認識精度を向上させると共に、処理時間の短縮を図ることができる。 By making it possible to select the inspection target item on the inspection target item selection screen 70, it is possible to execute the abnormality detection processing using the learning model corresponding to the specific abnormality portion, so that the recognition accuracy is improved and the processing is performed. The time can be shortened.

異常箇所検出部21cは、検査対象項目(学習モデル)の設定が完了した後、取得データ記憶部21dに記憶された処理対象とする取得データを読み出し、取得データに含まれる巡回/点検対象データを判別する(ステップC4)。ここで、異常箇所検出部21cは、巡回/点検対象データが、検査対象項目により指定される異常箇所の検出対象に該当するか判別する。 After the setting of the inspection target item (learning model) is completed, the abnormality location detection unit 21c reads the acquired data to be processed stored in the acquired data storage unit 21d, and reads the patrol / inspection target data included in the acquired data. Determine (step C4). Here, the abnormal location detection unit 21c determines whether the patrol / inspection target data corresponds to the detection target of the abnormal location specified by the inspection target item.

例えば、検査対象項目選択画面70において、検査対象項目として、架空地線及び送電線を対象としたアーク痕ボタン72が選択されている場合、巡回/点検対象データが「鉄塔B−1」であれば、異常箇所の検出対象ではないと判別する。異常箇所検出部21cは、異常箇所の検出対象ではないと判別すると(ステップC5、No)、異常検出の検出対象とする巡回/点検対象データ(例えば「架空地線」)まで動画像データをスキップして、異常箇所の検出対象が撮影された動画像データを処理対象とする。すなわち、検査対象項目選択画面70において選択された検査対象項目に応じて、異常箇所の検出対象となっていない被点検物を撮影した動画像データの処理を省略することで、処理時間の短縮を図る。 For example, on the inspection target item selection screen 70, when the arc mark button 72 for the overhead ground wire and the transmission line is selected as the inspection target item, the patrol / inspection target data may be “steel tower B-1”. For example, it is determined that the abnormal part is not the detection target. When the abnormality location detection unit 21c determines that the abnormality location is not the detection target (steps C5, No), the moving image data is skipped to the patrol / inspection target data (for example, “fictitious ground wire”) to be detected for the abnormality detection. Then, the moving image data in which the detection target of the abnormal portion is captured is set as the processing target. That is, the processing time can be shortened by omitting the processing of the moving image data obtained by photographing the inspected object that is not the detection target of the abnormal portion according to the inspection target item selected on the inspection target item selection screen 70. Try.

異常箇所検出部21cは、異常箇所の検出対象が撮影された動画像データについて、検査対象項目に応じて設定した学習モデルを用いて、検出対象とする異常箇所を検出する異常箇所検出処理を実行する(ステップC7)。 The abnormal location detection unit 21c executes an abnormal location detection process for detecting the abnormal location to be detected by using a learning model set according to the inspection target item for the moving image data in which the detection target of the abnormal location is captured. (Step C7).

図26は、本実施形態における異常箇所検出処理を示すフローチャートである。
異常箇所検出部21cは、取得データ記憶部21dに記憶された取得データの動画像データから既存の画像処理により被点検物に相当する領域を検出し、その領域から異常画像候補領域を検出する。すなわち、被点検物において周囲と異なる状態(形状、色等)にある異常箇所の可能性がある部分を検出する。異常箇所検出部21cは、異常画像候補領域の画像データについて、被点検物に生じる異常種類の特徴を示す学習モデルを用いて、検出対象とする異常種類に相当する画像であるかを判定する(ステップD2)。
FIG. 26 is a flowchart showing an abnormal portion detection process in the present embodiment.
The abnormality location detection unit 21c detects a region corresponding to the object to be inspected by existing image processing from the moving image data of the acquired data stored in the acquisition data storage unit 21d, and detects an abnormality image candidate region from that region. That is, the part of the object to be inspected that may be in an abnormal state (shape, color, etc.) different from the surroundings is detected. The abnormality location detection unit 21c determines whether the image data of the abnormality image candidate region is an image corresponding to the abnormality type to be detected by using a learning model showing the characteristics of the abnormality type occurring in the object to be inspected. Step D2).

ここで、異常種類を表す画像であると判定された場合(ステップD3、Yes)、異常箇所検出部21cは、異常種類に相当する画像(異常画像)と判定された画像データ(異常箇所画像データ)を切り出すと共に、異常箇所画像データに対応する位置データを取得する。なお、異常箇所検出部21cは、何れの異常種類に対応する学習モデルをもとに異常と検出されたか、すなわち何れの異常種類の以上箇所であるかを示す異常種類データを記憶する。例えば、検査対象項目選択画面70において、アーク痕ボタン72が選択されている場合、素線切れ、炭付着、光沢の各カテゴリに対応する学習モデルを用いて異常箇所の判定が実行されており、素線切れに対応する学習モデルにより異常箇所と判定された場合に、「素線切れ」を示す異常種類データを記憶する。 Here, when it is determined that the image represents the abnormal type (step D3, Yes), the abnormal portion detecting unit 21c is the image data (abnormal portion image data) determined to be the image corresponding to the abnormal type (abnormal image). ) Is cut out, and the position data corresponding to the abnormal location image data is acquired. The abnormality location detection unit 21c stores abnormality type data indicating which abnormality type is detected as an abnormality based on the learning model corresponding to which abnormality type, that is, which abnormality type is more than the location. For example, when the arc mark button 72 is selected on the inspection target item selection screen 70, the determination of the abnormal portion is executed using the learning model corresponding to each category of wire breakage, charcoal adhesion, and gloss. When it is determined as an abnormal part by the learning model corresponding to the broken wire, the abnormal type data indicating "broken wire" is stored.

異常箇所検出部21cは、異常箇所検出処理により異常箇所が検出されると異常箇所のデータを異常箇所記憶部21gに記憶させる(ステップD5)。異常箇所のデータには、例えば異常箇所画像データ、異常箇所画像データに対応する位置データ(及び時刻)、異常種類データ、異常箇所画像データを含む動画像データの範囲に対応する巡回/点検対象データ、動画像データに対応する巡回/点検ルートなどを含む。 When the abnormal portion is detected by the abnormal portion detecting process, the abnormal portion detecting unit 21c stores the data of the abnormal portion in the abnormal portion storage unit 21g (step D5). The data of the abnormal part includes, for example, the abnormal part image data, the position data (and time) corresponding to the abnormal part image data, the abnormal type data, and the patrol / inspection target data corresponding to the range of the moving image data including the abnormal part image data. , Includes patrol / inspection routes corresponding to moving image data.

異常箇所検出部21cは、処理対象とする取得データが終了するまで、前述した処理を実行する(ステップC4〜C13)。なお、異常箇所を検出する処理が実行されている間に、作業員等からの指示によって、例えば検査対象項目選択画面70を通じて検出対象とする異常箇所が変更された場合には(ステップC10、Yes)、異常箇所検出部21cは、変更後の検出対象とする異常箇所(検査対象項目)に応じた学習モデルを再設定して、前述と同様にして、異常箇所を検出する処理を再開する。 The abnormality location detection unit 21c executes the above-described processing until the acquired data to be processed is completed (steps C4 to C13). If, for example, the abnormal part to be detected is changed through the inspection target item selection screen 70 by an instruction from a worker or the like while the process of detecting the abnormal part is being executed (step C10, Yes). ), The abnormal part detection unit 21c resets the learning model according to the changed abnormal part (inspection target item) to be detected, and restarts the process of detecting the abnormal part in the same manner as described above.

一方、異常箇所表示部21fは、異常箇所記憶部21gに記憶された異常箇所のデータをもとに、作業員等に検出結果を確認させるための異常候補画像表示画面を表示させる(ステップC9)。 On the other hand, the abnormality location display unit 21f displays an abnormality candidate image display screen for allowing a worker or the like to confirm the detection result based on the abnormality location data stored in the abnormality location storage unit 21g (step C9). ..

図27は、本実施形態における異常候補画像表示画面80の一例を示す図である。
異常候補画像表示画面80には、例えば異常箇所画像データをもとに異常箇所画像81(異常候補画像)と共に異常種類データが示す異常種類82が表示される。また、異常候補画像表示画面80には、異常箇所画像81に関係する参考情報83が表示される。参考情報83には、例えば巡回/点検ルートを示す「Point B−1」、撮影日時、位置データが示す検出位置(緯度、経度、高度)、巡回/点検対象データが示す被点検物「上部送電線」「上部」(送電線の上部からの撮影であることを示す)が含まれる。また、参考情報83には、マップボタン84が設けられている。マップボタン84が選択された場合、異常箇所表示部21fは、検出位置を含む地図(送電設備17の位置などを付加する)を表示させて、送電設備17の異常箇所が検出された位置を地図上で確認できるようにする。
FIG. 27 is a diagram showing an example of the abnormality candidate image display screen 80 according to the present embodiment.
On the abnormality candidate image display screen 80, for example, the abnormality type 82 indicated by the abnormality type data is displayed together with the abnormality portion image 81 (abnormality candidate image) based on the abnormality portion image data. Further, on the abnormality candidate image display screen 80, reference information 83 related to the abnormality portion image 81 is displayed. Reference information 83 includes, for example, "Point B-1" indicating a patrol / inspection route, a shooting date / time, a detection position (latitude, longitude, altitude) indicated by position data, and an inspected object "upper feed" indicated by patrol / inspection target data. Includes "electric wire" and "upper" (indicating that the image was taken from the upper part of the transmission line). Further, the reference information 83 is provided with a map button 84. When the map button 84 is selected, the abnormality location display unit 21f displays a map including the detection position (adding the position of the power transmission equipment 17 and the like), and maps the position where the abnormality location of the power transmission equipment 17 is detected. Make it visible above.

異常箇所表示部21fは、異常箇所記憶部21gによって動画像データから異常箇所(候補)が検出されると、異常候補画像表示画面80において、新たに検出された異常箇所(候補)に関する各情報を、前述したように順次、追加表示する。よって、作業員等は、取得データに対して異常箇所を検出する処理を実行している間に、異常箇所が検出された時点で検出内容を確認することができる。 When the abnormal part (candidate) is detected from the moving image data by the abnormal part storage unit 21g, the abnormal part display unit 21f displays each information regarding the newly detected abnormal part (candidate) on the abnormality candidate image display screen 80. , As described above, additional displays are sequentially displayed. Therefore, the worker or the like can confirm the detected content at the time when the abnormal portion is detected while executing the process of detecting the abnormal portion in the acquired data.

また、異常箇所表示部21fは、異常候補画像表示画面80において例えば異常箇所画像81を選択する操作がされた場合、選択された異常箇所画像81に対応する異常箇所を作業員等により最終確認させるための異常箇所確認画面を表示させる。 Further, when the abnormality location display unit 21f selects, for example, the abnormality location image 81 on the abnormality candidate image display screen 80, the worker or the like finally confirms the abnormality portion corresponding to the selected abnormality portion image 81. Display the abnormal part confirmation screen for.

図28は、本実施形態における異常箇所確認画面90の一例を示す図である。
異常箇所確認画面90には、異常候補画像表示画面80において選択された異常箇所画像81を拡大した異常箇所画像91と、異常候補画像表示画面80において表示されていない異常箇所画像を縮小した異常箇所画像92a,92b,92cが表示される。
FIG. 28 is a diagram showing an example of the abnormality location confirmation screen 90 in the present embodiment.
On the abnormality part confirmation screen 90, the abnormality part image 91 which enlarged the abnormality part image 81 selected on the abnormality candidate image display screen 80 and the abnormality part image which is not displayed on the abnormality candidate image display screen 80 are reduced. Images 92a, 92b, 92c are displayed.

また、異常箇所確認画面90には、異常箇所画像91に関係する参考情報93が表示される。参考情報93には、例えば巡回/点検ルートを示す「Point B−1」、撮影日時、検出位置(緯度、経度、高度)が含まれる。さらに、異常箇所確認画面90には、作業員等による異常種類の確認指示を入力するための異常箇所確認ボタン94、作業員等による異常箇所ではないことを確認した指示を入力するための誤認識ボタン95が設けられている。異常箇所確認ボタン94には、例えば確認指示を入力可能な複数の異常種類のそれぞれに対応するボタン、例えばアーク痕ボタン94a、素線切れボタン94b、炭付着ボタン94c、光沢ボタン94dが設けられている。 Further, the reference information 93 related to the abnormal portion image 91 is displayed on the abnormal portion confirmation screen 90. The reference information 93 includes, for example, "Point B-1" indicating a patrol / inspection route, a shooting date and time, and a detection position (latitude, longitude, altitude). Further, on the abnormality location confirmation screen 90, an abnormality location confirmation button 94 for inputting an abnormality type confirmation instruction by a worker or the like, and an erroneous recognition for inputting an instruction confirmed not to be an abnormality location by a worker or the like. A button 95 is provided. The abnormality location confirmation button 94 is provided with buttons corresponding to each of a plurality of abnormality types to which confirmation instructions can be input, such as an arc mark button 94a, a wire break button 94b, a charcoal adhesion button 94c, and a gloss button 94d. There is.

なお、異常箇所確認画面90では、異常箇所画像91の左右に設けられた方向ボタン、あるいは異常箇所画像92a,92b,92cの何れかが選択された場合には、他の異常箇所の異常箇所画像91を表示して、確認対象とする異常箇所を変更することができる。 On the abnormal location confirmation screen 90, when any of the direction buttons provided on the left and right of the abnormal location image 91 or the abnormal location images 92a, 92b, 92c is selected, the abnormal location image of another abnormal location is displayed. 91 can be displayed to change the abnormal portion to be confirmed.

作業員等は、異常箇所確認画面90において表示された異常箇所画像91を参照した結果、例えば素線切れであることが確認された場合には、素線切れボタン94bを選択する。確認指示入力部21hは、素線切れボタン94bの選択による異常確認指示が入力されると(ステップC11、Yes)、被点検物、異常種類、検出位置、検出日時などを示す各データを確認データとして確認データ記憶部21kに記憶させる(ステップC12)。確認データ記憶部21kに記憶された確認データは、例えば、巡視点検管理部22において、巡視点検の結果をまとめた巡視点検結果報告データを作成するための巡視点検データとして使用される。 As a result of referring to the abnormal portion image 91 displayed on the abnormal portion confirmation screen 90, the worker or the like selects, for example, the wire break button 94b when it is confirmed that the wire is broken. When an abnormality confirmation instruction is input by selecting the wire break button 94b (steps C11, Yes), the confirmation instruction input unit 21h confirms each data indicating the object to be inspected, the abnormality type, the detection position, the detection date and time, and the like. Is stored in the confirmation data storage unit 21k (step C12). The confirmation data stored in the confirmation data storage unit 21k is used, for example, in the patrol inspection management unit 22 as patrol inspection data for creating patrol inspection result report data summarizing the results of the patrol inspection.

また、確認指示入力部21hは、確認データ記憶部21kに記憶された確認データと同じ、異常箇所画像データ、検出対象とする被点検物及び検出対象とする異常種類のデータを、管理装置12において学習モデルの生成に利用するために異常箇所画像データ記憶部21mに記憶させる。異常箇所画像データ記憶部21mに記憶されたデータは、任意のタイミングで管理装置12に送信される。 Further, the confirmation instruction input unit 21h displays the same abnormality location image data, the inspection target object to be detected, and the abnormality type data to be detected in the management device 12 as the confirmation data stored in the confirmation data storage unit 21k. It is stored in the abnormal location image data storage unit 21m for use in generating a learning model. The data stored in the abnormal location image data storage unit 21m is transmitted to the management device 12 at an arbitrary timing.

なお、異常箇所画像91を参照した結果、異常箇所ではないと確認された場合には、作業者等により誤認識ボタン95が選択される。この場合、確認指示入力部21hは、異常箇所記憶部21gから対応する異常箇所画像データを削除する。 If it is confirmed that the abnormal portion is not the abnormal portion as a result of referring to the abnormal portion image 91, the erroneous recognition button 95 is selected by the operator or the like. In this case, the confirmation instruction input unit 21h deletes the corresponding abnormal location image data from the abnormal location storage unit 21g.

このようにして、情報処理装置10では、検査対象項目選択画面70において選択された検査対象項目に応じて、被点検物に生じる検出対象とする異常箇所を良好に検出できる学習モデルが設定される。学習モデルは、管理装置12において、擬似的な画像(類似画像)を含めてディープラーニングの技術を利用して生成されているため、実際の異常箇所の画像サンプルが少ない状況においても、異常箇所を画像処理によって安定して検出することができる。 In this way, in the information processing apparatus 10, a learning model capable of satisfactorily detecting an abnormal portion to be detected in the inspected object is set according to the inspection target item selected on the inspection target item selection screen 70. .. Since the learning model is generated in the management device 12 by using the deep learning technique including a pseudo image (similar image), the abnormal part can be detected even in a situation where the image sample of the actual abnormal part is small. It can be detected stably by image processing.

また、異常箇所検出処理によって異常箇所の候補として検出された異常箇所画像については、異常候補画像表示画面80あるいは異常箇所確認画面90において参照し、実際に異常箇所が生じているか否かを作業員等の判断により確定することができる。異常箇所確認画面90において異常箇所確認ボタン94を用いて異常箇所と確定された異常箇所画像データについては、学習モデルを生成するために利用され、検出対象とする異常種類に対応する学習モデルに反映させることができる。 Further, the abnormal part image detected as a candidate for the abnormal part by the abnormal part detection process is referred to on the abnormality candidate image display screen 80 or the abnormal part confirmation screen 90, and the worker checks whether or not the abnormal part actually occurs. It can be confirmed by judgment such as. The abnormal part image data determined to be an abnormal part by using the abnormal part confirmation button 94 on the abnormal part confirmation screen 90 is used to generate a learning model and is reflected in the learning model corresponding to the abnormal type to be detected. Can be made to.

さらに、異常箇所確認画面90において異常箇所確認ボタン94を用いて確定された異常箇所のデータについては、巡視点検管理部22において巡視点検データとして使用され、巡視点検の結果をまとめた巡視点検結果報告データを作成することができる。これにより、巡視点検の結果を記録する作業員等の作業負担を軽減することができる。 Further, the data of the abnormal part confirmed by using the abnormal part confirmation button 94 on the abnormal part confirmation screen 90 is used as the patrol inspection data in the patrol inspection management unit 22, and the patrol inspection result report summarizing the results of the patrol inspection. Data can be created. As a result, it is possible to reduce the workload of workers who record the results of patrol inspections.

また、異常候補画像表示画面80または異常候補画像表示画面80による異常箇所の確認は、異常箇所検出処理と並行して実行することができるので、確認作業の短縮を図ることができる。 Further, since the confirmation of the abnormal portion on the abnormality candidate image display screen 80 or the abnormality candidate image display screen 80 can be executed in parallel with the abnormality portion detection process, the confirmation work can be shortened.

なお、上記の各実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納して頒布することもできる。また、記憶媒体としては、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であっても良い。 The method described in each of the above embodiments is a program that can be executed by a computer, such as a magnetic disk (hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a magneto-optical disk (MO), a semiconductor memory, or the like. It can also be stored and distributed on the storage medium of. Further, the storage medium may be in any form as long as it is a storage medium capable of storing a program and readable by a computer.

また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が上記実施形態を実現するための各処理の一部を実行しても良い。 Further, in order for the OS (operating system) running on the computer, the database management software, the MW (middleware) such as the network software, etc. to realize the above embodiment based on the instructions of the program installed on the computer from the storage medium. You may execute a part of each process of.

さらに、各実施形態における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。 Further, the storage medium in each embodiment is not limited to a medium independent of the computer, but also includes a storage medium in which a program transmitted by a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

また、記憶媒体は1つに限らず、複数の媒体から上記の各実施形態における処理が実行される場合も本発明における記憶媒体に含まれ、媒体構成は何れの構成であっても良い。 Further, the storage medium is not limited to one, and the case where the processing in each of the above embodiments is executed from a plurality of media is also included in the storage medium in the present invention, and the medium configuration may be any configuration.

なお、各実施形態におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、上記の各実施形態における各処理を実行するものであって、パーソナルコンピュータ等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。 The computer in each embodiment executes each process in each of the above embodiments based on a program stored in a storage medium, and is composed of one device such as a personal computer and a plurality of devices in a network. Any configuration such as a connected system may be used.

また、各実施形態におけるコンピュータとは、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の機能を実現することが可能な機器、装置を総称している。 Further, the computer in each embodiment is a general term for a device and a device capable of realizing the function of the present invention by a program, including an arithmetic processing device, a microcomputer and the like included in the information processing device.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1…巡視点検システム、2…巡視点検制御システム、10…情報処理装置、10a…プロセッサ、10b…メモリ、10c…記憶装置、10d…入出力I/F、10e…表示装置、10f…入力装置、10g…無線通信装置、10h…通信装置、12…管理装置、14…ドローン、14a…ドローン本体、14b…ローター、14c…カメラ、20…航行管理部、20a…巡視点検指示入力部、20b…フライトプラン処理部、21…取得データ整理管理部、21a…学習モデル記憶部、21b…検出対象指示入力部、21c…異常箇所検出部、21d…取得データ記憶部、21e…画像確認部、21f…異常箇所表示部、21g…異常箇所記憶部、21h…確認指示入力部、21k…確認データ記憶部、21m…異常箇所画像データ記憶部、22…巡視点検管理部、22a…巡視点検データ記憶部、22b…巡視点検結果報告作成部、30a…制御ユニット、30b…取得データ生成部、30c…撮影制御部、30d…飛行制御部、30e…センサ群、30f…メモリ、30g…GPSデータ受信部、30h…無線通信部、30k…カメラユニット、30m…駆動ユニット、40a…データ記憶部、40b…異常箇所画像データ、40c…学習用画像データ、40d…教示メタデータ、40e…検証画像データ、40f…学習画像読み込み部、40g…教示メタデータ読み込み部、40h…エッジ切り出し部、40k…隣接正常画像探索部、40m…正常画像/異常画像組み合わせ制御部、40n…類似画像生成部、40p…学習済みモデル管理部、40q…検証画像読み込み部、40r…推論実施部、40s…指標/条件関連記憶部、40t…関連対応部、40u…問い合わせ部、40v…学習モデル記憶部。 1 ... Patrol inspection system, 2 ... Patrol inspection control system, 10 ... Information processing device, 10a ... Processor, 10b ... Memory, 10c ... Storage device, 10d ... Input / output I / F, 10e ... Display device, 10f ... Input device, 10g ... wireless communication device, 10h ... communication device, 12 ... management device, 14 ... drone, 14a ... drone body, 14b ... rotor, 14c ... camera, 20 ... navigation management unit, 20a ... patrol inspection instruction input unit, 20b ... flight Plan processing unit, 21 ... Acquisition data organization management unit, 21a ... Learning model storage unit, 21b ... Detection target instruction input unit, 21c ... Abnormal part detection unit, 21d ... Acquisition data storage unit, 21e ... Image confirmation unit, 21f ... Abnormality Location display unit, 21g ... Abnormal location storage unit, 21h ... Confirmation instruction input unit, 21k ... Confirmation data storage unit, 21m ... Abnormal location image data storage unit, 22 ... Patrol inspection management unit, 22a ... Patrol inspection data storage unit, 22b ... Patrol inspection result report creation unit, 30a ... Control unit, 30b ... Acquisition data generation unit, 30c ... Shooting control unit, 30d ... Flight control unit, 30e ... Sensor group, 30f ... Memory, 30g ... GPS data reception unit, 30h ... Wireless communication unit, 30k ... camera unit, 30m ... drive unit, 40a ... data storage unit, 40b ... abnormal location image data, 40c ... learning image data, 40d ... teaching metadata, 40e ... verification image data, 40f ... learning image Reading unit, 40g ... Teaching metadata reading unit, 40h ... Edge cutting unit, 40k ... Adjacent normal image search unit, 40m ... Normal image / abnormal image combination control unit, 40n ... Similar image generation unit, 40p ... Learned model management unit , 40q ... Verification image reading unit, 40r ... Inference execution unit, 40s ... Index / condition related storage unit, 40t ... Related correspondence unit, 40u ... Inquiry unit, 40v ... Learning model storage unit.

Claims (10)

航空機に搭載されたカメラにより撮影された画像データをもとに被点検物について巡視点検するための巡視点検システムであって、
管理装置と情報処理装置とを含み、
前記管理装置は、
前記被点検物に生じた異常を画像中から検出するための学習モデルを生成する学習モデル生成手段を有し、
前記情報処理装置は、
前記管理装置により生成された学習モデルを記憶する記憶手段と、
前記画像データを入力する入力手段と、
前記学習モデルをもとに前記画像データから前記被点検物に異常が生じた異常箇所の画像データを検出する異常箇所検出手段と、
前記異常箇所の画像データをもとに異常箇所の画像を表示する異常箇所表示手段とを有し、
前記学習モデル生成手段は、前記被点検物に生じた異常箇所を表す異常画像と、前記異常箇所の周辺にある異常箇所ではない少なくとも1つの正常画像とを組み合わせた類似画像をもとに、前記学習モデルを生成する、巡視点検システム。
It is a patrol inspection system for patrol inspection of the object to be inspected based on the image data taken by the camera mounted on the aircraft.
Including management device and information processing device
The management device is
It has a learning model generation means for generating a learning model for detecting an abnormality occurring in the object to be inspected from the image.
The information processing device
A storage means for storing the learning model generated by the management device, and
An input means for inputting the image data and
An abnormality location detecting means for detecting image data of an abnormality portion in which an abnormality has occurred in the object to be inspected from the image data based on the learning model.
The image data of the abnormal part possess an abnormal portion display means for displaying an image of the original to the anomaly,
The learning model generating means is based on a similar image obtained by combining an abnormal image showing an abnormal portion generated in the object to be inspected and at least one normal image that is not an abnormal portion around the abnormal portion. A patrol inspection system that generates a learning model.
前記情報処理装置は、
前記被点検物を含む画像を撮影するために前記航空機を飛行させる飛行制御データを設定する設定手段をさらに有し、
前記異常箇所検出手段は、前記飛行制御データに基づく飛行により撮影される前記被点検物に応じた前記学習モデルをもとに、前記異常箇所の画像データを検出する請求項1記載の巡視点検システム。
The information processing device
Further having a setting means for setting flight control data for flying the aircraft to capture an image including the object to be inspected.
The patrol inspection system according to claim 1, wherein the abnormal portion detecting means detects image data of the abnormal portion based on the learning model corresponding to the object to be inspected taken by flight based on the flight control data. ..
前記情報処理装置は、
前記被点検物に応じた検出対象とする異常種類を示す指示を入力する指示入力手段をさらに有し、
前記異常箇所検出手段は、前記異常種類に応じた前記学習モデルをもとに、前記異常種類に相当する異常箇所の画像データを検出する請求項1記載の巡視点検システム。
The information processing device
Further, it has an instruction input means for inputting an instruction indicating an abnormality type to be detected according to the object to be inspected.
The patrol inspection system according to claim 1, wherein the abnormal portion detecting means detects image data of an abnormal portion corresponding to the abnormal type based on the learning model corresponding to the abnormal type.
前記学習モデル生成手段は、前記異常画像と前記正常画像とを複数の異なる比により組み合わせ、前記被点検物に生じる異常種類毎に、何れかの比により組み合わせた類似画像をもとに生成した前記学習モデルを選択する請求項1記載の巡視点検システム。 The learning model generation means is generated based on a similar image obtained by combining the abnormal image and the normal image at a plurality of different ratios and combining them according to any ratio for each type of abnormality occurring in the object to be inspected. The patrol inspection system according to claim 1 , wherein a learning model is selected. 前記異常箇所表示手段は、前記異常箇所検出手段により検出された前記異常箇所の画像データをもとに異常箇所候補の画像と異常種類とを表示する確認画面を表示させ、前記確認画面に対する確認指示を入力する請求項1記載の巡視点検システム。 The abnormal location display means displays a confirmation screen for displaying an image of an abnormal location candidate and an abnormal type based on the image data of the abnormal location detected by the abnormal location detecting means, and gives a confirmation instruction to the confirmation screen. The patrol inspection system according to claim 1, wherein the data is input. 前記異常箇所表示手段は、
前記異常箇所検出手段により検出された前記異常箇所の画像データをもとに異常箇所候補の画像と異常種類とを表示する確認画面を表示させ、前記確認画面に対する確認指示を入力し、
前記確認指示により確認された前記異常箇所候補の画像を、前記学習モデル生成手段による類似画像の生成に用いる異常画像として記憶する請求項1記載の巡視点検システム。
The abnormal part display means
Based on the image data of the abnormal portion detected by the abnormal location detecting means, a confirmation screen for displaying the image of the abnormal location candidate and the abnormality type is displayed, and a confirmation instruction for the confirmation screen is input.
The patrol inspection system according to claim 1 , wherein the image of the abnormality location candidate confirmed by the confirmation instruction is stored as an abnormality image used for generating a similar image by the learning model generation means.
前記情報処理装置は、前記航空機から前記画像データと共に撮影時の前記航空機の位置を示す位置データとを入力し、前記異常箇所の画像データ、前記異常種類、及び前記異常箇所の画像データに対応する位置データとを含む、巡視点検結果データを生成する巡視点検結果報告作成手段をさらに有する請求項3記載の巡視点検システム。 The information processing device inputs the image data and position data indicating the position of the aircraft at the time of shooting from the aircraft, and corresponds to the image data of the abnormal portion, the abnormality type, and the image data of the abnormal portion. The patrol inspection system according to claim 3, further comprising a patrol inspection result report creating means for generating patrol inspection result data including position data. 航空機に搭載されたカメラにより撮影された画像データをもとに被点検物について巡視点検するための情報処理装置であって、
前記被点検物に生じた異常を画像中から検出するための学習モデルを記憶する記憶手段と、
前記画像データを入力する入力手段と、
前記学習モデルをもとに前記画像データから前記被点検物に異常が生じた異常箇所の画像データを検出する異常箇所検出手段と、
前記異常箇所の画像データを表示する異常箇所表示手段と
前記被点検物に生じた異常箇所を表す異常画像と、前記異常箇所の周辺にある異常箇所ではない少なくとも1つの正常画像とを組み合わせた類似画像をもとに、前記学習モデルを生成する学習モデル生成手段と
を有する情報処理装置。
It is an information processing device for patrol inspection of the object to be inspected based on the image data taken by the camera mounted on the aircraft.
A storage means for storing a learning model for detecting an abnormality occurring in the object to be inspected from the image,
An input means for inputting the image data and
An abnormality location detecting means for detecting image data of an abnormality portion in which an abnormality has occurred in the object to be inspected from the image data based on the learning model.
And abnormal location display means for displaying the image data of the anomaly,
A learning model that generates the learning model based on a similar image that combines an abnormal image showing an abnormal part generated in the object to be inspected and at least one normal image that is not an abnormal part around the abnormal part. An information processing device having a generation means and.
コンピュータを
被点検物に生じた異常を画像中から検出するための学習モデルを記憶する記憶手段と、
画像データを入力する入力手段と、
前記学習モデルをもとに前記画像データから前記被点検物に異常が生じた異常箇所の画像データを検出する異常箇所検出手段と、
前記異常箇所の画像データを表示する異常箇所表示手段と
前記被点検物に生じた異常箇所を表す異常画像と、前記異常箇所の周辺にある異常箇所ではない少なくとも1つの正常画像とを組み合わせた類似画像をもとに、前記学習モデルを生成する学習モデル生成手段として機能させるための巡視点検制御プログラム。
Computer
Storage means for storing a learning model for detecting an abnormality occurring in the point test object from an image,
Input means for inputting image data and
An abnormality location detecting means for detecting image data of an abnormality portion in which an abnormality has occurred in the object to be inspected from the image data based on the learning model.
And abnormal location display means for displaying the image data of the anomaly,
A learning model that generates the learning model based on a similar image that combines an abnormal image showing an abnormal part generated in the object to be inspected and at least one normal image that is not an abnormal part around the abnormal part. patrol inspection control program for functioning as a generator.
カメラにより撮影された画像データをもとに被点検物について点検するための情報処理装置であって、 It is an information processing device for inspecting the object to be inspected based on the image data taken by the camera.
前記被点検物に生じた異常を画像中から検出するための学習モデルを記憶する記憶手段と、 A storage means for storing a learning model for detecting an abnormality occurring in the object to be inspected from the image,
前記画像データを入力する入力手段と、 An input means for inputting the image data and
前記学習モデルをもとに前記画像データから前記被点検物に異常が生じた異常箇所の画像データを検出する異常箇所検出手段と、 An abnormality location detecting means for detecting image data of an abnormality portion in which an abnormality has occurred in the object to be inspected from the image data based on the learning model.
前記異常箇所の画像データを表示する異常箇所表示手段と、 Anomalous part display means for displaying image data of the abnormal part and
前記被点検物に生じた異常箇所を表す異常画像と、前記異常箇所の周辺にある異常箇所ではない少なくとも1つの正常画像とを組み合わせた類似画像をもとに、前記学習モデルを生成する学習モデル生成手段と A learning model that generates the learning model based on a similar image that combines an abnormal image showing an abnormal part generated in the object to be inspected and at least one normal image that is not an abnormal part around the abnormal part. With the means of generation
を有する情報処理装置。Information processing device with.
JP2016212167A 2016-10-28 2016-10-28 Patrol inspection system, information processing device, patrol inspection control program Active JP6833452B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016212167A JP6833452B2 (en) 2016-10-28 2016-10-28 Patrol inspection system, information processing device, patrol inspection control program
JP2021015785A JP7087130B2 (en) 2016-10-28 2021-02-03 Inspection system, information processing device, inspection control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212167A JP6833452B2 (en) 2016-10-28 2016-10-28 Patrol inspection system, information processing device, patrol inspection control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021015785A Division JP7087130B2 (en) 2016-10-28 2021-02-03 Inspection system, information processing device, inspection control program

Publications (2)

Publication Number Publication Date
JP2018074757A JP2018074757A (en) 2018-05-10
JP6833452B2 true JP6833452B2 (en) 2021-02-24

Family

ID=62112928

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016212167A Active JP6833452B2 (en) 2016-10-28 2016-10-28 Patrol inspection system, information processing device, patrol inspection control program
JP2021015785A Active JP7087130B2 (en) 2016-10-28 2021-02-03 Inspection system, information processing device, inspection control program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021015785A Active JP7087130B2 (en) 2016-10-28 2021-02-03 Inspection system, information processing device, inspection control program

Country Status (1)

Country Link
JP (2) JP6833452B2 (en)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10818992B2 (en) * 2016-09-22 2020-10-27 Smiths Interconnect Americas, Inc. Integrated spring mounted chip termination
CN108846325A (en) * 2018-05-28 2018-11-20 广州极飞科技有限公司 Planing method, device, storage medium and the processor of target area operation
CN108933407B (en) * 2018-06-13 2020-03-17 浙江理工大学 Unmanned aerial vehicle embedded robot device and method for multi-split high-voltage wire inspection
JP7051616B2 (en) * 2018-06-29 2022-04-11 株式会社日立システムズ Image display system and method
JP7332353B2 (en) * 2018-07-18 2023-08-23 エヌ・ティ・ティ・コムウェア株式会社 Inspection system and inspection method
JP7163116B2 (en) * 2018-09-14 2022-10-31 株式会社東芝 Information processing equipment and picking system
JP6601810B1 (en) * 2018-09-17 2019-11-06 株式会社A.L.I.Technologies Aircraft guidance method, guidance device, and guidance system
JP6833789B2 (en) * 2018-10-15 2021-02-24 東京電力ホールディングス株式会社 Anomaly detection method, program, trained model generation method and trained model
JP7221644B2 (en) * 2018-10-18 2023-02-14 株式会社日立製作所 Equipment failure diagnosis support system and equipment failure diagnosis support method
CN109193462B (en) * 2018-10-30 2020-05-05 国网四川省电力公司广元供电公司 Three-dimensional power grid operation inspection system
CN109544544A (en) * 2018-11-30 2019-03-29 长讯通信服务有限公司 It is a kind of that Obj State recognition methods is safeguarded based on deep learning and the mobile communication of unmanned plane
JP7346816B2 (en) * 2018-12-17 2023-09-20 株式会社大林組 Surface defect inspection method
CN109630905A (en) * 2019-01-25 2019-04-16 电子科技大学 A kind of full intelligent inspection system of oil-gas pipeline based on unmanned aerial vehicle remote sensing and deep learning
JP7124743B2 (en) * 2019-02-07 2022-08-24 株式会社明電舎 Anomaly detection device and anomaly detection method for linear body
JP2022051976A (en) * 2019-02-13 2022-04-04 ソニーグループ株式会社 Unmanned aircraft and communication method and program
JP7225950B2 (en) * 2019-03-12 2023-02-21 日本電信電話株式会社 Machine learning device, deterioration estimator and deterioration diagnosis device
US11210770B2 (en) * 2019-03-15 2021-12-28 Hitachi, Ltd. AI-based inspection in transportation
JP6737371B1 (en) * 2019-03-26 2020-08-05 東京電力ホールディングス株式会社 Information processing apparatus, equipment determination method, computer program, and learned model generation method
JP7036082B2 (en) * 2019-04-04 2022-03-15 セイコーエプソン株式会社 Image processing device, machine learning device, image processing method
WO2020218433A1 (en) * 2019-04-26 2020-10-29 住友重機械建機クレーン株式会社 Crane inspection system and crane
JP7260402B2 (en) * 2019-05-31 2023-04-18 ファナック株式会社 MACHINE LEARNING DEVICE, ROBOT SYSTEM, AND MACHINE LEARNING METHOD FOR LEARNING CABLE STATE
WO2020245889A1 (en) 2019-06-03 2020-12-10 日本電気株式会社 Inspection device, control method, and program
KR102261323B1 (en) * 2019-06-14 2021-06-07 주식회사 한국건설방재연구원 Safety Inspection Check Method of Structure through Artificial Intelligence Analysis of Scan Image by Drone
CN110209196A (en) * 2019-06-21 2019-09-06 绿漫科技有限公司 A kind of unmanned plane garden night watching method and system
JP7331311B2 (en) * 2019-07-16 2023-08-23 株式会社竹中工務店 Image inspection device and image inspection program
JP6873515B1 (en) * 2019-07-25 2021-05-19 株式会社プロドローン Remote control system and its control device
JP7192720B2 (en) * 2019-09-04 2022-12-20 信越化学工業株式会社 Photomask blank defect classification method and defect classification system, and photomask blank selection method and manufacturing method
JP7217214B2 (en) * 2019-10-09 2023-02-02 エヌ・ティ・ティ・コムウェア株式会社 Facility construction inspection device, facility construction inspection method, and program
CN110888457A (en) * 2019-12-13 2020-03-17 云南电网有限责任公司保山供电局 System and method for carrying out three-dimensional inspection on power transformation equipment by using unmanned aerial vehicle and robot
WO2021186640A1 (en) * 2020-03-18 2021-09-23 日本電信電話株式会社 Deterioration detection device, deterioration detection system, deterioration detection method, and program
JP2021157303A (en) 2020-03-25 2021-10-07 東京エレクトロン株式会社 Abnormality detection device and abnormality detection method
US20220026397A1 (en) * 2020-07-21 2022-01-27 Voliro Ag Structural wall inspection system using drones to perform nondestructive testing (ndt)
CN112083000B (en) * 2020-08-12 2022-12-02 中国电力科学研究院有限公司 Intelligent identification method and system for appearance defects of substation equipment
CN112783195B (en) * 2020-12-18 2023-09-19 深圳供电局有限公司 Routing inspection route planning method and device for multiple unmanned aerial vehicles and computer equipment
CN112906454A (en) * 2020-12-22 2021-06-04 安徽康能电气有限公司 Power transmission channel AI visual monitoring method and device
JP7015405B1 (en) 2021-04-27 2022-02-02 東京エレクトロンデバイス株式会社 Learning model generation method, program, information processing device and learning data generation method
WO2022230561A1 (en) * 2021-04-28 2022-11-03 キョーラク株式会社 Float and method of preserving solar system
WO2023276595A1 (en) * 2021-06-29 2023-01-05 LeapMind株式会社 Abnormality display device, abnormality display program, abnormality display system, and abnormality display method
CN113555964B (en) * 2021-07-29 2023-10-03 国网电力空间技术有限公司 Method and device for inspecting transmission line by helicopter
CN113793428A (en) * 2021-09-14 2021-12-14 国网江苏省电力有限公司常州供电分公司 Handheld terminal inspection method and system
CN113992893A (en) * 2021-10-26 2022-01-28 福建云知声智能科技有限公司 Park inspection method and device, storage medium and electronic device
CN114115348B (en) * 2021-11-30 2024-03-26 广东电网有限责任公司 Switching method and device of inspection device of unmanned aerial vehicle, electronic equipment and storage medium
CN114248945A (en) * 2021-12-21 2022-03-29 国网浙江省电力有限公司双创中心 Unmanned aerial vehicle airport device and unmanned aerial vehicle power inspection method
WO2023115342A1 (en) * 2021-12-21 2023-06-29 深圳市大疆创新科技有限公司 Unmanned aerial vehicle aerial survey method, device, and system for ribbon target and storage medium
CN114768158B (en) * 2022-04-21 2022-12-02 广东永耀消防安全技术有限公司 Intelligent fire fighting system and automatic inspection method thereof
CN115373416B (en) * 2022-08-08 2023-06-06 北京中润惠通科技发展有限公司 Intelligent inspection method for railway electric power through line
CN115275870B (en) * 2022-09-28 2022-12-06 合肥优晟电力科技有限公司 Inspection system based on high-altitude line maintenance
CN116048124B (en) * 2023-02-23 2023-07-28 北京思维实创科技有限公司 Unmanned plane subway tunnel inspection method and device, computer equipment and storage medium
CN116363537B (en) * 2023-05-31 2023-10-24 广东电网有限责任公司佛山供电局 Method and system for identifying hidden danger of hanging objects outside transformer substation
CN116753962B (en) * 2023-08-16 2023-10-13 成都睿铂科技有限责任公司 Route planning method and device for bridge
CN116958841B (en) * 2023-09-18 2023-12-26 众芯汉创(江苏)科技有限公司 Unmanned aerial vehicle inspection system for power distribution line based on image recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4255065B2 (en) * 2003-08-07 2009-04-15 財団法人電力中央研究所 Method and apparatus for detecting electric wire abnormality by image processing, program, and method for creating image for electric wire inspection
JP2012026982A (en) * 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd Inspection device
JP5945803B2 (en) * 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 Medical image interpretation system
CN106062510B (en) * 2014-04-25 2021-08-03 索尼公司 Information processing apparatus, information processing method, and computer program

Also Published As

Publication number Publication date
JP2018074757A (en) 2018-05-10
JP7087130B2 (en) 2022-06-20
JP2021090348A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP7087130B2 (en) Inspection system, information processing device, inspection control program
JP7030431B2 (en) Inspection support system and inspection support control program
US11794890B2 (en) Unmanned aerial vehicle inspection system
CN110069071B (en) Unmanned aerial vehicle navigation method and device, storage medium and electronic equipment
JP6811483B2 (en) Systems and methods to support work with drones
US11328483B2 (en) System and method for structure inspection
JP4475632B2 (en) Transmission line inspection system using unmanned air vehicle
CN102589524B (en) Power line patrolling method
US20200378927A1 (en) Inspection system, mobile robot device, and inspection method
Hrabar et al. Development of an autonomous helicopter for aerial powerline inspections
US20100215212A1 (en) System and Method for the Inspection of Structures
JP4375725B2 (en) Transmission line inspection system and method using unmanned air vehicle
Federman et al. UAV photgrammetric workflows: A best practice guideline
WO2020053573A1 (en) Control and navigation systems, pose optimisation, mapping, and localisation techniques
Cajzek et al. An unmanned aerial vehicle for multi-purpose tasks in construction industry
Hawkins Using a drone and photogrammetry software to create orthomosaic images and 3D models of aircraft accident sites
CN116501091B (en) Fan inspection control method and device based on unmanned aerial vehicle automatic adjustment route
JP2021015605A (en) Management server, management system, display information generation method, and program
WO2023173307A1 (en) Movable platform and control method therefor, information prompting method and apparatus, and electronic device and computer-readable storage medium
JP2022111752A (en) Information processing device, information processing program
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN116583714A (en) System and method for scheduling and navigating unmanned aerial vehicles
JP6771253B1 (en) Aircraft management server and management system
JP2019179529A (en) Controller
WO2023053781A1 (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170907

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R150 Certificate of patent or registration of utility model

Ref document number: 6833452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150