JP2019211257A - Inspection system - Google Patents

Inspection system Download PDF

Info

Publication number
JP2019211257A
JP2019211257A JP2018105559A JP2018105559A JP2019211257A JP 2019211257 A JP2019211257 A JP 2019211257A JP 2018105559 A JP2018105559 A JP 2018105559A JP 2018105559 A JP2018105559 A JP 2018105559A JP 2019211257 A JP2019211257 A JP 2019211257A
Authority
JP
Japan
Prior art keywords
dimensional model
unit
image
abnormal
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018105559A
Other languages
Japanese (ja)
Other versions
JP6583840B1 (en
Inventor
西本 晋也
Shinya Nishimoto
晋也 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensyn Robotics Inc
Original Assignee
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensyn Robotics Inc filed Critical Sensyn Robotics Inc
Priority to JP2018105559A priority Critical patent/JP6583840B1/en
Priority to PCT/JP2019/020732 priority patent/WO2019230604A1/en
Application granted granted Critical
Publication of JP6583840B1 publication Critical patent/JP6583840B1/en
Publication of JP2019211257A publication Critical patent/JP2019211257A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

To identify at which coordinate in a coordinate system of a three-dimensional model an object photographed in a two-dimensional image is located for the three-dimensional model created from a plurality of two-dimensional images.SOLUTION: An inspection system for inspecting an inspection object includes: a three-dimensional model generation section for generating a three-dimensional model of the inspection object on the basis of a plurality of images obtained by photographing the inspection object with a flight device having a camera; a photographing information acquisition section for acquiring a photographing position where an image in a three-dimensional coordinate system is photographed and a viewpoint axis direction of the camera for each of the plurality of images; an abnormality detection section for detecting an abnormality of the inspection object on the basis of the image for each of the plurality of images; an abnormal position identification section for identifying an abnormal position which is a position in the three-dimensional coordinate system according to the photographing position and the viewpoint axis direction for the detected abnormality; and a three-dimensional model display section for displaying the three-dimensional model in which the abnormal position is mapped.SELECTED DRAWING: Figure 1

Description

本発明は、検査システムに関する。   The present invention relates to an inspection system.

近年、ドローン(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、「飛行装置」と総称する。)が産業に利用され始めている。特許文献1では、ドローンに搭載したカメラで撮影した画像から3次元画像を作成して表示することが記載されている。   In recent years, flying objects such as drones and unmanned aerial vehicles (UAVs) (hereinafter collectively referred to as “flight devices”) have begun to be used in industry. Patent Document 1 describes that a three-dimensional image is created and displayed from an image captured by a camera mounted on a drone.

特開2018−10630号公報JP 2018-10630 A

複数の2次元画像から点群を抽出して3次元モデルを作成することが行われる。しかしながら、2次元画像に撮影されているものが3次元モデルのどこに位置するのかを特定することは難しい。特許文献1においても、劣化位置が3次元画像におけるどの座標に位置するかを特定することは行っていない。   A point group is extracted from a plurality of two-dimensional images to create a three-dimensional model. However, it is difficult to specify where in the three-dimensional model what is photographed in the two-dimensional image is located. Also in Patent Document 1, it is not specified at which coordinate in the three-dimensional image the degradation position is located.

本発明はこのような背景を鑑みてなされたものであり、複数の2次元画像から作成される3次元モデルについて、2次元画像に撮影されているものが3次元モデルの座標系におけるどの座標に位置するかを特定することのできる技術を提供することを一つの目的とする。   The present invention has been made in view of such a background, and for a three-dimensional model created from a plurality of two-dimensional images, what is captured in the two-dimensional image is any coordinate in the coordinate system of the three-dimensional model. One object is to provide a technique capable of specifying whether or not it is located.

上記課題を解決するための本発明の主たる発明は、検査対象物を検査する検査システムであって、カメラを備える飛行装置が前記検査物を撮影した複数の画像に基づいて、前記検査対象物の3次元モデルを生成する3次元モデル生成部と、前記複数の画像のそれぞれについて、3次元座標系における前記画像を撮影した撮影位置および前記カメラの視点軸方向を取得する撮影情報取得部と、前記複数の画像のそれぞれについて、前記画像に基づいて前記検査対象物の異常を検出する異常検出部と、検出した前記異常について、前記撮影位置および前記視点軸方向に応じて前記3次元座標系における位置である異常位置を特定する異常位置特定部と、前記異常位置をマッピングした前記3次元モデルを表示する3次元モデル表示部と、を備えることとする。   A main invention of the present invention for solving the above-described problem is an inspection system for inspecting an inspection object, wherein a flying device including a camera is configured to detect the inspection object based on a plurality of images obtained by capturing the inspection object. A three-dimensional model generation unit that generates a three-dimensional model, a shooting information acquisition unit that acquires a shooting position and a viewpoint axis direction of the camera in a three-dimensional coordinate system for each of the plurality of images; For each of a plurality of images, an abnormality detection unit that detects an abnormality of the inspection object based on the image, and the detected abnormality in the three-dimensional coordinate system according to the photographing position and the viewpoint axis direction An abnormal position specifying unit that specifies an abnormal position, and a three-dimensional model display unit that displays the three-dimensional model in which the abnormal position is mapped. And the.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄および図面により明らかにされる。   Other problems and solutions to be disclosed by the present application will be made clear by the embodiments of the present invention and the drawings.

本発明によれば、複数の2次元画像から作成される3次元モデルについて、2次元画像に撮影されているものが3次元モデルの座標系におけるどの座標に位置するかを特定することができる。   According to the present invention, for a three-dimensional model created from a plurality of two-dimensional images, it is possible to specify at which coordinate in the coordinate system of the three-dimensional model what is photographed in the two-dimensional image.

本発明の一実施形態に係る検査システムの全体構成を示す図である。It is a figure showing the whole inspection system composition concerning one embodiment of the present invention. 飛行装置10のハードウェア構成例を示す図である。2 is a diagram illustrating a hardware configuration example of a flying device 10. FIG. フライトコントローラ11のソフトウェア構成例を示す図である。FIG. 3 is a diagram illustrating a software configuration example of a flight controller 11. 位置姿勢情報記憶部151に記憶される位置姿勢情報の構成例を示す図である。6 is a diagram illustrating a configuration example of position and orientation information stored in a position and orientation information storage unit 151. FIG. 撮影情報記憶部152に格納される撮影情報の構成例を示す図である。6 is a diagram illustrating a configuration example of shooting information stored in a shooting information storage unit 152. FIG. 検査サーバ30のハードウェア構成例を示す図である。2 is a diagram illustrating a hardware configuration example of an inspection server 30. FIG. 検査サーバ30のソフトウェア構成例を示す図である。FIG. 3 is a diagram illustrating a software configuration example of an inspection server 30. 3次元モデル記憶部352の構成例を示す図である。3 is a diagram illustrating a configuration example of a three-dimensional model storage unit 352. FIG. 異常情報記憶部353に登録される異常情報の構成例を示す図である。It is a figure which shows the structural example of the abnormality information registered into the abnormality information storage part 353. FIG. 検査対象物1を撮影する処理の流れを説明する図である。It is a figure explaining the flow of the process which image | photographs the test target object. 検査サーバ30により実行される検査処理の流れを示す図である。It is a figure which shows the flow of the inspection process performed by the inspection server. 3次元モデル表示部315が表示する3次元投影画像を説明する図である。It is a figure explaining the three-dimensional projection image which the three-dimensional model display part 315 displays. 指定された位置の異常箇所が撮影されている撮影画像を表示する処理の流れを示す図である。It is a figure which shows the flow of the process which displays the picked-up image by which the abnormal location of the designated position is image | photographed. 3次元モデル表示部315が表示する3次元投影画像を説明する他の図である。It is another figure explaining the three-dimensional projection image which the three-dimensional model display part 315 displays.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行装置は、以下のような構成を備える。   The contents of the embodiment of the present invention will be listed and described. A flying device according to an embodiment of the present invention has the following configuration.

[項目1]
検査対象物を検査する検査システムであって、
カメラを備える飛行装置が前記検査物を撮影した複数の画像に基づいて、前記検査対象物の3次元モデルを生成する3次元モデル生成部と、
前記複数の画像のそれぞれについて、3次元座標系における前記画像を撮影した撮影位置および前記カメラの視点軸方向を取得する撮影情報取得部と、
前記複数の画像のそれぞれについて、前記画像に基づいて前記検査対象物の異常を検出する異常検出部と、
検出した前記異常について、前記撮影位置および前記視点軸方向に応じて前記3次元座標系における位置である異常位置を特定する異常位置特定部と、
前記異常位置をマッピングした前記3次元モデルを表示する3次元モデル表示部と、
を備えることを特徴とする検査システム。
[項目2]
項目1に記載の検査システムであって、
前記異常位置特定部は、前記撮影位置および前記視点軸方向に基づいて、前記撮影位置から前記異常箇所に向けた直線が前記3次元モデルと交差する座標を前記異常位置として特定すること、
を特徴とする検査システム。
[項目3]
項目1に記載の検査システムであって、
前記異常位置に対応付けて前記画像を記憶する異常位置記憶部と、
前記3次元モデル上の位置の指定を受け付ける入力部と、
指定された前記位置に対応する前記画像を特定する画像特定部と、
を備えることを特徴とする検査システム。
[項目4]
検査対象物を検査する検査システムであって、
カメラを備える飛行装置が前記検査物を撮影した複数の画像に基づいて、前記検査対象物の3次元モデルを生成する3次元モデル生成部と、
前記複数の画像のそれぞれについて、3次元座標系における前記画像を撮影した撮影位置および前記カメラの視点軸方向を取得する撮影情報取得部と、
前記複数の画像のそれぞれについて、前記撮影位置から前記視点軸方向に前記3次元モデルと交差する交差位置を算出する交差位置算出部と、
前記3次元モデル上の指定位置を受け付け、前記指定位置および前記交差位置の距離に応じて、前記指定位置が撮影された前記画像を特定する画像特定部と、
を備えることを特徴とする検査システム。
[項目5]
項目4に記載の検査システムであって、
前記複数の画像のそれぞれについて、前記画像に基づいて前記検査対象物の異常を検出する異常検出部と、
前記撮影位置および前記視点軸方向に基づいて、前記撮影位置から前記異常箇所に向けた直線が前記3次元モデルと交差する座標である異常位置を特定する異常位置特定部と、
を備えることを特徴とする検査システム。
[Item 1]
An inspection system for inspecting an inspection object,
A three-dimensional model generation unit that generates a three-dimensional model of the inspection object based on a plurality of images obtained by photographing a flying object with a camera;
For each of the plurality of images, a photographing information acquisition unit that acquires a photographing position where the image is photographed in a three-dimensional coordinate system and a viewpoint axis direction of the camera;
For each of the plurality of images, an abnormality detection unit that detects an abnormality of the inspection object based on the images;
An abnormal position specifying unit that specifies an abnormal position that is a position in the three-dimensional coordinate system according to the photographing position and the viewpoint axis direction with respect to the detected abnormality,
A three-dimensional model display unit that displays the three-dimensional model in which the abnormal position is mapped;
An inspection system comprising:
[Item 2]
The inspection system according to item 1, wherein
The abnormal position specifying unit specifies, as the abnormal position, coordinates at which a straight line from the shooting position toward the abnormal point intersects the three-dimensional model based on the shooting position and the viewpoint axis direction;
Inspection system characterized by
[Item 3]
The inspection system according to item 1, wherein
An abnormal position storage unit that stores the image in association with the abnormal position;
An input unit for receiving designation of a position on the three-dimensional model;
An image specifying unit for specifying the image corresponding to the specified position;
An inspection system comprising:
[Item 4]
An inspection system for inspecting an inspection object,
A three-dimensional model generation unit that generates a three-dimensional model of the inspection object based on a plurality of images obtained by photographing a flying object with a camera;
For each of the plurality of images, a photographing information acquisition unit that acquires a photographing position where the image is photographed in a three-dimensional coordinate system and a viewpoint axis direction of the camera;
For each of the plurality of images, an intersection position calculation unit that calculates an intersection position that intersects the three-dimensional model in the viewpoint axis direction from the photographing position;
An image specifying unit that receives a specified position on the three-dimensional model and specifies the image in which the specified position is captured according to a distance between the specified position and the intersection position;
An inspection system comprising:
[Item 5]
The inspection system according to item 4, wherein
For each of the plurality of images, an abnormality detection unit that detects an abnormality of the inspection object based on the images;
An abnormal position specifying unit that specifies an abnormal position that is a coordinate at which a straight line from the shooting position toward the abnormal point intersects the three-dimensional model based on the shooting position and the viewpoint axis direction;
An inspection system comprising:

==概要・全体構成==
図1は、本発明の一実施形態に係る検査システムの全体構成例を示す図である。本実施形態の検査システムは、飛行装置10によって撮影された検査対象物1に関する複数の画像に基づいて、検査対象物1の3次元モデルを作成するものである。また、本実施形態の検査システムでは、撮影した画像を解析して異常箇所を検出し、検出した異常箇所を3次元モデル上にマッピングする。検査対象物1は、法面やダムなどのコンクリート構造物であってもよいし、鉄塔や鉄橋などの鋼構造物であってもよいし、太陽光パネルや建物などであってもよい。本実施形態では、検査対象部1として建物を想定する。なお、検査対象物1は撮影可能な物であれば何でもよく、例えば動物や自動車などであってもよいし、災害時の被災地域であってもよい。
== Overview / Overall structure ==
FIG. 1 is a diagram showing an overall configuration example of an inspection system according to an embodiment of the present invention. The inspection system of the present embodiment creates a three-dimensional model of the inspection object 1 based on a plurality of images related to the inspection object 1 photographed by the flying device 10. Further, in the inspection system of the present embodiment, a photographed image is analyzed to detect an abnormal part, and the detected abnormal part is mapped on a three-dimensional model. The inspection object 1 may be a concrete structure such as a slope or a dam, a steel structure such as a steel tower or an iron bridge, or a solar panel or a building. In the present embodiment, a building is assumed as the inspection target unit 1. The inspection object 1 may be anything as long as it can be photographed, and may be, for example, an animal or a car, or may be a disaster area at the time of a disaster.

本実施形態の検査システムは、検査対象物1を撮影する飛行装置10と、飛行装置10が撮影した画像を解析する検査サーバ30とを含んで構成される。飛行装置10と検査サーバ30とは通信ネットワーク50を介して相互に通信可能に接続される。本実施形態では通信ネットワーク50はインターネットを想定する。通信ネットワーク50は、例えば無線通信路、携帯電話回線網、衛星通信路、公衆電話回線網、専用回線網、イーサネット(登録商標)などにより構築される。   The inspection system of the present embodiment includes a flying device 10 that images the inspection object 1 and an inspection server 30 that analyzes an image captured by the flying device 10. The flying device 10 and the inspection server 30 are connected to each other via a communication network 50 so that they can communicate with each other. In the present embodiment, the communication network 50 is assumed to be the Internet. The communication network 50 is constructed by, for example, a wireless communication path, a cellular phone line network, a satellite communication path, a public telephone line network, a dedicated line network, Ethernet (registered trademark), or the like.

(飛行装置10)
図2は、飛行装置10のハードウェア構成例を示す図である。飛行装置10は、プロペラ18と、プロペラ18にESC(Electronic Speed Controller)16を介して接続された推進機構(本実施形態ではモータ17を想定する。)と、これらを制御するフライトコントローラ11とを備える。
(Flying device 10)
FIG. 2 is a diagram illustrating a hardware configuration example of the flying device 10. The flying device 10 includes a propeller 18, a propulsion mechanism connected to the propeller 18 via an ESC (Electronic Speed Controller) 16 (a motor 17 is assumed in the present embodiment), and a flight controller 11 that controls them. Prepare.

飛行装置10は検査対象物1の一部または全部を撮影するカメラ12を備える。本実施形態では、カメラ12は機体に固定されるものとする。また、カメラ12は、鉛直方向下向きのレンズを備え、鉛直方向に真下の画像のみを撮影するものとする。したがって、飛行装置10の姿勢が固定される場合には、カメラ12の視点軸(光軸)121も固定される。本実施形態では、カメラ12は可視光線を捉えたRGB画像を撮影することを想定するが、赤外線を捉えたサーマル画像を撮影するようにしてもよいし、RGB画像とサーマル画像の両方を同時にまたは順次撮影するようにしてもよい。また、カメラ12に代えて、またはカメラ12に加えて、人感センサなどの各種のセンサを備えるようにしてもよい。   The flying device 10 includes a camera 12 that captures a part or all of the inspection object 1. In the present embodiment, the camera 12 is fixed to the body. In addition, the camera 12 includes a vertically downward lens and captures an image directly below in the vertical direction. Therefore, when the attitude of the flying device 10 is fixed, the viewpoint axis (optical axis) 121 of the camera 12 is also fixed. In the present embodiment, it is assumed that the camera 12 captures an RGB image capturing visible light, but a thermal image capturing infrared light may be captured, and both the RGB image and the thermal image may be captured simultaneously or You may make it image | photograph sequentially. Further, instead of the camera 12 or in addition to the camera 12, various sensors such as a human sensor may be provided.

フライトコントローラ11は、プログラマブルプロセッサ(本実施形態では、中央演算処理装置(CPU)を想定する。)などの1つ以上のプロセッサ101を有することができる。また、フライトコントローラ11は、メモリ102を有しており、当該メモリ102にアクセス可能である。メモリ102は、1つ以上のステップを行うためにフライトコントローラ11が実行可能であるロジック、コード、および/またはプログラム命令を記憶する。メモリ102は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ12やセンサなどから取得したデータは、メモリ102に直接に伝達されかつ記憶されてもよい。   The flight controller 11 can include one or more processors 101 such as a programmable processor (in this embodiment, a central processing unit (CPU) is assumed). The flight controller 11 includes a memory 102 and can access the memory 102. Memory 102 stores logic, code, and / or program instructions that are executable by flight controller 11 to perform one or more steps. The memory 102 may include a separable medium such as an SD card or a random access memory (RAM) or an external storage device. Data acquired from the camera 12, sensor, or the like may be directly transmitted to and stored in the memory 102.

フライトコントローラ11はまた、各種のセンサ類103を備える。本実施形態においてセンサ類103は、例えば、慣性センサ(加速度センサ、ジャイロセンサ)、GPS(Global Positioning System)センサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。   The flight controller 11 also includes various sensors 103. In the present embodiment, the sensors 103 may include, for example, an inertial sensor (acceleration sensor, gyro sensor), a GPS (Global Positioning System) sensor, a proximity sensor (eg, a rider), or a vision / image sensor (eg, a camera). .

フライトコントローラ11は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)、端末、表示装置、または他の遠隔の制御器などである。)からのデータを送信および/または受け取るように構成された送受信部14と通信可能である。送受信部14は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。本実施形態では、送受信部14は、主に検査サーバ30と通信を行う。送受信部14は、例えば、ローカルエリアネットワーク(Local Area Network;LAN)、ワイドエリアネットワーク(Wide Area Network;WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。送受信部14は、センサ類で取得したデータ、フライトコントローラが生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることもできる。   The flight controller 11 is configured to send and / or receive data from one or more external devices (eg, a transceiver, a terminal, a display device, or other remote controller, etc.). It is possible to communicate with the transmitted / received unit 14. The transmission / reception unit 14 can use any appropriate communication means such as wired communication or wireless communication. In the present embodiment, the transmission / reception unit 14 mainly communicates with the inspection server 30. The transmission / reception unit 14 is, for example, a local area network (LAN), a wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, telecommunication network, cloud communication, etc. One or more of these can be used. The transmission / reception unit 14 may transmit and / or receive one or more of data acquired by sensors, a processing result generated by the flight controller, predetermined control data, a user command from a terminal or a remote controller, and the like. it can.

図3は、フライトコントローラ11のソフトウェア構成例を示す図である。フライトコントローラ11は、指示受信部111、飛行制御部112、位置姿勢情報取得部113、撮影処理部114、撮影情報送信部115、位置姿勢情報記憶部151、撮影情報記憶部152、GPSセンサ104、気圧センサ105、温度センサ106および加速度センサ107を備える。   FIG. 3 is a diagram illustrating a software configuration example of the flight controller 11. The flight controller 11 includes an instruction receiving unit 111, a flight control unit 112, a position / orientation information acquisition unit 113, an imaging processing unit 114, an imaging information transmission unit 115, a position / orientation information storage unit 151, an imaging information storage unit 152, a GPS sensor 104, An atmospheric pressure sensor 105, a temperature sensor 106, and an acceleration sensor 107 are provided.

なお、指示受信部111、飛行制御部112、位置姿勢情報取得部113、撮影処理部114および撮影情報送信部115は、プロセッサ101がメモリ102に格納されているプログラムを実行することにより実現される。また、位置姿勢情報記憶部151および撮影情報記憶部152は、メモリ102の提供する記憶領域として実現される。   The instruction receiving unit 111, the flight control unit 112, the position / orientation information acquisition unit 113, the imaging processing unit 114, and the imaging information transmission unit 115 are realized by the processor 101 executing a program stored in the memory 102. . In addition, the position / orientation information storage unit 151 and the shooting information storage unit 152 are realized as storage areas provided by the memory 102.

指示受信部111は、飛行装置10の動作を指示する各種のコマンド(以下、飛行操作コマンドという。)を受け付ける。本実施形態では、指示受信部111は、検査サーバ30から飛行操作コマンドを受信することを想定するが、プロポなどの送受信機から飛行操作コマンドを受信するようにしてもよい。   The instruction receiving unit 111 receives various commands for instructing the operation of the flying device 10 (hereinafter referred to as a flight operation command). In the present embodiment, it is assumed that the instruction receiving unit 111 receives a flight operation command from the inspection server 30, but the flight operation command may be received from a transceiver such as a transmitter.

飛行制御部112は、飛行装置10の動作を制御する。飛行制御部112は、例えば、6自由度(並進運動x、yおよびz、並びに回転運動θx、θyおよびθz)を有する飛行装置10の空間的配置、速度、および/または加速度を調整するために、ESC16を経由してモータ17を制御する。モータ17によりプロペラ18が回転することで飛行装置10の揚力を生じさせる。また、飛行制御部112は、搭載部、センサ類の状態のうちの1つ以上を制御することができる。本実施形態では、飛行制御部112は、指示受信部111が受信した飛行操作コマンドに応じて飛行装置10の動作を制御するものとする。また、飛行制御部112は、自律飛行を可能とするべく、コマンドによらずに飛行装置10が飛行を継続するように各種の制御を行うこともできる。   The flight control unit 112 controls the operation of the flying device 10. For example, the flight control unit 112 adjusts the spatial arrangement, speed, and / or acceleration of the flying device 10 having six degrees of freedom (translational motions x, y, and z and rotational motions θx, θy, and θz). The motor 17 is controlled via the ESC 16. The propeller 18 is rotated by the motor 17 to generate lift of the flying device 10. Further, the flight control unit 112 can control one or more of the states of the mounting unit and sensors. In the present embodiment, the flight control unit 112 controls the operation of the flying device 10 in accordance with the flight operation command received by the instruction receiving unit 111. Further, the flight control unit 112 can perform various controls so that the flying device 10 continues to fly without depending on a command so as to enable autonomous flight.

位置姿勢情報取得部113は、飛行装置10の現在位置および姿勢を示す情報(以下、位置姿勢情報という。)を取得する。本実施形態では、位置姿勢情報には、飛行装置10の地図上の位置(緯度経度で表される。)と、飛行装置10の飛行高度と、飛行装置10のx、y、z軸の夫々に対する傾きが含まれるものとする。なお、飛行装置10のx、y、z軸は夫々互いに直交する座標軸であり、機体の平面座標および鉛直方向を表すことができる。   The position / orientation information acquisition unit 113 acquires information indicating the current position and orientation of the flying device 10 (hereinafter referred to as position / orientation information). In the present embodiment, the position and orientation information includes the position of the flying device 10 on the map (represented by latitude and longitude), the flight altitude of the flying device 10, and the x, y, and z axes of the flying device 10. The slope with respect to is assumed to be included. Note that the x, y, and z axes of the flying device 10 are coordinate axes orthogonal to each other, and can represent the plane coordinates and the vertical direction of the aircraft.

センサ類103にはGPSセンサ104が含まれ、位置姿勢情報取得部113は、GPSセンサ104がGPS衛星から受信した電波から、飛行装置10の地図上の位置を算出することができる。   The sensors 103 include the GPS sensor 104, and the position / orientation information acquisition unit 113 can calculate the position of the flying device 10 on the map from the radio wave received by the GPS sensor 104 from the GPS satellite.

また、センサ類103には気圧センサ105および温度センサ106が含まれ、位置姿勢情報取得部113は、飛行前に気圧センサ105により測定した大気圧(以下、基準気圧という。)と、飛行中に気圧センサ105により測定した大気圧(以下、現在気圧という。)との差分と、飛行中に温度センサ106により測定した気温とに基づいて、飛行装置10の飛行高度を計算することができる。   The sensors 103 include an atmospheric pressure sensor 105 and a temperature sensor 106, and the position / orientation information acquisition unit 113 detects the atmospheric pressure (hereinafter referred to as a reference atmospheric pressure) measured by the atmospheric pressure sensor 105 before the flight and during the flight. Based on the difference between the atmospheric pressure measured by the atmospheric pressure sensor 105 (hereinafter referred to as the current atmospheric pressure) and the temperature measured by the temperature sensor 106 during the flight, the flight altitude of the flying device 10 can be calculated.

さらに、センサ類103には3軸の加速度センサ107が含まれ、位置姿勢情報取得部113は、加速度センサ107からの出力に基づいて、飛行装置10の姿勢を求めることができる。また、飛行装置10の姿勢からカメラ12の光軸121(視点軸)を決定することができる。   Further, the sensors 103 include a triaxial acceleration sensor 107, and the position / orientation information acquisition unit 113 can obtain the attitude of the flying device 10 based on the output from the acceleration sensor 107. Further, the optical axis 121 (viewpoint axis) of the camera 12 can be determined from the attitude of the flying device 10.

位置姿勢情報取得部113は、GPSセンサ104を用いて取得した飛行装置10の地図上の位置(緯度経度)と、気圧センサ105および温度センサ106を用いて取得した飛行装置10の飛行高度と、加速度センサ107を用いて取得した飛行装置10の姿勢とを設定した位置姿勢情報を、メモリ14の位置姿勢情報記憶部151に格納する。   The position and orientation information acquisition unit 113 includes a position (latitude and longitude) on the map of the flying device 10 acquired using the GPS sensor 104, a flight altitude of the flying device 10 acquired using the atmospheric pressure sensor 105 and the temperature sensor 106, The position and orientation information in which the attitude of the flying device 10 acquired using the acceleration sensor 107 is set is stored in the position and orientation information storage unit 151 of the memory 14.

図4は位置姿勢情報記憶部151に記憶される位置姿勢情報の構成例を示す図である。図4に示すように、位置姿勢情報記憶部151には、飛行装置10の現在位置を示す緯度経度、上記のようにして計算した飛行高度、飛行前に測定した基準気圧、飛行中に測定した現在気圧、飛行中に測定した気温、および加速度センサ107を用いて取得した飛行装置10の姿勢(カメラ12の光軸121の傾き)が格納される。   FIG. 4 is a diagram illustrating a configuration example of the position / orientation information stored in the position / orientation information storage unit 151. As shown in FIG. 4, the position / orientation information storage unit 151 includes the latitude / longitude indicating the current position of the flying device 10, the flight altitude calculated as described above, the reference atmospheric pressure measured before the flight, and measured during the flight. The current atmospheric pressure, the temperature measured during the flight, and the attitude of the flying device 10 acquired using the acceleration sensor 107 (the inclination of the optical axis 121 of the camera 12) are stored.

撮影処理部114は、カメラ12を制御して検査対象物1の一部または全部を撮影させ、カメラ12が撮影した撮影画像を取得する。撮影処理部114は、事前に設定されたタイミングで撮影を行うものとする。例えば、撮影処理部114は、所定の時間(例えば、5秒、30秒など任意の時間を指定することができる。)ごとに撮影を行うようにすることができる。なお、撮影処理部114は、検査サーバ30からの指示に応じて撮影するようにしてもよい。   The photographing processing unit 114 controls the camera 12 to photograph a part or all of the inspection object 1 and acquires a photographed image photographed by the camera 12. The imaging processing unit 114 performs imaging at a preset timing. For example, the imaging processing unit 114 can perform imaging every predetermined time (for example, any time such as 5 seconds or 30 seconds can be designated). Note that the imaging processing unit 114 may perform imaging in response to an instruction from the inspection server 30.

撮影処理部114は、取得した撮影画像を撮影情報記憶部152に格納する。撮影処理部114は、撮影画像に付帯させて、撮影日時、その時点における飛行装置10の地図上の緯度経度(撮影位置)、その時点における飛行装置10の飛行高度(撮影高度)、飛行装置10の姿勢(カメラ12の光軸121の傾き)も撮影情報記憶部152に格納する。なお、これらの情報が付帯された画像を撮影情報という。   The imaging processing unit 114 stores the acquired captured image in the imaging information storage unit 152. The photographing processing unit 114 is attached to the photographed image, and the photographing date and time, the latitude and longitude on the map of the flying device 10 at that time (imaging position), the flying altitude (imaging altitude) of the flying device 10 at that time, the flying device 10 (The inclination of the optical axis 121 of the camera 12) is also stored in the photographing information storage unit 152. An image with such information attached is referred to as shooting information.

図5は撮影情報記憶部152に格納される撮影情報の構成例を示す図である。撮影情報記憶部152に格納される撮影情報には、撮影日時、撮影位置、撮影高度、傾きおよび画像データが含まれる。撮影情報は、例えば、ファイルシステム上のファイルとして記憶させることができる。また、撮影日時、撮影位置、撮影高度および傾きは、例えば、JPEG(Joint Photographic Experts Group)画像ファイルのExif(Exchangeable image file format)情報として格納するようにしてもよいし、画像データをファイルとしてファイルシステムに格納し、撮影日時、撮影位置、撮影高度および傾きと、ファイル名とを対応付けたレコードをデータベースに登録するようにしてもよい。また、撮影情報には、焦点距離やシャッター速度などのカメラ12の特性を含めるようにしてもよい。   FIG. 5 is a diagram illustrating a configuration example of shooting information stored in the shooting information storage unit 152. The shooting information stored in the shooting information storage unit 152 includes shooting date and time, shooting position, shooting altitude, tilt, and image data. The shooting information can be stored as a file on a file system, for example. Further, the shooting date / time, shooting position, shooting altitude, and tilt may be stored as, for example, Exif (Exchangeable image file format) information of a JPEG (Joint Photographic Experts Group) image file, or image data as a file. A record may be stored in the system, and a record in which the shooting date / time, shooting position, shooting altitude / tilt, and file name are associated with each other is registered in the database. Further, the shooting information may include characteristics of the camera 12 such as a focal length and a shutter speed.

撮影情報送信部115は、カメラ12が撮影した画像を検査サーバ30に送信する。本実施形態では、撮影情報送信部115は、撮影画像に、撮影日時、撮影位置、撮影高度および傾きを付帯させた撮影情報を検査サーバ30に送信するものとする。   The imaging information transmission unit 115 transmits the image captured by the camera 12 to the inspection server 30. In the present embodiment, the shooting information transmission unit 115 transmits shooting information in which a shooting date and time, a shooting position, a shooting altitude, and a tilt are added to a shooting image to the inspection server 30.

(検査サーバ30)
図6は、検査サーバ30のハードウェア構成例を示す図である。検査サーバ30は、CPU301、メモリ302、記憶装置303、通信装置304、入力装置305、出力装置306を備える。記憶装置303は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信装置304は、通信ネットワーク50を介して他の装置と通信を行う。通信装置304は、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSBコネクタやRS232Cコネクタなどを含んで構成される。入力装置305は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置306は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。
(Inspection server 30)
FIG. 6 is a diagram illustrating a hardware configuration example of the inspection server 30. The inspection server 30 includes a CPU 301, a memory 302, a storage device 303, a communication device 304, an input device 305, and an output device 306. The storage device 303 is, for example, a hard disk drive, a solid state drive, or a flash memory that stores various data and programs. The communication device 304 communicates with other devices via the communication network 50. The communication device 304 includes, for example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone line network, a wireless communication device for performing wireless communication, a USB connector for serial communication, an RS232C connector, and the like It is comprised including. The input device 305 is, for example, a keyboard, mouse, touch panel, button, or microphone that inputs data. The output device 306 is, for example, a display, a printer, or a speaker that outputs data.

図7は、検査サーバ30のソフトウェア構成例を示す図である。検査サーバ30は、飛行制御部311、撮影情報受信部312、3次元モデル作成部313、異常検出部314、3次元モデル表示部315、撮影画像表示部316、撮影情報記憶部351、3次元モデル記憶部352および異常情報記憶部353を備える。   FIG. 7 is a diagram illustrating a software configuration example of the inspection server 30. The inspection server 30 includes a flight control unit 311, an imaging information reception unit 312, a 3D model creation unit 313, an abnormality detection unit 314, a 3D model display unit 315, a captured image display unit 316, an imaging information storage unit 351, and a 3D model. A storage unit 352 and an abnormality information storage unit 353 are provided.

なお、飛行制御部311、撮影情報受信部312、3次元モデル作成部313、異常検出部314、3次元モデル表示部315および撮影画像表示部316は、検査サーバ30が備えるCPU301が記憶装置303に記憶されているプログラムをメモリ302に読み出して実行することにより実現され、撮影情報記憶部351、3次元モデル記憶部352および異常情報記憶部353は、検査サーバ30の備えるメモリ302および記憶装置303が提供する記憶領域の一部として実現される。   Note that the flight control unit 311, the imaging information reception unit 312, the 3D model creation unit 313, the abnormality detection unit 314, the 3D model display unit 315, and the captured image display unit 316 are stored in the storage device 303 by the CPU 301 included in the inspection server 30. The imaging information storage unit 351, the three-dimensional model storage unit 352, and the abnormality information storage unit 353 are realized by reading the stored program into the memory 302, and the memory 302 and the storage device 303 included in the inspection server 30. This is realized as a part of the storage area to be provided.

飛行制御部311は、飛行装置10を飛行させる制御を行う。本実施形態では、飛行制御部311は、飛行装置10に対して飛行操作コマンドを送信することにより飛行装置10を操作する。飛行制御部311は、例えば、オペレータから地図上における飛行経路の指定を受け付けて、受け付けた飛行経路上を飛行するように飛行操作コマンドを送信することができる。また、飛行制御部311は、後述するように検査対象物1の3次元モデルを作成するべく、飛行装置10に検査対象物1の周囲を飛行させて撮影領域の少なくとも一部が重なるように連続させて撮影できるように飛行装置10を制御する。なお、本実施の形態においては、飛行装置10は、検査サーバ30の飛行制御部311によって制御されているが、例えば、あらかじめ保存された自動飛行のためのソフトウェア(データ)によって飛行装置10が自律的に制御される方法や、オペレータの手動操作によって制御(操作)される方法や、これらの組み合わせであってもよい。   The flight control unit 311 controls the flight device 10 to fly. In the present embodiment, the flight control unit 311 operates the flying device 10 by transmitting a flight operation command to the flying device 10. The flight control unit 311 can receive, for example, designation of a flight path on a map from an operator and transmit a flight operation command so as to fly on the accepted flight path. Further, the flight control unit 311 continuously makes the flying device 10 fly around the inspection object 1 so that at least a part of the imaging region overlaps in order to create a three-dimensional model of the inspection object 1 as described later. The flying device 10 is controlled so that it can be photographed. In the present embodiment, the flying device 10 is controlled by the flight control unit 311 of the inspection server 30. For example, the flying device 10 is autonomous by software (data) for automatic flight stored in advance. It is possible to use a method that is controlled automatically, a method that is controlled (operated) by an operator's manual operation, or a combination thereof.

撮影情報受信部312は、飛行装置10から送信される撮影情報を受信する。撮影情報受信部312は、受信した撮影情報を撮影情報記憶部351に格納する。なお、本実施形態では、撮影情報記憶部351の構成は、図5に示す飛行装置10の撮影情報記憶部152と同一の構成であるものとする。なお、検査サーバ30が備える撮影情報記憶部351は、撮影情報の送信元である飛行装置10を特定する情報に対応付けて、撮影情報を記憶するようにしてもよい。   The shooting information receiving unit 312 receives shooting information transmitted from the flying device 10. The shooting information receiving unit 312 stores the received shooting information in the shooting information storage unit 351. In the present embodiment, the configuration of the shooting information storage unit 351 is the same as that of the shooting information storage unit 152 of the flying device 10 shown in FIG. Note that the imaging information storage unit 351 included in the inspection server 30 may store imaging information in association with information specifying the flying device 10 that is the transmission source of imaging information.

3次元モデル作成部313は、複数の撮影画像から3次元の構造体を表現する3次元モデルを作成する。3次元モデル作成部313は、いわゆるフォトグラメトリー(写真測量)の技術を用いて3次元モデルを作成することができる。本実施形態において、3次元モデルのワールド座標系は、緯度、経度および高度で表されるものとする。撮影情報に含まれる撮影位置、撮影高度および光軸121の傾きにより、カメラ12のワールド座標系における位置および視点方向を示すことができる。3次元モデル作成部313は、撮影情報に含まれている画像データから特徴点を抽出し、撮影情報に含まれる撮影位置、撮影高度および傾きに基づいて複数の画像データから抽出された特徴点の対応付けを行い、ワールド座標系における3次元点群(ポイントクラウドとも呼ばれる。)を取得する。本実施形態では、3次元モデルは3次元点群により構成されるものとするが、3次元モデル作成部313は、点群に基づいてポリゴン等の面データを生成することもできる。さらに、3次元モデル作成部313は、3次元モデルと撮影画像に基づいてオルソ画像を生成することもできる。   The three-dimensional model creation unit 313 creates a three-dimensional model that represents a three-dimensional structure from a plurality of captured images. The three-dimensional model creation unit 313 can create a three-dimensional model using a so-called photogrammetry (photogrammetry) technique. In the present embodiment, the world coordinate system of the three-dimensional model is represented by latitude, longitude, and altitude. The position and viewpoint direction of the camera 12 in the world coordinate system can be indicated by the shooting position, the shooting altitude, and the tilt of the optical axis 121 included in the shooting information. The three-dimensional model creation unit 313 extracts feature points from the image data included in the shooting information, and extracts feature points extracted from the plurality of image data based on the shooting position, shooting height, and inclination included in the shooting information. Association is performed, and a three-dimensional point group (also referred to as a point cloud) in the world coordinate system is acquired. In the present embodiment, the three-dimensional model is assumed to be composed of a three-dimensional point group, but the three-dimensional model creation unit 313 can also generate surface data such as a polygon based on the point group. Further, the three-dimensional model creation unit 313 can generate an ortho image based on the three-dimensional model and the captured image.

3次元モデル作成部313は、作成した3次元モデル(本実施形態では3次元点群)を3次元モデル記憶部352に登録する。図8は3次元モデル記憶部352の構成例を示す図である。同図に示すように、3次元モデル記憶部352には、3次元点群を構成する各点についての座標が登録される。なお、3次元モデル作成部313が3次元点群に基づいてポリゴン等の面データを作成した場合には、3次元モデル記憶部352は点の座標に加えて、または点の座標に代えて、面データを記憶するようにしてもよい。   The three-dimensional model creation unit 313 registers the created three-dimensional model (a three-dimensional point group in the present embodiment) in the three-dimensional model storage unit 352. FIG. 8 is a diagram illustrating a configuration example of the three-dimensional model storage unit 352. As shown in the figure, the coordinates for each point constituting the three-dimensional point group are registered in the three-dimensional model storage unit 352. When the 3D model creation unit 313 creates surface data such as a polygon based on the 3D point group, the 3D model storage unit 352 adds or replaces the point coordinates, The surface data may be stored.

異常検出部314は、飛行装置10からの撮影画像を解析して、検査対象物1の異常を検出する。異常検出部314は、例えば、過去に異常が発生した検査対象物1を撮影した画像を教師信号としてニューラルネットワーク等の機械学習を用いた学習を行っておき、飛行装置10から受信した撮影画像を入力信号として異常を判定することができる。また、異常検出部314は、正常時の画像をメモリ302に予め記憶しておき、正常時の画像と撮影画像とを比較して、所定値以上の差分のある画素により構成される領域を認識し、当該領域の面積が所定値以上となるものについて異常と判定することもできる。なお、異常検出部314は、公知の技術を用いて画像から異常部分を検出するようにすることができる。   The abnormality detection unit 314 detects the abnormality of the inspection object 1 by analyzing the captured image from the flying device 10. For example, the abnormality detection unit 314 performs learning using machine learning such as a neural network using, as a teacher signal, an image obtained by photographing the inspection object 1 in which an abnormality has occurred in the past, and obtains a photographed image received from the flying device 10. Abnormality can be determined as an input signal. In addition, the abnormality detection unit 314 stores a normal image in the memory 302 in advance, compares the normal image with the captured image, and recognizes an area constituted by pixels having a difference greater than or equal to a predetermined value. However, it is possible to determine that the area of the region is equal to or greater than a predetermined value as abnormal. Note that the abnormality detection unit 314 can detect an abnormal part from the image using a known technique.

異常検出部314は、検出した撮影画像上の異常箇所について、ワールド座標系の位置を特定する。異常検出部314は、たとえば、3次元点群に含まれる点のそれぞれについて、撮影情報に含まれている撮影位置および撮影高度に設置したカメラから、撮影情報に含まれている傾きが示す方向に撮影した場合の画像上の位置を特定し、特定した画像上の位置が、異常箇所として検出した領域に含まれているか否かにより、当該点が異常箇所を構成するか否かを判定し、異常箇所を構成する点の座標を異常箇所の位置として特定することができる。異常常検出部315は、検出した異常に関する情報(以下、異常情報という。)を異常情報記憶部353に登録する。   The abnormality detection unit 314 specifies the position of the world coordinate system for the detected abnormal part on the captured image. For example, the anomaly detection unit 314 has, for each of the points included in the three-dimensional point group, in the direction indicated by the inclination included in the shooting information from the camera installed at the shooting position and shooting height included in the shooting information. Determine the position on the image at the time of shooting, determine whether the point on the image is included in the area detected as an abnormal location, whether the point constitutes an abnormal location, It is possible to specify the coordinates of the points constituting the abnormal part as the position of the abnormal part. The abnormality normal detection unit 315 registers information related to the detected abnormality (hereinafter referred to as abnormality information) in the abnormality information storage unit 353.

図9は異常情報記憶部353に登録される異常情報の構成例を示す図である。同図に示すように、異常情報には、異常箇所を示すワールド座標系上の座標位置(異常位置)と、当該異常箇所を撮影した画像に係る撮影情報を特定するための情報(例えばJPEGファイル名とすることができる。)と、画像上における異常が検出された位置(以下、画像異常位置という。)とが含まれる。図8の例では、画像異常位置に矩形を示す2つの頂点の座標が含まれた例が示されているが、画像異常位置には、例えば1つの座標のみが含まれるようにしてもよいし、多角形を構成する3つ以上の座標が含まれるようにしてもよいし、楕円形を表す中心座標と2つの半径とが含まれるようにしてもよい。すなわち、画像異常位置は、点または幾何図形を表す情報であればよい。なお、上述した例の他、例えば、画像における異常位置に当該異常を示す箇所を直接描画することとしてもよい。この場合、異常位置に関する座標位置は利用せず、例えば、撮影画像に関する情報と異常位置とを直接関連付けることとしてもよい。   FIG. 9 is a diagram illustrating a configuration example of abnormality information registered in the abnormality information storage unit 353. As shown in the figure, the abnormality information includes a coordinate position (abnormal position) on the world coordinate system indicating the abnormal part and information for specifying photographing information related to an image obtained by photographing the abnormal part (for example, a JPEG file). And a position where an abnormality is detected on the image (hereinafter referred to as an abnormal image position). In the example of FIG. 8, an example in which the coordinates of two vertices indicating a rectangle are included in the image abnormal position is shown, but the image abnormal position may include only one coordinate, for example. Three or more coordinates constituting a polygon may be included, or center coordinates representing an ellipse and two radii may be included. That is, the image abnormal position may be information representing a point or a geometric figure. In addition to the above-described example, for example, a portion showing the abnormality may be directly drawn at an abnormal position in the image. In this case, the coordinate position related to the abnormal position is not used, and for example, the information related to the captured image may be directly associated with the abnormal position.

3次元モデル表示部315は、3次元モデル作成部313が作成した3次元モデルを平面に投影した画像(以下、3次元投影画像という。)を表示する。3次元モデル表示部315は、3次元投影画像を、ワイヤーフレームで表示するようにしてもよいし、撮影画像を3次元モデルにマッピングしてもよい。また、3次元モデル表示部315は、3次元モデルを作成した各撮影画像について、カメラ12の位置および視点軸の方向を3次元モデルに重畳させて表示している。本実施の形態においては、説明を容易にするためにカメラ12の位置および視点軸の方向を表示することとしているが、表示の有無の設定、その切替方法については、用途及びニーズに合わせて適宜変更することができる。   The 3D model display unit 315 displays an image obtained by projecting the 3D model created by the 3D model creation unit 313 onto a plane (hereinafter referred to as a 3D projection image). The three-dimensional model display unit 315 may display the three-dimensional projection image with a wire frame, or may map the captured image to the three-dimensional model. In addition, the three-dimensional model display unit 315 displays the position of the camera 12 and the direction of the viewpoint axis superimposed on the three-dimensional model for each captured image that created the three-dimensional model. In the present embodiment, for ease of explanation, the position of the camera 12 and the direction of the viewpoint axis are displayed. However, the setting of whether or not to display and the switching method thereof are appropriately selected according to the application and needs. Can be changed.

==処理==
以下、本実施形態の検査システムにおける処理について説明する。
== Processing ==
Hereinafter, processing in the inspection system of the present embodiment will be described.

==撮影処理==
図10は、検査対象物1を撮影する処理の流れを説明する図である。図10に示す撮影処理は、飛行装置10が飛行している間、定期的に実行される。
== Shooting process ==
FIG. 10 is a diagram for explaining the flow of processing for photographing the inspection object 1. The imaging process shown in FIG. 10 is periodically executed while the flying device 10 is flying.

飛行装置10において、撮影処理部114は、カメラ12を制御して、カメラ12が撮影した撮影画像を取得し(S201)、位置姿勢情報取得部113は、GPSセンサ104、気圧センサ105、温度センサ106および加速度センサ107からの信号に基づいて、撮影位置、撮影高度および姿勢を求める(S202)。撮影情報送信部115は、カメラ12から取得した撮影画像に、現在の日時(撮影日時)、撮影位置、撮影高度および姿勢を付帯させた撮影情報を作成して検査サーバ30に送信する(S203)。   In the flying device 10, the imaging processing unit 114 controls the camera 12 to acquire a captured image captured by the camera 12 (S201), and the position / orientation information acquisition unit 113 includes a GPS sensor 104, an atmospheric pressure sensor 105, and a temperature sensor. Based on the signals from 106 and the acceleration sensor 107, the photographing position, the photographing altitude and the posture are obtained (S202). The shooting information transmission unit 115 creates shooting information in which the current date and time (shooting date and time), shooting position, shooting altitude, and posture are added to the shot image acquired from the camera 12, and transmits the shooting information to the inspection server 30 (S203). .

検査サーバ30では、撮影情報受信部312は、飛行装置10から送信される撮影情報を受信し(S204)、受信した撮影情報を撮影情報記憶部351に登録する(S205)。   In the inspection server 30, the imaging information reception unit 312 receives imaging information transmitted from the flying device 10 (S204), and registers the received imaging information in the imaging information storage unit 351 (S205).

以上のようにして、飛行装置10において撮影された画像は、撮影日時、撮影位置、撮影高度および飛行装置10の姿勢(光軸121の傾き)とともに、撮影情報記憶部351に順次登録されていくことになる。   As described above, the images photographed by the flying device 10 are sequentially registered in the photographing information storage unit 351 together with the photographing date and time, the photographing position, the photographing altitude, and the attitude of the flying device 10 (the inclination of the optical axis 121). It will be.

==検査処理==
図11は検査サーバ30により実行される検査処理の流れを示す図である。本実施形態では、図11に示す処理は、飛行装置10による撮影が全て終了した後に行われることを想定するが、飛行装置10が撮影を続けている間に行うようにすることもできる。
== Inspection processing ==
FIG. 11 is a diagram showing a flow of inspection processing executed by the inspection server 30. In the present embodiment, it is assumed that the processing shown in FIG. 11 is performed after all shooting by the flying device 10 is completed, but may be performed while the flying device 10 continues shooting.

3次元モデル作成部313は、撮影情報記憶部351に登録されている撮影情報に基づいて3次元モデルを作成する(S211)。なお、3次元モデルの作成処理については、一般的な写真測量(フォトグラメトリ)の手法により3次元モデルを作成するものとする。たとえば、3次元モデル作成部313は、撮影時間の順に連続する2つの撮影情報のペアについて、対応点を探索し、見つかった対応点について、飛行位置および飛行高度ならびに姿勢に応じて対応点のワールド座標系における位置を特定することができる。なお、3次元モデルの作成は例示であり、上記のほか、種々の方法で作成することができる。   The three-dimensional model creation unit 313 creates a three-dimensional model based on the shooting information registered in the shooting information storage unit 351 (S211). As for the creation process of the 3D model, it is assumed that the 3D model is created by a general photogrammetry (photogrammetry) technique. For example, the three-dimensional model creation unit 313 searches for corresponding points for two pairs of shooting information that are consecutive in the order of shooting times, and for the corresponding points that are found, the world of the corresponding points according to the flight position, flight altitude, and posture. The position in the coordinate system can be specified. Note that the creation of the three-dimensional model is an example, and in addition to the above, it can be created by various methods.

3次元モデル作成部313は、作成した3次元モデルを3次元モデル記憶部352に登録する(S212)。本実施形態では、3次元モデルは3次元点群により構成されるものとする。そこで対応点のワールド座標系における座標を3次元モデル記憶部352に登録することができる。   The 3D model creation unit 313 registers the created 3D model in the 3D model storage unit 352 (S212). In the present embodiment, it is assumed that the three-dimensional model is composed of a three-dimensional point group. Therefore, the coordinates of the corresponding point in the world coordinate system can be registered in the three-dimensional model storage unit 352.

次に、異常検出部314は、撮影情報記憶部351に登録されている各撮影情報について、以下の処理を行う。すなわち、異常検出部314は、撮影情報に含まれている画像データを解析して、検査対象物1の異常の有無を検査する(S213)。画像データから検査対象物1の異常が検出された場合(S214:YES)、異常検出部314は、撮影情報の撮影位置および撮影高度が示すワールド座標系の座標から、撮影情報の傾きが示す光軸121(視点軸)の方向に延ばした直線と、3次元モデルとが交差する座標を異常の発生した位置(異常位置)として特定する(S215)。なお、異常検出部314は、3次元点群に含まれる点のいずれにも、カメラ12からの光軸121が交差しない場合、最も近くを通り、かつ光軸121に平行な距離が最も近い点の座標を異常位置として決定してもよい。異常検出部314は、撮影情報を特定する情報(例えばファイル名とすることができる。)と、画像データ上で異常を発見した箇所(画像異常位置)とを異常位置に対応付けて異常情報記憶部353に登録する(S216)。   Next, the abnormality detection unit 314 performs the following processing for each piece of shooting information registered in the shooting information storage unit 351. That is, the abnormality detection unit 314 analyzes the image data included in the imaging information and inspects whether there is an abnormality in the inspection object 1 (S213). When an abnormality of the inspection object 1 is detected from the image data (S214: YES), the abnormality detection unit 314 indicates the light indicated by the inclination of the shooting information from the coordinates of the shooting position and the shooting altitude of the shooting information in the world coordinate system. The coordinates where the straight line extending in the direction of the axis 121 (viewpoint axis) and the three-dimensional model intersect are specified as the position where the abnormality has occurred (abnormal position) (S215). It should be noted that the abnormality detection unit 314 passes through the nearest point when the optical axis 121 from the camera 12 does not intersect any of the points included in the three-dimensional point group, and is the closest point parallel to the optical axis 121. May be determined as an abnormal position. The abnormality detection unit 314 associates information for specifying shooting information (for example, a file name) and a location where an abnormality is found on the image data (image abnormal position) in association with the abnormal position, and stores abnormality information. Registered in the unit 353 (S216).

以上の処理を撮影情報のそれぞれについて行った後、3次元モデル表示部315は、3次元モデルを投影した画像を表示する(S217)。図12は、3次元モデル表示部315が表示する3次元投影画像を説明する図である。図12の例では、3次元モデル作成部313が複数の撮影画像に基づいて作成した3次元モデルに対して、撮影画像をマッピングした3次元投影画像41が画面40に表示されている。3次元モデル表示部315は、たとえば、3次元モデル記憶部352に登録されている点群を投影して3次元投影画像41を作成することができる。   After performing the above processing for each piece of shooting information, the 3D model display unit 315 displays an image obtained by projecting the 3D model (S217). FIG. 12 is a diagram for explaining a three-dimensional projection image displayed by the three-dimensional model display unit 315. In the example of FIG. 12, a three-dimensional projection image 41 obtained by mapping a photographed image with respect to a three-dimensional model created by the three-dimensional model creation unit 313 based on a plurality of photographed images is displayed on the screen 40. The three-dimensional model display unit 315 can create a three-dimensional projection image 41 by projecting a point group registered in the three-dimensional model storage unit 352, for example.

次に3次元モデル表示部315は、撮影画像を撮影したカメラ12を示す図形を3次元投影画像41に重ねて表示する。具体的には、3次元モデル表示部315は、撮影情報記憶部351に登録されている各撮影情報について、撮影情報に含まれている撮影位置および撮影高度から傾きが示す方向に傾けたカメラ12を表す図形を3次元モデル上に重ねて表示させるようにする。図12の例では、カメラ12の位置および視点軸の方向を示す円錐体42を3次元投影画像41に重畳させて表示している。上述したように本実施の形態においては、説明を容易にするためにカメラ12の位置および視点軸の方向を表示することとしているが、表示の有無の設定、その切替方法については、用途及びニーズに合わせて適宜変更することができる。   Next, the three-dimensional model display unit 315 superimposes and displays a figure indicating the camera 12 that has captured the captured image on the three-dimensional projection image 41. Specifically, the three-dimensional model display unit 315 has the camera 12 tilted in the direction indicated by the tilt from the shooting position and the shooting altitude included in the shooting information for each shooting information registered in the shooting information storage unit 351. A graphic representing the image is displayed so as to be superimposed on the three-dimensional model. In the example of FIG. 12, a cone 42 indicating the position of the camera 12 and the direction of the viewpoint axis is displayed superimposed on the three-dimensional projection image 41. As described above, in the present embodiment, the position of the camera 12 and the direction of the viewpoint axis are displayed for ease of explanation. It can be appropriately changed according to the above.

3次元モデル表示部315は、異常箇所を示す図形を3次元投影画像41上に重ねて表示する(S219)。具体的には、3次元モデル表示部315は、異常情報記憶部353に登録されている各異常情報につて、異常位置が示す座標に所定の図形を表示させる。図12の例では、マーク43を3次元投影画像41に重畳させて表示している。なお、図12の例では、マーク43は1つのみが表示されているが、異常情報記憶部353に複数の異常箇所が登録されている場合には複数のマーク43が表示されることになる。   The three-dimensional model display unit 315 superimposes and displays a graphic indicating the abnormal part on the three-dimensional projection image 41 (S219). Specifically, the three-dimensional model display unit 315 displays a predetermined graphic at the coordinates indicated by the abnormal position for each abnormality information registered in the abnormality information storage unit 353. In the example of FIG. 12, the mark 43 is displayed superimposed on the three-dimensional projection image 41. In the example of FIG. 12, only one mark 43 is displayed. However, when a plurality of abnormal locations are registered in the abnormality information storage unit 353, a plurality of marks 43 are displayed. .

以上のようにして、飛行装置10が撮影した複数の画像に基づいて3次元モデルを作成するとともに、撮影画像から検出した異常箇所を3次元モデル上にマッピングして表示することができる。   As described above, a three-dimensional model can be created based on a plurality of images captured by the flying device 10, and an abnormal location detected from the captured image can be mapped and displayed on the three-dimensional model.

==確認処理==
図13は、指定された位置の異常箇所が撮影されている撮影画像を表示する処理の流れを示す図である。画面40において、ユーザが、たとえばマーク43をクリックすることにより、詳細を確認したい異常箇所の位置を指定した場合に、撮影画像表示部316は、当該位置の指定を受け付け(S231)、受け付けた位置に対応する異常情報を異常情報記憶部353から検索する(S232)。撮影画像表示部316は、検索した異常情報に含まれる画像が示す撮影情報を撮影情報記憶部351から読み出し(S233)、読み出した撮影情報に含まれている画像データを画面40に出力する(S234)。
== Confirmation processing ==
FIG. 13 is a diagram illustrating a flow of processing for displaying a captured image in which an abnormal portion at a specified position is captured. In the screen 40, when the user specifies the position of the abnormal part whose details are to be confirmed by clicking the mark 43, for example, the captured image display unit 316 receives the specification of the position (S231), and the received position. The abnormality information corresponding to is retrieved from the abnormality information storage unit 353 (S232). The captured image display unit 316 reads out the shooting information indicated by the image included in the searched abnormality information from the shooting information storage unit 351 (S233), and outputs the image data included in the read out shooting information to the screen 40 (S234). ).

以上のようにして、撮影画像表示部316は、ユーザから指示された位置を撮影した撮影画像を画面40に表示することができる。   As described above, the captured image display unit 316 can display the captured image obtained by capturing the position instructed by the user on the screen 40.

==効果==
以上説明したように、本実施形態の検査システムによれば、撮影位置、撮影高度および姿勢に基づいて、撮影画像上の位置を3次元モデル上の位置に対応付けることができる。したがって、画像から検出した異常箇所についても、画像としてのみではなく、3次元モデル上に異常箇所として取り込むことが可能となる。また、3次元モデル上の位置が指定された場合に、当該指定された位置に対応する異常情報と特定して、当該異常箇所を撮影した画像を容易に特定することが可能となり、ユーザに対して詳細な2次元画像を迅速かつ的確に提供することができる。
== Effect ==
As described above, according to the inspection system of the present embodiment, the position on the photographed image can be associated with the position on the three-dimensional model based on the photographing position, the photographing altitude, and the posture. Therefore, the abnormal part detected from the image can be captured not only as an image but also as an abnormal part on the three-dimensional model. In addition, when a position on the three-dimensional model is specified, it is possible to easily specify an image obtained by photographing the abnormal portion by specifying the abnormal information corresponding to the specified position. And a detailed two-dimensional image can be provided quickly and accurately.

以上、本発明の一実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。   As mentioned above, although one Embodiment of this invention was described, the said embodiment is for making an understanding of this invention easy, and is not for limiting and interpreting this invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes equivalents thereof.

例えば、本実施形態では、カメラ12は機体の下部に固定されるものとしたが、これに限らず、ジンバルを介して可動式に装着するようにしてもよい。この場合、撮影情報には飛行装置10の傾きに加えて、カメラ12の撮影方向も含めるようにする。   For example, in the present embodiment, the camera 12 is fixed to the lower part of the airframe. However, the present invention is not limited to this, and the camera 12 may be movably mounted via a gimbal. In this case, the shooting information includes the shooting direction of the camera 12 in addition to the tilt of the flying device 10.

また、本実施形態では、気圧センサ105および温度センサ106を用いて撮影高度を求めるものとしたが、これに限らず、公知の手法を用いて撮影高度を求めるようにしてもよい。   In the present embodiment, the photographing altitude is obtained using the atmospheric pressure sensor 105 and the temperature sensor 106. However, the present invention is not limited to this, and the photographing altitude may be obtained using a known method.

また、本実施形態では、飛行装置10からの撮影情報はカメラ12で撮影が行われる都度検査サーバ30に送信されるものとしたが、飛行装置10は撮影情報記憶部152に撮影情報を蓄積しておき、飛行中に定期的に、あるいは、飛行終了後に一度に撮影情報記憶部152に記憶されている撮影情報を検査サーバ30に送信するようにしてもよい。   In this embodiment, the shooting information from the flying device 10 is transmitted to the inspection server 30 every time shooting is performed by the camera 12. However, the flying device 10 stores the shooting information in the shooting information storage unit 152. In addition, the shooting information stored in the shooting information storage unit 152 may be transmitted to the inspection server 30 periodically during the flight or once after the flight.

また、本実施形態では、ユーザは画面40において異常箇所の位置を選択し、選択した位置に対応する異常箇所が検索され、検索された異常箇所に対応する撮影画像が表示されるものとしたが、マーク43に異常情報を対応付けておき、選択されたマーク43から異常情報を特定するようにしてもよい。   Further, in the present embodiment, the user selects the position of the abnormal location on the screen 40, the abnormal location corresponding to the selected position is searched, and the captured image corresponding to the searched abnormal location is displayed. The abnormality information may be associated with the mark 43 and the abnormality information may be specified from the selected mark 43.

また、本実施形態では、ユーザは画面40において異常箇所の位置のみが選択可能であるものとしたが、異常箇所以外の任意の位置(座標)を選択可能としてもよい。この場合、図14に示されるように、選択した個所(例えば、43a、43b、43c)に対応する画像(44a、44b、44c)が表示される。この場合、撮影画像表示部316はまず、撮影情報記憶部351に登録されている撮影情報のそれぞれについて、飛行位置および飛行高度の座標から指定された座標に向けた直線が、飛行位置および飛行高度の座標から視点軸にカメラ12を向けた場合のカメラ12の画角の中に入っているか否かにより、当該撮影情報に係る画像データに、指定された座標が撮影されうるか否かを判断する。次に、撮影画像表示部316は、指定された座標が撮影されうると判断した撮影情報について、上記直線が3次元モデルの他の点を通る(もしくは他の点から所定の距離以下となる)か否かにより、または3次元モデルのポリゴンを通るか否かにより、指定された座標の撮影が妨げられるか否かを判断する。最後に撮影画像表示部316は、指定された座標の撮影が妨げられないと判断した撮影情報について、画像データを表示するようにすることができる。   In the present embodiment, the user can select only the position of the abnormal location on the screen 40, but may select any position (coordinates) other than the abnormal location. In this case, as shown in FIG. 14, images (44a, 44b, 44c) corresponding to the selected locations (for example, 43a, 43b, 43c) are displayed. In this case, the captured image display unit 316 first sets a straight line from the flight position and flight altitude coordinates to the designated coordinates for each of the captured information registered in the captured information storage unit 351. Whether or not the designated coordinates can be photographed in the image data related to the photographing information is determined based on whether or not the angle is within the angle of view of the camera 12 when the camera 12 is directed from the coordinates to the viewpoint axis. . Next, the photographic image display unit 316 has the above straight line passing through another point of the three-dimensional model (or less than a predetermined distance from the other point) for the photographic information determined that the designated coordinates can be photographed. Whether or not shooting of the designated coordinates is hindered is determined by whether or not it passes through the polygon of the three-dimensional model. Finally, the captured image display unit 316 can display image data for the captured information that is determined not to prevent the capturing of the designated coordinates.

10 飛行装置
11 フライトコントローラ
12 カメラ
14 送受信部
16 ESC
17 モータ
18 プロペラ
30 検査サーバ
50 通信ネットワーク
101 プロセッサ
102 メモリ
103 センサ類
104 GPSセンサ
105 気圧センサ
106 温度センサ
107 加速度センサ
111 指示受信部
112 飛行制御部
113 位置姿勢情報取得部
114 撮影処理部
115 撮影情報送信部
151 位置姿勢情報記憶部
152 撮影情報記憶部
301 CPU
302 メモリ
303 記憶装置
304 通信装置
305 入力装置
306 出力装置
311 飛行制御部
312 撮影情報受信部
313 3次元モデル作成部
314 異常検出部
315 3次元モデル表示部
316 撮影画像表示部
351 撮影情報記憶部
352 3次元モデル記憶部
353 異常情報記憶部

DESCRIPTION OF SYMBOLS 10 Flight apparatus 11 Flight controller 12 Camera 14 Transmission / reception part 16 ESC
DESCRIPTION OF SYMBOLS 17 Motor 18 Propeller 30 Inspection server 50 Communication network 101 Processor 102 Memory 103 Sensors 104 GPS sensor 105 Atmospheric pressure sensor 106 Temperature sensor 107 Acceleration sensor 111 Instruction receiving part 112 Flight control part 113 Position and orientation information acquisition part 114 Shooting processing part 115 Shooting information Transmission unit 151 Position and orientation information storage unit 152 Imaging information storage unit 301 CPU
302 Memory 303 Storage Device 304 Communication Device 305 Input Device 306 Output Device 311 Flight Control Unit 312 Imaging Information Reception Unit 313 3D Model Creation Unit 314 Abnormality Detection Unit 315 3D Model Display Unit 316 Captured Image Display Unit 351 Imaging Information Storage Unit 352 3D model storage unit 353 Abnormal information storage unit

Claims (5)

検査対象物を検査する検査システムであって、
カメラを備える飛行装置が前記検査物を撮影した複数の画像に基づいて、前記検査対象物の3次元モデルを生成する3次元モデル生成部と、
前記複数の画像のそれぞれについて、3次元座標系における前記画像を撮影した撮影位置および前記カメラの視点軸方向を取得する撮影情報取得部と、
前記複数の画像のそれぞれについて、前記画像に基づいて前記検査対象物の異常を検出する異常検出部と、
検出した前記異常について、前記撮影位置および前記視点軸方向に応じて前記3次元座標系における位置である異常位置を特定する異常位置特定部と、
前記異常位置をマッピングした前記3次元モデルを表示する3次元モデル表示部と、
を備えることを特徴とする検査システム。
An inspection system for inspecting an inspection object,
A three-dimensional model generation unit that generates a three-dimensional model of the inspection object based on a plurality of images obtained by photographing a flying object with a camera;
For each of the plurality of images, a photographing information acquisition unit that acquires a photographing position where the image is photographed in a three-dimensional coordinate system and a viewpoint axis direction of the camera;
For each of the plurality of images, an abnormality detection unit that detects an abnormality of the inspection object based on the images;
An abnormal position specifying unit that specifies an abnormal position that is a position in the three-dimensional coordinate system according to the photographing position and the viewpoint axis direction with respect to the detected abnormality,
A three-dimensional model display unit that displays the three-dimensional model in which the abnormal position is mapped;
An inspection system comprising:
請求項1に記載の検査システムであって、
前記異常位置特定部は、前記撮影位置および前記視点軸方向に基づいて、前記撮影位置から前記異常箇所に向けた直線が前記3次元モデルと交差する座標を前記異常位置として特定すること、
を特徴とする検査システム。
The inspection system according to claim 1,
The abnormal position specifying unit specifies, as the abnormal position, coordinates at which a straight line from the shooting position toward the abnormal point intersects the three-dimensional model based on the shooting position and the viewpoint axis direction;
Inspection system characterized by
請求項1に記載の検査システムであって、
前記異常位置に対応付けて前記画像を記憶する異常位置記憶部と、
前記3次元モデル上の位置の指定を受け付ける入力部と、
指定された前記位置に対応する前記画像を特定する画像特定部と、
を備えることを特徴とする検査システム。
The inspection system according to claim 1,
An abnormal position storage unit that stores the image in association with the abnormal position;
An input unit for receiving designation of a position on the three-dimensional model;
An image specifying unit for specifying the image corresponding to the specified position;
An inspection system comprising:
検査対象物を検査する検査システムであって、
カメラを備える飛行装置が前記検査物を撮影した複数の画像に基づいて、前記検査対象物の3次元モデルを生成する3次元モデル生成部と、
前記複数の画像のそれぞれについて、3次元座標系における前記画像を撮影した撮影位置および前記カメラの視点軸方向を取得する撮影情報取得部と、
前記複数の画像のそれぞれについて、前記撮影位置から前記視点軸方向に前記3次元モデルと交差する交差位置を算出する交差位置算出部と、
前記3次元モデル上の指定位置を受け付け、前記指定位置および前記交差位置の距離に応じて、前記指定位置が撮影された前記画像を特定する画像特定部と、
を備えることを特徴とする検査システム。
An inspection system for inspecting an inspection object,
A three-dimensional model generation unit that generates a three-dimensional model of the inspection object based on a plurality of images obtained by photographing a flying object with a camera;
For each of the plurality of images, a photographing information acquisition unit that acquires a photographing position where the image is photographed in a three-dimensional coordinate system and a viewpoint axis direction of the camera;
For each of the plurality of images, an intersection position calculation unit that calculates an intersection position that intersects the three-dimensional model in the viewpoint axis direction from the photographing position;
An image specifying unit that receives a specified position on the three-dimensional model and specifies the image in which the specified position is captured according to a distance between the specified position and the intersection position;
An inspection system comprising:
請求項4に記載の検査システムであって、
前記複数の画像のそれぞれについて、前記画像に基づいて前記検査対象物の異常を検出する異常検出部と、
前記撮影位置および前記視点軸方向に基づいて、前記撮影位置から前記異常箇所に向けた直線が前記3次元モデルと交差する座標である異常位置を特定する異常位置特定部と、
を備えることを特徴とする検査システム。
The inspection system according to claim 4,
For each of the plurality of images, an abnormality detection unit that detects an abnormality of the inspection object based on the images;
An abnormal position specifying unit that specifies an abnormal position that is a coordinate at which a straight line from the shooting position toward the abnormal point intersects the three-dimensional model based on the shooting position and the viewpoint axis direction;
An inspection system comprising:
JP2018105559A 2018-05-31 2018-05-31 Inspection system Active JP6583840B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018105559A JP6583840B1 (en) 2018-05-31 2018-05-31 Inspection system
PCT/JP2019/020732 WO2019230604A1 (en) 2018-05-31 2019-05-24 Inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105559A JP6583840B1 (en) 2018-05-31 2018-05-31 Inspection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019153553A Division JP2019211486A (en) 2019-08-26 2019-08-26 Inspection system

Publications (2)

Publication Number Publication Date
JP6583840B1 JP6583840B1 (en) 2019-10-02
JP2019211257A true JP2019211257A (en) 2019-12-12

Family

ID=68095283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105559A Active JP6583840B1 (en) 2018-05-31 2018-05-31 Inspection system

Country Status (2)

Country Link
JP (1) JP6583840B1 (en)
WO (1) WO2019230604A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068426A (en) * 2020-09-01 2021-04-30 株式会社センシンロボティクス Method of creating flight route for flying object and management server
JP7003352B1 (en) 2021-04-12 2022-01-20 株式会社三井E&Sマシナリー Structure inspection data management system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211486A (en) * 2019-08-26 2019-12-12 株式会社センシンロボティクス Inspection system
CN112904437B (en) * 2021-01-14 2023-03-24 支付宝(杭州)信息技术有限公司 Detection method and detection device of hidden component based on privacy protection

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS639850A (en) * 1986-07-01 1988-01-16 Mitsubishi Electric Corp Managing device for curved surface state of three-dimensional body
JPH11183172A (en) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd Photography survey support system
JP2006027331A (en) * 2004-07-13 2006-02-02 Hiroboo Kk Method for collecting aerial image information by utilizing unmanned flying object
US20160307366A1 (en) * 2015-04-14 2016-10-20 ETAK Systems, LLC Virtualized site survey systems and methods for cell sites
CN205808364U (en) * 2016-02-29 2016-12-14 北方民族大学 A kind of single beam Land area measure system based on unmanned plane
JP2018010630A (en) * 2016-06-30 2018-01-18 株式会社日立システムズ Subject abnormality presence/absence investigation system
KR20180036075A (en) * 2016-09-30 2018-04-09 (주)태성에스엔아이 Method for Generating 3D Structure Model Mapped with Damage Information, and Media Being Recorded with Program Executing the Method
JP2019070631A (en) * 2017-10-11 2019-05-09 株式会社日立システムズ Deterioration diagnosis system using flight vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS639850A (en) * 1986-07-01 1988-01-16 Mitsubishi Electric Corp Managing device for curved surface state of three-dimensional body
JPH11183172A (en) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd Photography survey support system
JP2006027331A (en) * 2004-07-13 2006-02-02 Hiroboo Kk Method for collecting aerial image information by utilizing unmanned flying object
US20160307366A1 (en) * 2015-04-14 2016-10-20 ETAK Systems, LLC Virtualized site survey systems and methods for cell sites
CN205808364U (en) * 2016-02-29 2016-12-14 北方民族大学 A kind of single beam Land area measure system based on unmanned plane
JP2018010630A (en) * 2016-06-30 2018-01-18 株式会社日立システムズ Subject abnormality presence/absence investigation system
KR20180036075A (en) * 2016-09-30 2018-04-09 (주)태성에스엔아이 Method for Generating 3D Structure Model Mapped with Damage Information, and Media Being Recorded with Program Executing the Method
JP2019070631A (en) * 2017-10-11 2019-05-09 株式会社日立システムズ Deterioration diagnosis system using flight vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068426A (en) * 2020-09-01 2021-04-30 株式会社センシンロボティクス Method of creating flight route for flying object and management server
JP7003352B1 (en) 2021-04-12 2022-01-20 株式会社三井E&Sマシナリー Structure inspection data management system
JP2022162443A (en) * 2021-04-12 2022-10-24 株式会社三井E&Sマシナリー Structure inspection data management system

Also Published As

Publication number Publication date
WO2019230604A1 (en) 2019-12-05
JP6583840B1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
WO2019230604A1 (en) Inspection system
JP6802599B1 (en) Inspection system
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
JP2023100642A (en) inspection system
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
WO2020062178A1 (en) Map-based method for identifying target object, and control terminal
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
WO2020048365A1 (en) Flight control method and device for aircraft, and terminal device and flight control system
JP6681101B2 (en) Inspection system
WO2018214401A1 (en) Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program and recording medium
WO2021251441A1 (en) Method, system, and program
US20210229810A1 (en) Information processing device, flight control method, and flight control system
CN109891188B (en) Mobile platform, imaging path generation method, program, and recording medium
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
CN111213107B (en) Information processing device, imaging control method, program, and recording medium
JP6681102B2 (en) Inspection system
JP6730764B1 (en) Flight route display method and information processing apparatus
JP6684012B1 (en) Information processing apparatus and information processing method
KR102181809B1 (en) Apparatus and method for checking facility
WO2021016867A1 (en) Terminal device and data processing method therefor, and unmanned aerial vehicle and control method therefor
JP2019179529A (en) Controller
WO2022113482A1 (en) Information processing device, method, and program
JP7317684B2 (en) Mobile object, information processing device, and imaging system
JP7501535B2 (en) Information processing device, information processing method, and information processing program
JP7307927B2 (en) drone control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180601

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6583840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250