JP2017173966A - Pilotless flight device control system, pilotless flight device controlling method, and pilotless flight device - Google Patents

Pilotless flight device control system, pilotless flight device controlling method, and pilotless flight device Download PDF

Info

Publication number
JP2017173966A
JP2017173966A JP2016056830A JP2016056830A JP2017173966A JP 2017173966 A JP2017173966 A JP 2017173966A JP 2016056830 A JP2016056830 A JP 2016056830A JP 2016056830 A JP2016056830 A JP 2016056830A JP 2017173966 A JP2017173966 A JP 2017173966A
Authority
JP
Japan
Prior art keywords
image
uav
camera
information image
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016056830A
Other languages
Japanese (ja)
Other versions
JP6707933B2 (en
Inventor
典良 広井
Noriyoshi Hiroi
典良 広井
振斌 許
Shinhin Kyo
振斌 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016056830A priority Critical patent/JP6707933B2/en
Publication of JP2017173966A publication Critical patent/JP2017173966A/en
Application granted granted Critical
Publication of JP6707933B2 publication Critical patent/JP6707933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To continue to control a pilotless flight device if images taken by the pilotless flight device have gone out of sight, when the pilotless flight device is controlled based on images taken by the pilotless flight device to be guided to around a target position near a target.SOLUTION: An image projector 101 projects an image for controlling the operation of a pilotless flight device equipped with an imaging device, to a target. A controller 103 controls the operation of the pilotless flight device based on images taken by the imaging device, and controls the operation of the pilotless flight device based on the amount of change in the flying condition if the pilotless flight device flies in the changed condition and thus has become incapable of taking images.SELECTED DRAWING: Figure 21

Description

本発明は、無人飛行装置を制御する無人飛行装置制御システム、無人飛行装置制御方法、および、その無人飛行装置制御システムに適用可能な無人飛行装置に関する。   The present invention relates to an unmanned flight apparatus control system for controlling an unmanned flight apparatus, an unmanned flight apparatus control method, and an unmanned flight apparatus applicable to the unmanned flight apparatus control system.

無人飛翔体を用いた建築物の状態検査(インフラストラクチャ劣化診断)が行われている。例えば、無人飛翔体に搭載されたカメラにより撮像された建築物の表面状態から、建築物の劣化状態を推定できる。以下、無人飛翔体をUAV(Unmanned Aerial Vehicle )と記す。なお、UAVは、無人飛行装置と称することもできる。   A state inspection (infrastructure deterioration diagnosis) of a building using an unmanned flying object is performed. For example, the deterioration state of the building can be estimated from the surface state of the building imaged by a camera mounted on the unmanned flying object. Hereinafter, the unmanned flying vehicle is referred to as UAV (Unmanned Aerial Vehicle). UAV can also be referred to as an unmanned flight device.

UAVをインフラストラクチャ劣化診断に用いるために、診断対象の建築物の付近にUAVを誘導する制御が必要である。   In order to use the UAV for infrastructure deterioration diagnosis, it is necessary to control the UAV in the vicinity of the building to be diagnosed.

一般的な技術では、UAVの制御部は、UAVを目標位置に誘導するために、GPS(Global Positioning System )信号を用いてUAVの位置を把握する。特許文献1には、GPSアンテナを有するGPS装置と、撮像部とを備えたカメラを具備する航空写真装置が記載されている。   In a general technique, the control unit of the UAV grasps the position of the UAV using a GPS (Global Positioning System) signal in order to guide the UAV to the target position. Patent Document 1 describes an aerial photographic apparatus including a camera having a GPS device having a GPS antenna and an imaging unit.

特開2014−62789号公報JP 2014-62789 A

GPS信号によって位置を把握するUAVを用いて、インフラストラクチャ劣化診断を行う場合、以下に示す問題が生じる。単体アンテナをUAV等の移動体に取り付けたGPSでは、リアルタイム測位精度は数メートルの誤差を含む。その結果、インフラストラクチャ劣化診断の対象となる建築物にUAVが近付く場合、UAVのGPS測定位置誤差が大きいため、建築物とUAVとの距離が遠すぎたり近すぎたりすることがある。また、UAVと、GPS衛星との位置関係によっては、GPS信号の強度が弱い場所をUAVが通過することもあり得る。GPS信号の強度が弱い場所をUAVが通過する場合、UAVは、そのUAVの位置を正確に把握できず、目標位置への誘導精度が悪くなる。   When infrastructure deterioration diagnosis is performed using UAVs whose positions are determined by GPS signals, the following problems occur. In GPS in which a single antenna is attached to a moving body such as a UAV, the real-time positioning accuracy includes an error of several meters. As a result, when a UAV approaches a building to be subjected to infrastructure degradation diagnosis, the UAV GPS measurement position error is large, and therefore the distance between the building and the UAV may be too far or too close. Also, depending on the positional relationship between the UAV and the GPS satellite, the UAV may pass through a place where the GPS signal strength is weak. When the UAV passes through a place where the intensity of the GPS signal is weak, the UAV cannot accurately grasp the position of the UAV, and the accuracy of guidance to the target position is deteriorated.

この問題を簡易な構成で解決するために、建築物等の対象物にUAVの動作を制御するための画像を投影し、投影された画像をUAVに搭載されたカメラにより撮像することで、対象物の付近の目的位置近傍にUAVを誘導することが考えられる。   In order to solve this problem with a simple configuration, an image for controlling the operation of the UAV is projected on an object such as a building, and the projected image is captured by a camera mounted on the UAV. It is conceivable to guide the UAV near the target position near the object.

このような画像に基づくUAVの誘導制御において、UAVは、風等の外乱を受けると、姿勢や位置が変化し、対象物に投影されている画像を見失ってしまう場合がある。その結果、画像に基づくUAV制御ができなくなってしまう。   In the UAV guidance control based on such an image, when the UAV is subjected to disturbance such as wind, the posture and the position may change, and the image projected on the object may be lost. As a result, UAV control based on images cannot be performed.

なお、このような課題は、インフラストラクチャ劣化診断におけるUAV制御に限らず、建築物の巡回監視等、対象物の付近の目標位置へ誘導するためのUAV制御においても同様に生じ得る。   Such a problem can occur not only in UAV control in infrastructure deterioration diagnosis, but also in UAV control for guiding to a target position near an object, such as patrol monitoring of a building.

そこで、本発明は、無人飛行装置が撮像した画像に基づき無人飛行装置を制御して対象物の付近の目標位置近傍に無人飛行装置を誘導する場合において、無人飛行装置が撮像していた画像を見失った場合であっても、無人飛行装置を制御することができる無人飛行装置制御システム、無人飛行装置制御方法、および、その無人飛行装置制御システムに適用可能な無人飛行装置を提供することを目的とする。   Therefore, the present invention controls an unmanned aerial vehicle based on an image captured by the unmanned aerial vehicle and guides the unmanned aerial vehicle near the target position near the object. An object is to provide an unmanned flying device control system, an unmanned flying device control method, and an unmanned flying device applicable to the unmanned flying device control system that can control the unmanned flying device even if it is lost. And

本発明による無人飛行装置制御システムは、撮像装置を搭載する無人飛行装置の動作を制御するための画像を対象物に投影する画像投影部と、撮像装置によって撮像された画像に基づき、無人飛行装置の動作を制御する制御部とを備え、制御部は、無人飛行装置の飛行状態の変化により画像を撮像不能となった場合に、飛行状態の変化量に基づき無人飛行装置の動作を制御する。   An unmanned aerial vehicle control system according to the present invention includes an image projecting unit that projects an image for controlling an operation of an unmanned aerial vehicle equipped with an imaging device onto an object, and an unmanned aerial vehicle based on an image captured by the imaging device. The control unit controls the operation of the unmanned aerial vehicle based on the amount of change in the flight state when an image cannot be captured due to a change in the flight state of the unmanned aerial vehicle.

また、本発明による無人飛行装置制御方法は、撮像装置を搭載する無人飛行装置の動作を制御するための画像を対象物に投影し、撮像装置によって撮像された画像に基づき、無人飛行装置の動作を制御し、無人飛行装置の飛行状態の変化により画像を撮像不能となった場合に、飛行状態の変化量に基づき無人飛行装置の動作を制御する。   The unmanned flying device control method according to the present invention projects an image for controlling the operation of the unmanned flying device equipped with the imaging device onto an object, and the operation of the unmanned flying device based on the image captured by the imaging device. And the operation of the unmanned aerial vehicle is controlled based on the amount of change in the flight state.

また、本発明による無人飛行装置は、無人飛行装置動作を制御するための画像であって、対象物に投影された画像を撮像する撮像装置と、撮像装置によって撮像された画像に基づき、無人飛行装置の動作を制御する制御部とを備え、制御部は、無人飛行装置の飛行状態の変化により画像を撮像不能となった場合に、飛行状態の変化量に基づき無人飛行装置の動作を制御する。   An unmanned aerial vehicle according to the present invention is an image for controlling the operation of an unmanned aerial vehicle, and is an unmanned flight based on an imaging device that captures an image projected on an object and an image captured by the imaging device. A control unit that controls the operation of the device, and the control unit controls the operation of the unmanned flight device based on the amount of change in the flight state when an image cannot be captured due to a change in the flight state of the unmanned flight device. .

本発明によれば、無人飛行装置が撮像した画像に基づき無人飛行装置を制御して対象物の付近の目標位置近傍に無人飛行装置を誘導する場合において、無人飛行装置が撮像していた画像を見失った場合であっても、無人飛行装置を制御することができる。   According to the present invention, when controlling the unmanned aerial vehicle based on the image captured by the unmanned aerial vehicle to guide the unmanned aerial vehicle near the target position near the object, the image captured by the unmanned aerial vehicle is displayed. Even if it is lost, the unmanned flight device can be controlled.

本発明の無人飛行装置制御システムおよび検査対象となる建築物を示す模式図である。It is a schematic diagram which shows the building which becomes the unmanned flight apparatus control system and inspection object of this invention. 目標位置からずれた箇所でUAVが撮影を行った場合に、UAVが次の目標位置までの移動制御内容を把握する状況を示す模式図である。It is a schematic diagram which shows the situation where UAV grasps | ascertains the content of the movement control to the next target position when UAV image | photographs in the location shifted | deviated from the target position. 情報画像の例を示す説明図である。It is explanatory drawing which shows the example of an information image. 図3に例示した情報画像内の記号の意味を示す説明図である。It is explanatory drawing which shows the meaning of the symbol in the information image illustrated in FIG. バーの表示態様の例を示す説明図である。It is explanatory drawing which shows the example of the display mode of a bar. UAVの構成例を示すブロック図である。It is a block diagram which shows the structural example of UAV. カメラの視野の例を示す模式図である。It is a schematic diagram which shows the example of the visual field of a camera. 図7(b)に示す視野を撮像することによって生成したカメラ画像の例を示す模式図である。It is a schematic diagram which shows the example of the camera image produced | generated by imaging the visual field shown in FIG.7 (b). 図8に示すカメラ画像に、輪郭情報が示すカメラ画像内の輪郭を重ね合わせた状態の例を示す模式図である。It is a schematic diagram which shows the example of the state which overlap | superposed the contour in the camera image which contour information shows on the camera image shown in FIG. 投影ステーションの構成例を示す模式的ブロック図である。It is a typical block diagram which shows the structural example of a projection station. 本発明の第1の実施形態の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the process progress of the 1st Embodiment of this invention. 情報画像を認識できないカメラ画像の例を示す模式図である。It is a schematic diagram which shows the example of the camera image which cannot recognize an information image. 情報画像とUAVの影とが重なって写ったカメラ画像の例を示す模式図である。It is a schematic diagram which shows the example of the camera image which the information image and the shadow of UAV reflected and were taken. UAVが移動することによって、情報画像とUAVの影とが重ならない状態になったカメラ画像の例を示す模式図である。It is a schematic diagram which shows the example of the camera image used as the state which the information image and the shadow of UAV did not overlap by moving UAV. UAVの経路の例を示す模式図である。It is a schematic diagram which shows the example of the path | route of UAV. 情報画像の投影面と、状態検査のための撮像の対象面とが異なる状況の例を示す模式図である。It is a schematic diagram which shows the example of the condition from which the projection surface of an information image differs from the object surface of the imaging for a state test | inspection. 水平な直線を表すパターン画像の例を示す模式図である。It is a schematic diagram which shows the example of the pattern image showing a horizontal straight line. 段差が生じた建築物の表面にパターン画像を投影し、カメラがその投影箇所を撮像している状態を示す模式図である。It is a schematic diagram which shows the state which projects a pattern image on the surface of the building in which the level | step difference produced, and the camera is imaging the projection location. 図18に示す状態の模式的側面図である。It is a typical side view of the state shown in FIG. パターン画像を撮像した結果得られたカメラ画像の例を示す模式図である。It is a schematic diagram which shows the example of the camera image obtained as a result of imaging a pattern image. 本発明の無人飛行装置制御システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the unmanned flight apparatus control system of this invention. 本発明の追尾撮像装置を備える投影ステーションを含む無人飛行装置制御システムおよび検査対象となる建築物を示す模式図である。It is a schematic diagram which shows the building which becomes an unmanned flight apparatus control system and inspection object including a projection station provided with the tracking imaging device of this invention. 追尾撮像装置がUAVの位置および姿勢の変化量を求める例を示す模式図である。It is a schematic diagram which shows the example in which a tracking imaging device calculates | requires the variation | change_quantity of the position and attitude | position of UAV.

以下、本発明の実施形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施形態1.
図1は、本発明の無人飛行装置制御システムおよび検査対象となる建築物を示す模式図である。本発明の無人飛行装置制御システムは、無人飛翔体(以下、UAVと記す。)10と、投影ステーション20とを備える。前述のように、UAVは、無人飛行装置と称することもできる。
Embodiment 1. FIG.
FIG. 1 is a schematic view showing an unmanned flying device control system of the present invention and a building to be inspected. The unmanned aerial vehicle control system of the present invention includes an unmanned aerial vehicle (hereinafter referred to as UAV) 10 and a projection station 20. As mentioned above, the UAV can also be referred to as an unmanned aerial vehicle.

UAV10は、カメラを搭載している。UAV10に搭載されたカメラは、検査対象となる建築物30の表面を撮像し、建築物の表面の画像を生成する。この画像によって、建築物の状態検査(インフラストラクチャ劣化診断)を行える。   The UAV 10 is equipped with a camera. The camera mounted on the UAV 10 images the surface of the building 30 to be inspected and generates an image of the surface of the building. This image can be used for building condition inspection (infrastructure deterioration diagnosis).

投影ステーション20は、プロジェクタ21を備え、プロジェクタ21から、UAV10の制御内容を示す情報を含む画像(以下、情報画像と記す)を、建築物30の表面に投影する。投影ステーション20は、車両29に搭載され、移動したり、同じ場所で停止し続けたりすることができる。   The projection station 20 includes a projector 21, and projects an image including information indicating the control content of the UAV 10 (hereinafter referred to as an information image) from the projector 21 onto the surface of the building 30. The projection station 20 is mounted on the vehicle 29 and can move or stop at the same place.

投影ステーション20は、検査対象の建築物30の外観および3次元形状の情報を予め記憶している。さらに、投影ステーション20は、投影ステーション20と建築物30との位置関係を認識する。投影ステーション20と建築物30との位置関係は、図示しない様々な測量装置を用いて行い、3次元空間上の位置だけでなく、向きも高精度に測定しておく。なお、建築物30の3次元形状を得る方法は、設計時の図面や3D−CAD(3Dimension Computer-Aided Design)データを用いる方法でもよいし、3D−LiDAR(3Dimension Light Detection and Ranging)等を用いて現物を予め測定する方法でもよい。また、建築物30の3次元形状の情報は、建築物30全体に関する情報に限らず、建築物30のうち本発明を用いて観察する部分に関する情報であってもよい。また、建築物30と投影ステーション20との位置関係を精度良く知る方法については、トータルステーション等を用いた三角測量等、既知の手法が多数あるため、説明を省略する。投影ステーション20と建築物30との位置関係は予め計測しておくのが基本である。ただし、風等の影響で作業中に建築物30が変形する可能性がある場合や、投影ステーション20が船上等の不安定な位置にある場合には、本発明による作業中に位置関係を計測してもよい。   The projection station 20 stores in advance information on the appearance and three-dimensional shape of the building 30 to be inspected. Further, the projection station 20 recognizes the positional relationship between the projection station 20 and the building 30. The positional relationship between the projection station 20 and the building 30 is measured using various surveying devices (not shown), and not only the position in the three-dimensional space but also the orientation is measured with high accuracy. The method for obtaining the three-dimensional shape of the building 30 may be a method using drawing at the time of design or 3D-CAD (3Dimension Computer-Aided Design) data, or 3D-LiDAR (3Dimension Light Detection and Ranging). Alternatively, a method of measuring the actual product in advance may be used. The information on the three-dimensional shape of the building 30 is not limited to information on the entire building 30 but may be information on a portion of the building 30 to be observed using the present invention. Further, since there are a number of known methods such as triangulation using a total station or the like, a method for accurately knowing the positional relationship between the building 30 and the projection station 20 will not be described. The positional relationship between the projection station 20 and the building 30 is basically measured in advance. However, when there is a possibility that the building 30 may be deformed during work due to the influence of wind or the like, or when the projection station 20 is in an unstable position on the ship or the like, the positional relationship is measured during the work according to the present invention. May be.

投影ステーション20は、その位置関係および記憶している情報に基づいて、建築物30の表面上における情報画像の投影箇所を複数定め、UAV10の経路35を導出する。また、投影ステーション20は、その各投影箇所に投影する情報画像を生成する。また、投影ステーション20は、UAV10が情報画像を撮像するための位置(以下、目標位置と記す。)やその目標位置での姿勢(傾きまたは向き)やカメラの向きを定める。この姿勢やカメラの向きは、情報画像を撮像する際の姿勢やカメラの向きである。投影ステーション20は、例えば、次の目標位置までの移動制御内容や、移動時の姿勢やカメラの向きを指示するための情報画像を、目標位置間の位置関係に基づいて生成する。また、情報画像には、UAV10に状態検査のための撮像を指示する情報も含まれる。投影ステーション20は、順次、情報画像を建築物30の表面に投影する。なお、後述するように、実際には、UAV10は目標位置からずれた位置で情報画像を撮像することが一般的であり、情報画像を撮像する際の姿勢やカメラの向きも、定められた姿勢でなくてよい。   The projection station 20 determines a plurality of information image projection locations on the surface of the building 30 based on the positional relationship and stored information, and derives a path 35 of the UAV 10. Further, the projection station 20 generates an information image to be projected onto each projection location. In addition, the projection station 20 determines a position (hereinafter referred to as a target position) for the UAV 10 to capture an information image, a posture (tilt or orientation) at the target position, and a camera direction. The posture and the camera direction are the posture and the camera direction when an information image is captured. The projection station 20 generates, for example, information on movement control up to the next target position, an information image for instructing the posture during movement and the direction of the camera, based on the positional relationship between the target positions. The information image also includes information for instructing the UAV 10 to perform imaging for state inspection. The projection station 20 sequentially projects information images on the surface of the building 30. As will be described later, in practice, the UAV 10 generally captures an information image at a position deviated from the target position, and the posture at which the information image is captured and the orientation of the camera are also determined. Not necessary.

UAV10は、情報画像が投影された建築物30の表面をカメラによって撮像する。以下、UAV10のカメラが撮像したことによって得られた画像をカメラ画像と記す。UAV10は、カメラ画像内の情報画像(カメラ画像内に写っている情報画像)が示している制御内容に従って動作する。例えば、UAV10は、カメラ画像内の情報画像に基づいて、状態検査のための撮像を行ったり、次の目標位置の方向に移動したりする。   The UAV 10 images the surface of the building 30 on which the information image is projected with a camera. Hereinafter, an image obtained by imaging by the UAV 10 camera is referred to as a camera image. The UAV 10 operates in accordance with the control content indicated by the information image in the camera image (information image shown in the camera image). For example, the UAV 10 performs imaging for the state inspection based on the information image in the camera image or moves in the direction of the next target position.

UAV10は、カメラ画像内の情報画像に基づいて動作することによって、経路35の近傍を移動しつつ、状態検査のために建築物30の表面を撮像する。   The UAV 10 operates based on the information image in the camera image, and images the surface of the building 30 for the state inspection while moving in the vicinity of the path 35.

UAV10は、経路35上の目標位置で情報画像を撮像するとは限らない。UAV10は風等の種々の影響を受けるので、UAV10が予め定められた目標位置と同一の箇所に到達することは困難であることが一般的である。そのため、UAV10は、目標位置の近傍に到達したならば、建築物30の表面を撮像する。UAV10は、その結果得られたカメラ画像に基づいて、その位置と、目標位置のずれを計算する。そして、UAV10は、カメラ画像内の情報画像が示す移動制御内容と、計算したずれとに基づいて、現在位置から次の目標位置までの移動のための制御内容を導出する。   The UAV 10 does not always capture an information image at a target position on the path 35. Since the UAV 10 is affected by various effects such as wind, it is generally difficult for the UAV 10 to reach the same location as a predetermined target position. Therefore, the UAV 10 images the surface of the building 30 when it reaches the vicinity of the target position. The UAV 10 calculates the difference between the position and the target position based on the camera image obtained as a result. Then, the UAV 10 derives control contents for movement from the current position to the next target position based on the movement control contents indicated by the information image in the camera image and the calculated deviation.

図2は、目標位置からずれた箇所でUAV10が撮影を行った場合に、UAV10が次の目標位置までの移動制御内容を把握する状況を示す模式図である。図2に示す例において、建築物30の表面の領域A1,A2は、情報画像の投影箇所である。また、領域A1に投影された情報画像を撮像するための位置として目標位置P1が定められているとする。同様に、領域A2に投影された情報画像を撮像するための位置として目標位置P2が定められているとする。また、目標位置P1,P2それぞれにおけるUAV10の姿勢やカメラの向きも定められている。上記のように、UAV10は風等の種々の影響を受けるので、UAV10は、目標位置P1と完全に一致する位置で、領域A1に投影された情報画像を撮像することは困難である。そのため、UAV10は、目標位置P1の近傍の位置P1’で、領域A1に投影された情報画像を撮像する。このときの、UAV10の姿勢やカメラの向きも、予め定められた目標位置P1における姿勢やカメラの向きと一致していないことが一般的である。   FIG. 2 is a schematic diagram illustrating a situation in which the UAV 10 grasps the content of movement control up to the next target position when the UAV 10 performs shooting at a location deviated from the target position. In the example illustrated in FIG. 2, the areas A1 and A2 on the surface of the building 30 are the projected portions of the information image. Further, it is assumed that the target position P1 is determined as a position for capturing the information image projected on the area A1. Similarly, it is assumed that a target position P2 is determined as a position for capturing an information image projected on the area A2. Further, the posture of the UAV 10 and the direction of the camera at the target positions P1 and P2 are also determined. As described above, since the UAV 10 is affected by various effects such as wind, it is difficult for the UAV 10 to capture an information image projected on the area A1 at a position that completely coincides with the target position P1. Therefore, the UAV 10 captures the information image projected on the area A1 at the position P1 ′ near the target position P1. At this time, the posture of the UAV 10 and the orientation of the camera are generally not consistent with the posture and the orientation of the camera at the predetermined target position P1.

UAV10は、目標位置P1において、定められた姿勢およびカメラの向きで、領域A1に投影された情報画像を撮像したと仮定した場合におけるカメラ画像内の情報画像の輪郭と、実際に、位置P1’で情報画像を撮像して得たカメラ画像内の情報画像の輪郭とに基づいて、目標位置P1と位置P1’とのずれM(図2参照)を計算する。また、領域A1に投影された情報画像には、目標位置P1から目標位置P2に移動するための移動制御内容が示されている。UAV10は、その移動制御内容と、計算したずれMとに基づいて、位置P1’から目標位置P2に移動するための制御内容を導出し、その制御内容に基づいて、次の目標位置P2に向けて移動する。UAV10は、領域A2に投影された情報画像を撮像する場合にも、目標位置P2の近傍で情報画像を撮像し、同様に、次の目標位置に移動するための制御内容を導出する。   The UAV 10 assumes that the information image projected on the area A1 is captured at the target position P1 with the determined posture and the camera orientation, and the contour of the information image in the camera image and actually the position P1 ′. The deviation M (see FIG. 2) between the target position P1 and the position P1 ′ is calculated based on the contour of the information image in the camera image obtained by imaging the information image. Further, the information image projected on the area A1 shows the content of movement control for moving from the target position P1 to the target position P2. The UAV 10 derives the control content for moving from the position P1 ′ to the target position P2 based on the movement control content and the calculated deviation M, and toward the next target position P2 based on the control content. Move. The UAV 10 also captures an information image in the vicinity of the target position P2 even when capturing an information image projected on the area A2, and similarly derives control details for moving to the next target position.

なお、予め定められた目標位置において、定められた姿勢およびカメラの向きで、情報画像を撮影したと仮定した場合におけるカメラ画像内の情報画像の輪郭の情報は、事前にUAV10に与えられる。   Note that the information on the contour of the information image in the camera image when it is assumed that the information image is taken at a predetermined target position with a predetermined posture and camera orientation is given to the UAV 10 in advance.

また、UAV10は、風等の種々の影響により、情報画像の正面位置で情報画像を撮影できないことが一般的である。そのため、カメラ画像において、情報画像は歪んで写っていることが一般的である。UAV10は、その情報画像の歪みを取り除く処理を行ってから、カメラ画像内に写っている情報画像が示している制御内容を認識する。   Also, the UAV 10 generally cannot capture an information image at the front position of the information image due to various influences such as wind. Therefore, in general, information images are distorted in camera images. The UAV 10 recognizes the control content indicated by the information image shown in the camera image after performing processing for removing the distortion of the information image.

図3は、投影ステーション20が投影する情報画像の例を示す説明図である。図4は、図3に例示した情報画像内の記号の意味を示す説明図である。   FIG. 3 is an explanatory diagram illustrating an example of an information image projected by the projection station 20. FIG. 4 is an explanatory diagram showing the meaning of symbols in the information image illustrated in FIG.

情報画像40は、例えば、移動制御記号41と、カメラ向き制御記号43と、姿勢制御記号44とを含む。   The information image 40 includes, for example, a movement control symbol 41, a camera orientation control symbol 43, and an attitude control symbol 44.

移動制御記号41は、UAV10の移動に関する制御内容を示す記号である。移動制御記号41によって、進行方向の指示、滞空指示および速度指示を行うことができる。図3に例示する移動制御記号41は、矢印の形状をしており、その矢印の示す方向が、指示している進行方法である。図3に示す例では、下方への移動を指示している。移動制御記号41によって指示する進行方向は、下方向に限定されない。   The movement control symbol 41 is a symbol indicating control content related to movement of the UAV 10. With the movement control symbol 41, it is possible to give a direction of travel direction, a stray direction, and a speed direction. The movement control symbol 41 illustrated in FIG. 3 has an arrow shape, and the direction indicated by the arrow is the instructing traveling method. In the example shown in FIG. 3, a downward movement is instructed. The traveling direction indicated by the movement control symbol 41 is not limited to the downward direction.

また、移動制御記号41は、付加されているバー42によって、UAV10に滞空することを指示することができる。バー42は、滞空の指示を意味している。移動制御記号41のアローヘッド(arrowhead )とは反対側の端部にバー42が設けられた場合、滞空してから、矢印方向(本例では、下方)に移動することを意味する。また、移動制御記号41のアローヘッド側の端部にバー42を表示することによって、移動してから滞空することを指示することもできる。以下の説明では、説明を簡単にするために、UAV10が、情報画像40が示す制御内容を認識してから滞空し、その滞空時間内に状態検査のための撮像を行い、その後、指示された方向に移動するものとして説明する。この場合、バー42はアローヘッドとは反対側の端部に表示される。また、バー42は、滞空中に状態検査のための撮像を指示する意味も有しているものとして説明する。   In addition, the movement control symbol 41 can instruct the UAV 10 to stay behind by the added bar 42. The bar 42 indicates a stray indication. When the bar 42 is provided at the end opposite to the arrowhead of the movement control symbol 41, it means that the bar 42 moves and moves in the direction of the arrow (downward in this example). In addition, by displaying a bar 42 at the end of the movement control symbol 41 on the arrow head side, it is possible to instruct to stay after moving. In the following description, in order to simplify the explanation, the UAV 10 stays in the air after recognizing the control content indicated by the information image 40, performs imaging for the state inspection within the time of the air hover, and is instructed thereafter. A description will be given on the assumption that it moves in the direction. In this case, the bar 42 is displayed at the end opposite to the arrow head. Further, the bar 42 will be described as having a meaning of instructing imaging for a state inspection in the air.

また、移動制御記号41は、移動制御記号41(矢印形状の記号)の内部の色の濃淡の変化の仕方によって、UAV10が移動する際の移動速度を指示する。なお、図3および図4では、矢印形状の記号の色の濃淡の変化を、便宜的に、模様の変化で表している。実際の矢印形状内の色の濃淡は、例えば、徐々に変化してもよい。   Further, the movement control symbol 41 indicates the movement speed when the UAV 10 moves depending on how the color of the color inside the movement control symbol 41 (arrow-shaped symbol) changes. In FIGS. 3 and 4, the change in shade of the color of the arrow-shaped symbol is represented by a change in pattern for convenience. The shade of the color in the actual arrow shape may change gradually, for example.

なお、バー42の向きは、例えば、矢印の向きと垂直に定められる。ただし、バー42の向きの定め方は、この例に限られず、例えば、常に水平であってもよい。図5は、バー42の表示態様の例を示す説明図である。図5では、移動制御記号41内部の色の濃淡の表示を省略している。図5(a)は、バー42の向きを矢印の向きと垂直に定める場合の例を示している。図5(b)は、バー42の向きを常に水平に定める場合の例を示している。図5に例示するように矢印が右向きである場合、図5(a)に示す例では、バー42は縦向きのバーとして定められる。一方、図5(b)に示す例では、バー42は水平であり、矢印の内部に示される。   The direction of the bar 42 is determined to be perpendicular to the direction of the arrow, for example. However, the method of determining the orientation of the bar 42 is not limited to this example, and may be always horizontal, for example. FIG. 5 is an explanatory diagram illustrating an example of a display mode of the bar 42. In FIG. 5, the display of color shading inside the movement control symbol 41 is omitted. FIG. 5A shows an example in which the direction of the bar 42 is determined to be perpendicular to the direction of the arrow. FIG. 5B shows an example in which the direction of the bar 42 is always set to be horizontal. As illustrated in FIG. 5, when the arrow points to the right, in the example illustrated in FIG. 5A, the bar 42 is defined as a vertically oriented bar. On the other hand, in the example shown in FIG. 5B, the bar 42 is horizontal and is shown inside the arrow.

カメラ向き制御記号43は、UAV10に搭載されているカメラの向きに関する制御内容を表す記号である。カメラ向き制御記号43によって、カメラの仰俯角および水平角が制御される。図3では、カメラ向き制御記号43がU字回転矢印である場合を例示している。本例では、U字回転矢印は、カメラの仰俯角を上向きにし、水平角は固定することを意味しているものとする。カメラの向きに関する制御内容と、カメラ向き制御記号43の形状との対応関係は、予め定めておけばよい。   The camera orientation control symbol 43 is a symbol representing the control content related to the orientation of the camera mounted on the UAV 10. The camera elevation control symbol 43 controls the elevation angle and horizontal angle of the camera. FIG. 3 illustrates a case where the camera orientation control symbol 43 is a U-shaped rotation arrow. In this example, the U-shaped rotation arrow means that the elevation angle of the camera is upward and the horizontal angle is fixed. The correspondence between the control content related to the camera direction and the shape of the camera direction control symbol 43 may be determined in advance.

なお、次の目標位置までの移動中のカメラの向きと、次の目標位置に対応する撮影時のカメラの向きとを別々に規定している場合には、投影ステーション20は、それぞれの向きに対応するカメラ向き制御記号を、情報画像40に含めてもよい。   In addition, when the direction of the camera that is moving to the next target position and the direction of the camera at the time of shooting corresponding to the next target position are separately defined, the projection station 20 is in each direction. A corresponding camera orientation control symbol may be included in the information image 40.

姿勢制御記号44は、UAV10の姿勢に関する制御内容を表す記号である。図3では、姿勢制御記号44が半円図形である場合を例示している。本例では、半円図形は、UAV10の姿勢を水平に制御することを意味しているものとする。UAV10の姿勢に関する制御内容と、姿勢制御記号44の形状との関係は、予め定めておけばよい。   The attitude control symbol 44 is a symbol representing the control content related to the attitude of the UAV 10. FIG. 3 illustrates the case where the attitude control symbol 44 is a semicircular figure. In this example, the semicircle figure means that the posture of the UAV 10 is controlled horizontally. The relationship between the control content related to the posture of the UAV 10 and the shape of the posture control symbol 44 may be determined in advance.

なお、次の目標位置までの移動中の姿勢と、次の目標位置に対応する撮影時の姿勢とを別々に規定している場合には、投影ステーション20は、それぞれの姿勢に対応する姿勢制御記号を、情報画像40に含めてもよい。   If the posture during movement to the next target position and the posture at the time of shooting corresponding to the next target position are separately defined, the projection station 20 controls the posture control corresponding to each posture. A symbol may be included in the information image 40.

また、図3では、図示を省略しているが、ある目標位置で、その目標位置に対応して定められた姿勢およびカメラの向きで情報画像を撮像したと仮定した場合におけるカメラ画像内の情報画像の輪郭を表す情報が、情報画像40に含まれていてもよい。以下、ある目標位置で、その目標位置に対応して定められた姿勢およびカメラの向きで情報画像を撮像したと仮定した場合におけるカメラ画像内の情報画像の輪郭を表す情報を輪郭情報と記す。   Although not shown in FIG. 3, information in the camera image when it is assumed that an information image is captured at a certain target position with a posture and a camera orientation corresponding to the target position. Information representing the contour of the image may be included in the information image 40. Hereinafter, information representing the contour of the information image in the camera image when it is assumed that the information image is captured at a certain target position with the posture and the orientation of the camera determined in correspondence with the target position is referred to as contour information.

移動制御記号41、バー42、カメラ向き制御記号43および姿勢制御記号44は、UAV10の制御内容を識別する識別情報であり、情報画像40は、そのような識別情報を含む画像であると言うことができる。また、図3では、制御内容を識別する識別情報(移動制御記号41、バー42、カメラ向き制御記号43および姿勢制御記号44)が図形の記号で表されている場合を例示している。制御内容を識別する識別情報を、図3に例示するように、図形の記号等で表すことにより、検査作業者が遠方からでも視認しやすくすることができる。   The movement control symbol 41, the bar 42, the camera orientation control symbol 43, and the attitude control symbol 44 are identification information for identifying the control contents of the UAV 10, and the information image 40 is an image including such identification information. Can do. FIG. 3 shows an example in which identification information (movement control symbol 41, bar 42, camera orientation control symbol 43, and attitude control symbol 44) for identifying control contents is represented by a graphic symbol. As illustrated in FIG. 3, the identification information for identifying the control content is represented by a graphic symbol or the like, so that the inspection operator can easily recognize the information even from a distance.

また、UAV10の制御内容を識別する識別情報は、QRコード(登録商標)やバーコード等の記号であってもよい。   Further, the identification information for identifying the control content of the UAV 10 may be a symbol such as a QR code (registered trademark) or a barcode.

また、UAV10の制御内容を識別する識別情報は、漢字、数字または象形文字等の記号であってもよい。   The identification information for identifying the control content of the UAV 10 may be a symbol such as a Chinese character, a number, or a hieroglyph.

また、UAV10の制御内容を識別する識別情報は、例えば、「30秒滞在後下に1メートル飛行」のような文章であってもよい。   Further, the identification information for identifying the control content of the UAV 10 may be a sentence such as “1 meter flight after staying for 30 seconds”, for example.

また、検査作業者の見やすさの観点から、投影ステーション20は、情報画像40内の情報(制御内容を識別する識別情報)を、例えば、点滅させるようにして、情報画像40を投影してもよい。このように情報画像40を投影することで、情報画像40の内容を目立たせることができ、検査作業者は、その内容を認識しやすくなる。   Further, from the viewpoint of visibility of the inspection worker, the projection station 20 may project the information image 40 by blinking the information in the information image 40 (identification information for identifying the control content), for example. Good. By projecting the information image 40 in this manner, the contents of the information image 40 can be made conspicuous, and the inspection operator can easily recognize the contents.

また、投影ステーション20は、制御内容を識別する識別情報の他に、他の情報も情報画像40に含めてよい。例えば、投影ステーション20は、状態情報(例えば、UAV10の現在の高度や、作業の進み具合を示すステップ番号等)を情報画像40に含めてもよい。   Further, the projection station 20 may include other information in the information image 40 in addition to the identification information for identifying the control content. For example, the projection station 20 may include state information (for example, the current altitude of the UAV 10 or a step number indicating the progress of work) in the information image 40.

前述の輪郭情報は、目標位置P1と実際の位置P1’とのずれMを求める際に用いられる。目標位置P1と実際の位置P1’とのずれMを求めるために必要な情報は、前述の輪郭情報でなくてもよい。投影ステーション20は、目標位置P1と実際の位置P1’とのずれMを求めるために必要な情報を情報画像40に含め、UAV10はその情報を予め記憶していてもよい。例えば、投影ステーション20は、輪郭情報の代わりに4隅に特別なアイコンを含んだ情報画像40を投影し、UAV10はカメラ画像内に写ったそれらのアイコンの位置関係によって、ずれMを求めてもよい。このように、輪郭を用いずに認識しやすい形状を用いることで、UAV10がずれMを誤認識する可能性を減らすことができる。   The above-described contour information is used when obtaining the deviation M between the target position P1 and the actual position P1 '. Information necessary for obtaining the deviation M between the target position P1 and the actual position P1 'may not be the above-described contour information. The projection station 20 may include information necessary for obtaining the deviation M between the target position P1 and the actual position P1 'in the information image 40, and the UAV 10 may store the information in advance. For example, the projection station 20 projects the information image 40 including special icons at the four corners instead of the contour information, and the UAV 10 may calculate the deviation M according to the positional relationship of these icons captured in the camera image. Good. Thus, by using a shape that is easy to recognize without using the contour, the possibility that the UAV 10 misrecognizes the shift M can be reduced.

また、投影ステーション20は、目標位置P1と実際の位置P1’とのずれMを求めるために必要な情報を、情報画像40内に固定的に含めてもよい。例えば、検査区域を示す検査区域番号(図示略)が情報画像40に含まれるとする。投影ステーション20は、検査区域番号の前半部分を例えばアルファベット等で固定的に定め、後半部分を任意に定めてもよい。UAV10はカメラ画像内に写ったその固定的な部分の変形によって、ずれMを求めてもよい。このように情報画像40の一部を固定的に定め、カメラ画像内におけるその部分の画像に基づいてずれMを求めることによって、ずれMを求めるための情報画像40内の要素が、検査作業者の邪魔にならないようにすることができる。   In addition, the projection station 20 may include information necessary for obtaining the deviation M between the target position P1 and the actual position P1 'in the information image 40 in a fixed manner. For example, it is assumed that the inspection area number (not shown) indicating the inspection area is included in the information image 40. The projection station 20 may fixedly determine the first half of the inspection area number using, for example, the alphabet, and arbitrarily determine the second half. The UAV 10 may obtain the deviation M by deformation of the fixed portion shown in the camera image. In this way, a part of the information image 40 is fixedly determined, and the deviation M is obtained based on the image of the part in the camera image. You can avoid getting in the way.

次に、UAV10の構成例について説明する。図6は、UAV10の構成例を示すブロック図である。本例では、UAV10が4つのプロペラ(図6において図示略)を有し、4つのプロペラと一対一に対応する4つのモータを有する場合を例にして説明する。ただし、プロペラおよびモータの数は、上記の例に限定されない。   Next, a configuration example of the UAV 10 will be described. FIG. 6 is a block diagram illustrating a configuration example of the UAV 10. In this example, the case where the UAV 10 has four propellers (not shown in FIG. 6) and has four motors corresponding to the four propellers on a one-to-one basis will be described as an example. However, the number of propellers and motors is not limited to the above example.

UAV10は、カメラ11と、制御部13と、カメラ角度制御部15と、モータドライバ16と、4つのモータ17a〜17dと、通信部18とを備える。   The UAV 10 includes a camera 11, a control unit 13, a camera angle control unit 15, a motor driver 16, four motors 17 a to 17 d, and a communication unit 18.

カメラ11は、インフラストラクチャ劣化診断の検査対象となる建築物30(図1参照)の表面を撮像し、建築物の表面を写したカメラ画像を生成する。カメラの視野内に情報画像が投影されている場合には、その情報画像もカメラ画像内に写っている。カメラ11は、生成したカメラ画像を制御部13に入力する。カメラ11の向きは制御可能である。   The camera 11 captures an image of the surface of a building 30 (see FIG. 1) to be inspected for infrastructure deterioration diagnosis, and generates a camera image in which the surface of the building is copied. When an information image is projected within the field of view of the camera, the information image is also reflected in the camera image. The camera 11 inputs the generated camera image to the control unit 13. The orientation of the camera 11 can be controlled.

ここで、建築物30(図1参照)の表面におけるカメラの視野と、その視野を撮影した場合のカメラ画像について説明する。   Here, the field of view of the camera on the surface of the building 30 (see FIG. 1) and the camera image when the field of view is photographed will be described.

図7は、建築物30(図1参照)の表面におけるカメラの視野の例を示す模式図である。図7(a)は、UAV10(図7において図示略)のカメラ11が、建築物30の表面30aを撮像する状況の例を示す模式的上面図である。また、建築物30の表面30aには、情報画像40が投影されているものとする。風等の影響により、カメラ11が建築物30の表面30aと完全に正対して表面30aを撮像することは困難である。そのため、図7(a)に示すように、カメラ11が、斜め方向から建築物30の表面30aを撮像することが一般的である。図7(b)は、図7(a)に示す状態における建築物30の表面30a上のカメラ11の視野を示す模式図である。表面30aにおけるカメラ11の視野49は、四角形である。図7(b)に示す例では、カメラ11が斜め方向から建築物30の表面30aを撮像する状態となっていることによって、視野49が台形である場合を例示している。視野49が台形になるとは限らない。ただし、視野49が長方形になるのは、カメラ11が建築物30の表面30aと正対している場合であり、図7(a)に示すようにカメラ11が斜め方向から建築物30の表面30aを撮像する場合、視野49が長方形になることはない。また、投影ステーション20は、表面30a上で情報画像40が長方形になるように、情報画像40を投影する。従って、表面30a上に投影された情報画像40は長方形である。視野49の頂点をA,B,C,Dとする。また、建築物30の表面30aに投影された情報画像40の頂点をa,b,c,dとする。なお、図7(b)において、情報画像40内の種々の記号の図示は省略している。この点は、図8等においても同様である。   FIG. 7 is a schematic diagram showing an example of the field of view of the camera on the surface of the building 30 (see FIG. 1). FIG. 7A is a schematic top view showing an example of a situation in which the camera 11 of the UAV 10 (not shown in FIG. 7) images the surface 30a of the building 30. FIG. Further, it is assumed that the information image 40 is projected on the surface 30a of the building 30. Due to the influence of wind or the like, it is difficult for the camera 11 to image the surface 30a completely facing the surface 30a of the building 30. Therefore, as shown to Fig.7 (a), it is common for the camera 11 to image the surface 30a of the building 30 from the diagonal direction. FIG.7 (b) is a schematic diagram which shows the visual field of the camera 11 on the surface 30a of the building 30 in the state shown to Fig.7 (a). The field of view 49 of the camera 11 on the surface 30a is rectangular. In the example illustrated in FIG. 7B, the case where the field of view 49 is a trapezoid is illustrated by the camera 11 being in a state of imaging the surface 30 a of the building 30 from an oblique direction. The field of view 49 is not necessarily trapezoidal. However, the field of view 49 is rectangular when the camera 11 faces the surface 30a of the building 30. As shown in FIG. 7A, the camera 11 faces the surface 30a of the building 30 from an oblique direction. The field of view 49 is never rectangular. The projection station 20 projects the information image 40 so that the information image 40 is rectangular on the surface 30a. Therefore, the information image 40 projected on the surface 30a is rectangular. The vertices of the visual field 49 are A, B, C, and D. Moreover, let the vertex of the information image 40 projected on the surface 30a of the building 30 be a, b, c, d. In FIG. 7B, illustration of various symbols in the information image 40 is omitted. This is the same in FIG.

カメラ11は、視野49を撮像し、カメラ画像を生成する。図8は、図7(b)に示す視野49を撮像することによって生成したカメラ画像の例を示す模式図である。カメラ画像50は、長方形である。カメラ画像50の個々の頂点はそれぞれ、図7(b)に示す視野49の個々の頂点と対応している。視野49の頂点Aに対応するカメラ画像50の頂点も符号Aで表す。他のカメラ画像の頂点も同様である。また、カメラ画像50に写った情報画像40(図8参照)の個々の頂点は、建築物30の表面30aに投影された情報画像40(図7(b)参照)の個々の頂点と対応している。図7(b)に示す情報画像40の頂点aに対応するカメラ画像50内の情報画像40(図8参照)の頂点も符号aで表す。カメラ画像50内の情報画像40の他の頂点も同様である。以下、カメラ画像50内の情報画像40の輪郭を、輪郭abcdと記す。   The camera 11 images the visual field 49 and generates a camera image. FIG. 8 is a schematic diagram illustrating an example of a camera image generated by imaging the visual field 49 illustrated in FIG. The camera image 50 is a rectangle. Each vertex of the camera image 50 corresponds to each vertex of the field of view 49 shown in FIG. The vertex of the camera image 50 corresponding to the vertex A of the visual field 49 is also represented by the symbol A. The same applies to the vertices of other camera images. Each vertex of the information image 40 (see FIG. 8) shown in the camera image 50 corresponds to each vertex of the information image 40 (see FIG. 7B) projected on the surface 30a of the building 30. ing. The vertex of the information image 40 (see FIG. 8) in the camera image 50 corresponding to the vertex a of the information image 40 shown in FIG. The same applies to the other vertices of the information image 40 in the camera image 50. Hereinafter, the contour of the information image 40 in the camera image 50 is referred to as a contour abcd.

カメラ11は、長方形ではない視野49を撮影し、長方形のカメラ画像50を生成する。従って、カメラ11の視野49内に投影されていた長方形の情報画像40は、図8に示すように、カメラ画像50内で歪んで写っている。   The camera 11 captures a non-rectangular field of view 49 and generates a rectangular camera image 50. Therefore, the rectangular information image 40 projected in the visual field 49 of the camera 11 is distorted in the camera image 50 as shown in FIG.

制御部13は、カメラ11からカメラ画像50が入力されると、カメラ画像50内の情報画像40の輪郭abcdを検出する。   When the camera image 50 is input from the camera 11, the control unit 13 detects the outline abcd of the information image 40 in the camera image 50.

また、制御部13には、事前に輪郭情報が与えられている。既に説明したように、輪郭情報は、ある目標位置で、その目標位置に対応して定められた姿勢およびカメラの向きで情報画像を撮像したと仮定した場合におけるカメラ画像内の情報画像の輪郭を表す情報である。図9は、図8に示すカメラ画像に、輪郭情報が示すカメラ画像内の輪郭を重ね合わせた状態の例を示す模式図である。制御部13は、輪郭情報が示すカメラ画像50内の輪郭51と、カメラ画像50内の情報画像40の輪郭abcdとに基づいて、UAV10の現在位置と目標位置とのずれMを計算する。なお、ずれMには位置に留まらず姿勢情報も含まれる。以後も同様であるので、特に記載がない場合は姿勢情報について省略する。   Further, contour information is given to the control unit 13 in advance. As already described, the contour information is the contour of the information image in the camera image when it is assumed that the information image is captured at a certain target position with the posture and the camera orientation corresponding to the target position. It is information to represent. FIG. 9 is a schematic diagram illustrating an example of a state in which the contour in the camera image indicated by the contour information is superimposed on the camera image illustrated in FIG. 8. The control unit 13 calculates a deviation M between the current position and the target position of the UAV 10 based on the contour 51 in the camera image 50 indicated by the contour information and the contour abcd of the information image 40 in the camera image 50. The deviation M includes not only the position but also posture information. Since it is the same thereafter, the posture information is omitted unless otherwise specified.

制御部13は、カメラ画像内に情報画像を認識できなかった場合には、モータドライバ16を介して各モータ17a〜17dを制御することで、UAV10を移動させる。   When the information image cannot be recognized in the camera image, the control unit 13 moves the UAV 10 by controlling the motors 17 a to 17 d via the motor driver 16.

また、制御部13は、カメラ画像内に情報画像を認識できた場合には、UAV10の現在位置と目標位置とのずれMを計算する。さらに、制御部13は、カメラ画像50内の情報画像40の歪みを取り除く処理(換言すれば、カメラ画像50内の情報画像40を長方形にする処理)を行い、その処理後の情報画像40が示す制御内容を把握し、その制御内容に従って、UAV10を制御する。例えば、制御部13は、情報画像40が示す制御内容に従って、建築物30の表面の状態検査のための撮像を行う。また、制御部13は、計算したずれM(UAV10の現在位置と目標位置のずれ)と、情報画像40が示す次の目標位置までの移動制御内容と、現在位置から次の目標位置までの移動のための制御内容を導出し、その制御内容に応じてモータドライバ16を介して各モータ17a〜17dを制御することで、UAV10を移動させる。また、制御部13は、情報画像40が示す制御内容に従って、UAV10の姿勢を制御したり、カメラ角度制御部15を介してカメラ11の向きを制御したりする。   In addition, when the information image can be recognized in the camera image, the control unit 13 calculates a deviation M between the current position of the UAV 10 and the target position. Further, the control unit 13 performs a process of removing the distortion of the information image 40 in the camera image 50 (in other words, a process of making the information image 40 in the camera image 50 a rectangle). The control content shown is grasped, and the UAV 10 is controlled according to the control content. For example, the control unit 13 performs imaging for the state inspection of the surface of the building 30 according to the control content indicated by the information image 40. Further, the control unit 13 calculates the calculated deviation M (the deviation between the current position of the UAV 10 and the target position), the content of the movement control to the next target position indicated by the information image 40, and the movement from the current position to the next target position. The UAV 10 is moved by deriving the control contents for, and controlling the motors 17a to 17d via the motor driver 16 according to the control contents. Further, the control unit 13 controls the posture of the UAV 10 according to the control content indicated by the information image 40, and controls the orientation of the camera 11 via the camera angle control unit 15.

カメラ角度制御部15は、制御部13に従い、カメラ11の向きを制御する。具体的には、カメラ角度制御部15は、カメラ角度制御部15は、カメラ11の仰俯角および水平角を制御する。   The camera angle control unit 15 controls the orientation of the camera 11 according to the control unit 13. Specifically, the camera angle control unit 15 controls the elevation angle and horizontal angle of the camera 11.

モータドライバ16は、制御部13に従って、各モータ17a〜17dを駆動する。モータドライバ16は、各モータ17a〜17dを別々に駆動可能である。従って、制御部13は、UAV10を前後に移動させる制御、UAV10を左右に移動させる制御、UAV10を上下に移動させる制御、ピッチ角制御、ロール角制御およびヨー角制御を実現できる。   The motor driver 16 drives the motors 17 a to 17 d according to the control unit 13. The motor driver 16 can drive each motor 17a-17d separately. Therefore, the control unit 13 can realize control for moving the UAV 10 back and forth, control for moving the UAV 10 left and right, control for moving the UAV 10 up and down, pitch angle control, roll angle control, and yaw angle control.

通信部18は、投影ステーション20との通信に用いられる通信インタフェースである。   The communication unit 18 is a communication interface used for communication with the projection station 20.

制御部13およびカメラ角度制御部15は、例えば、プログラムに従って動作するコンピュータのCPUによって実現されていてもよい。この場合、CPUがそのプログラムを読み込み、そのプログラムに従って、制御部13およびカメラ角度制御部15として動作すればよい。また、制御部13およびカメラ角度制御部15がそれぞれ別々のハードウェアで実現されていてもよい。   The control unit 13 and the camera angle control unit 15 may be realized by a CPU of a computer that operates according to a program, for example. In this case, the CPU may read the program and operate as the control unit 13 and the camera angle control unit 15 according to the program. Further, the control unit 13 and the camera angle control unit 15 may be realized by separate hardware.

次に、投影ステーション20の構成例について説明する。図10は、投影ステーション20の構成例を示す模式的ブロック図である。投影ステーション20は、プロジェクタ21と、プロジェクタ制御部22と、データ記憶部23と、経路導出部24と、情報画像生成部25と、通信部27とを備える。   Next, a configuration example of the projection station 20 will be described. FIG. 10 is a schematic block diagram illustrating a configuration example of the projection station 20. The projection station 20 includes a projector 21, a projector control unit 22, a data storage unit 23, a route derivation unit 24, an information image generation unit 25, and a communication unit 27.

データ記憶部23は、建築物の外観および建築物の3次元形状の情報を記憶する記憶装置である。   The data storage unit 23 is a storage device that stores information on the appearance of the building and the three-dimensional shape of the building.

経路導出部24は、投影ステーション20と建築物との位置関係を認識する。このとき、経路導出部24は、投影ステーション20の現在位置を、例えば、外部から与えられてもよい。経路導出部24は、その位置関係と、建築物の外観および建築物の3次元形状の情報との情報に基づいて、建築物30の表面上における情報画像の投影箇所を複数定める。さらに、経路導出部24は、UAV10の経路を導出する。   The route deriving unit 24 recognizes the positional relationship between the projection station 20 and the building. At this time, the route deriving unit 24 may be provided with the current position of the projection station 20 from the outside, for example. The route deriving unit 24 determines a plurality of information image projection locations on the surface of the building 30 based on the positional relationship and information on the appearance of the building and the information on the three-dimensional shape of the building. Further, the route deriving unit 24 derives the route of the UAV 10.

経路導出部24は、例えば、データ記憶部23に記憶されている情報に基づいて、建築物の表面を格子状に区切ることによって、複数の検査区域を定め、個々の検査区域内の所定箇所(例えば、検査区域の中央)を情報画像の投影箇所として定めてもよい。ただし、情報画像の投影箇所の決定方法は、上記の例に限られず、他の方法で、投影箇所を決定してもよい。また、経路導出部24は、その各投影箇所に投影された情報画像を撮像できるようにUAV10の経路を定めればよい。このとき、経路導出部24は、UAV10の消費電力が最小となる経路を定めることが好ましい。ただし、経路導出部24は、消費電力以外の基準に基づいて経路を定めてもよい。   For example, the route deriving unit 24 determines a plurality of inspection areas by dividing the surface of the building into a lattice shape based on information stored in the data storage unit 23, and determines a predetermined location ( For example, the center of the examination area) may be determined as the projection location of the information image. However, the method for determining the projection location of the information image is not limited to the above example, and the projection location may be determined by another method. In addition, the route deriving unit 24 may determine the route of the UAV 10 so that the information image projected on each projection location can be captured. At this time, it is preferable that the route deriving unit 24 determines a route that minimizes the power consumption of the UAV 10. However, the route deriving unit 24 may determine the route based on criteria other than power consumption.

このとき、経路導出部24は、投影箇所に投影された情報画像をUAV10が撮影するための目標位置を、投影箇所に対応させて決定する。さらに、経路導出部24は、その目標位置でのUAV10の姿勢やカメラの向きを定める。この姿勢やカメラの向きは、情報画像を撮像する際の姿勢やカメラの向きである。ただし、風等の影響により、実際に移動するUAV10が、定められた目標位置で、定められた姿勢およびカメラの向きで情報画像を撮像することは困難である。そのため、UAV10は、目標位置の近傍で情報画像を撮像すればよい。また、そのときのUAV10の姿勢やカメラの向きも、目標位置とともに定められた姿勢やカメラの向きと一致していなくよい。   At this time, the route deriving unit 24 determines a target position for the UAV 10 to capture the information image projected on the projection location in association with the projection location. Furthermore, the route deriving unit 24 determines the posture of the UAV 10 and the direction of the camera at the target position. The posture and the camera direction are the posture and the camera direction when an information image is captured. However, it is difficult for the UAV 10 that actually moves due to the influence of wind or the like to capture an information image at a predetermined target position with a predetermined posture and camera orientation. Therefore, UAV10 should just image an information image in the vicinity of a target position. Further, the posture of the UAV 10 and the orientation of the camera at that time do not have to coincide with the orientation and the orientation of the camera determined together with the target position.

情報画像生成部25は、投影箇所毎に、情報画像を生成する。情報画像生成部25は、投影箇所(#iとする。)に対応する目標位置(#Pとする。)と、その次の投影箇所(#i+1とする。)に対応する目標位置(#Pi+1とする。)との位置関係に基づいて、投影箇所#iに投影する情報画像を生成すればよい。また、情報画像生成部25は、目標位置毎に輪郭情報を生成する。 The information image generation unit 25 generates an information image for each projection location. Information image generating unit 25 includes a target position corresponding to the projection portion (the #i.) (A #P i.), Target position corresponding to the next projection point (. To # i + 1) (# An information image to be projected onto the projection location #i may be generated based on the positional relationship with P i + 1 . In addition, the information image generation unit 25 generates contour information for each target position.

プロジェクタ21は、情報画像を建築物の表面に投影する。プロジェクタ21の向きは可変である。   The projector 21 projects an information image on the surface of a building. The direction of the projector 21 is variable.

プロジェクタ制御部22は、プロジェクタ21の向きを制御する。プロジェクタ制御部22がプロジェクタ21の向きを変えることで、定められた投影箇所に情報画像を投影することができる。   The projector control unit 22 controls the orientation of the projector 21. When the projector control unit 22 changes the orientation of the projector 21, the information image can be projected onto a predetermined projection location.

また、プロジェクタ制御部22は、プロジェクタ21を情報画像の投影箇所に向ける際に、そのプロジェクタ21の向き、建築物の外観および建築物の3次元形状の情報に基づいて、建築物の表面上で情報画像が歪まないように、情報画像を補正する。換言すれば、プロジェクタ制御部22は、建築物の表面上に長方形の情報画像が投影されるように、情報画像を補正する。プロジェクタ21は、プロジェクタ制御部22によって補正された情報画像を投影する。なお、以降の説明では、プロジェクタ制御部22による情報画像の補正動作についての説明を省略する場合がある。   In addition, when the projector control unit 22 points the projector 21 toward the projection location of the information image, the projector control unit 22 determines the position of the projector 21 on the surface of the building based on the orientation of the projector 21, the appearance of the building, and the three-dimensional shape of the building. The information image is corrected so that the information image is not distorted. In other words, the projector control unit 22 corrects the information image so that a rectangular information image is projected on the surface of the building. The projector 21 projects the information image corrected by the projector control unit 22. In the following description, the description of the information image correction operation by the projector control unit 22 may be omitted.

通信部27は、UAV10との通信に用いられる通信インタフェースである。   The communication unit 27 is a communication interface used for communication with the UAV 10.

経路導出部24、情報画像生成部25およびプロジェクタ制御部22は、例えば、プログラムに従って動作するコンピュータのCPUによって実現されていてもよい。この場合、CPUがそのプログラムを読み込み、そのプログラムに従って、経路導出部24、情報画像生成部25およびプロジェクタ制御部22として動作すればよい。また、経路導出部24、情報画像生成部25およびプロジェクタ制御部22がそれぞれ別々のハードウェアで実現されていてもよい。   The route deriving unit 24, the information image generating unit 25, and the projector control unit 22 may be realized by a CPU of a computer that operates according to a program, for example. In this case, the CPU may read the program and operate as the route deriving unit 24, the information image generating unit 25, and the projector control unit 22 according to the program. Further, the route deriving unit 24, the information image generating unit 25, and the projector control unit 22 may be realized by separate hardware.

また、制御部13(図6参照)が、UAV10ではなく、投影ステーション20または他の情報処理装置に設けられていてもよい。そして、制御部13の動作が、投影ステーション20または他の情報処理装置で行われ、UAV10の移動制御、姿勢制御、カメラ11の向きの制御等が外部(例えば、投影ステーション20)との通信によって実現されてもよい。   Further, the control unit 13 (see FIG. 6) may be provided in the projection station 20 or another information processing apparatus instead of the UAV 10. The operation of the control unit 13 is performed by the projection station 20 or another information processing apparatus, and the movement control of the UAV 10, the posture control, the control of the orientation of the camera 11 and the like are performed by communication with the outside (for example, the projection station 20). It may be realized.

次に、本発明の第1の実施形態の処理経過について説明する。図11は、本発明の第1の実施形態の処理経過の例を示すフローチャートである。なお、図11に示すフローチャートは例示であり、本発明の処理経過は、図11に示すフローチャートに限定されない。   Next, the process progress of the first embodiment of the present invention will be described. FIG. 11 is a flowchart illustrating an example of processing progress according to the first embodiment of this invention. The flowchart shown in FIG. 11 is an exemplification, and the processing progress of the present invention is not limited to the flowchart shown in FIG.

また、投影ステーション20の経路導出部24は、予め、建築物の表面上における情報画像の投影箇所を複数定め、UAV10の経路を導出し、UAV10が情報画像を撮像するための各目標位置、並びに、各目標位置でのUAV10の姿勢およびカメラの向きを定めているものとする。また、第1の実施形態では、説明を簡単にするために、検査途中での経路の変更はないものとして説明する。また、瞬間的に生じた大きな外乱によるUAV10への影響(例えば、瞬間的な突風によりUAV10が経路から大きく外れてしまうこと等)はないものとして説明する。ただし、通常の風等に起因する目標位置からのずれ(図2参照)は生じ得る。   Further, the route deriving unit 24 of the projection station 20 determines in advance a plurality of projection positions of the information image on the surface of the building, derives the route of the UAV 10, and each target position for the UAV 10 to capture the information image, and Assume that the posture of the UAV 10 and the orientation of the camera are determined at each target position. In the first embodiment, for the sake of simplicity of explanation, it is assumed that there is no change in the route during the inspection. In addition, it is assumed that there is no influence on the UAV 10 due to a large disturbance that occurs instantaneously (for example, the UAV 10 greatly deviates from the path due to an instantaneous gust of wind). However, a deviation (see FIG. 2) from the target position due to a normal wind or the like may occur.

投影ステーション20は、プロジェクタ21から、情報画像を、建築物の表面上におけるその画像の投影箇所に投影する(ステップT1)。1回目のステップT1では、投影ステーション20は、1番目の情報画像をその画像の投影箇所に投影する。   The projection station 20 projects the information image from the projector 21 onto the projected portion of the image on the surface of the building (step T1). In step T1 for the first time, the projection station 20 projects the first information image onto the projected portion of the image.

また、制御部13は、ステップT1で投影された目標画像を撮像するための目標位置に向けてUAV10を移動させる(ステップB1)。1番目の情報画像が投影されている場合には、検査作業者がUAV10を遠隔操作する。検査作業者は、1番目の情報画像がカメラ11の視野内に入るように、UAV10を移動させる。制御部13は、検査作業者による遠隔操作に従い、建築物の表面上に投影された情報画像がカメラ11の視野内に入るようにUAV10を移動させる。   Further, the control unit 13 moves the UAV 10 toward the target position for capturing the target image projected in step T1 (step B1). When the first information image is projected, the inspection operator remotely operates the UAV 10. The inspection worker moves the UAV 10 so that the first information image falls within the field of view of the camera 11. The control unit 13 moves the UAV 10 so that the information image projected on the surface of the building falls within the field of view of the camera 11 according to the remote operation by the inspection worker.

また、UAV10は、移動しながら、カメラ11によって建築物の表面を撮像し、カメラ画像を得る(ステップB2)。カメラ11は、生成したカメラ画像を制御部13に入力する。   Further, while moving, the UAV 10 captures the surface of the building with the camera 11 to obtain a camera image (step B2). The camera 11 inputs the generated camera image to the control unit 13.

制御部13は、カメラ画像が入力されると、カメラ画像の中の情報画像を検索する(ステップB3)。検索に成功したということは、カメラ画像内に情報画像を認識できたということである。また、検索に失敗したということは、カメラ画像内に情報画像を認識できなかったということである。カメラ画像内に情報画像を認識できた場合(ステップB3のYes)、制御部13は、UAV10の現在位置と目標位置とのずれを計算する(ステップB4)。情報画像がカメラ画像内にない場合や、情報画像が途切れている場合等、ステップB3でカメラ画像内に情報画像を認識できなかった場合、UAV10は移動を続ける。   When the camera image is input, the control unit 13 searches for an information image in the camera image (step B3). Successful search means that the information image can be recognized in the camera image. Further, the failure of the search means that the information image cannot be recognized in the camera image. When the information image can be recognized in the camera image (Yes in Step B3), the control unit 13 calculates the deviation between the current position of the UAV 10 and the target position (Step B4). When the information image is not recognized in the camera image in step B3, such as when the information image is not in the camera image or when the information image is interrupted, the UAV 10 continues to move.

図12は、情報画像を認識できないカメラ画像の例を示す模式図である。   FIG. 12 is a schematic diagram illustrating an example of a camera image in which an information image cannot be recognized.

図12(a)は、カメラ画像50内に情報画像が写っていない場合を示している。この場合、カメラ画像内に情報画像が存在しないので、制御部13は、カメラ画像内に情報画像を認識できない。   FIG. 12A shows a case where no information image is shown in the camera image 50. In this case, since there is no information image in the camera image, the control unit 13 cannot recognize the information image in the camera image.

図12(b)は、カメラ画像50内に情報画像40の一部のみが写っている場合を示している。この場合、情報画像40が途切れているので、制御部13は、カメラ画像内に情報画像を認識できない。   FIG. 12B shows a case where only a part of the information image 40 is shown in the camera image 50. In this case, since the information image 40 is interrupted, the control unit 13 cannot recognize the information image in the camera image.

図12(c)は、カメラ画像50内に情報画像40が写っているが、カメラ画像50内の情報画像40の面積が非常に小さい場合(閾値よりも小さい場合)である。この場合、情報画像40の面積が小さすぎるために、制御部13は、カメラ画像内に情報画像を認識できない。   FIG. 12C shows the case where the information image 40 is shown in the camera image 50, but the area of the information image 40 in the camera image 50 is very small (smaller than the threshold value). In this case, since the area of the information image 40 is too small, the control unit 13 cannot recognize the information image in the camera image.

カメラ画像内に情報画像を認識できなかった場合(ステップB3のNo)、UAV10は、ステップB1以降の動作を繰り返す。なお、1番目の投影箇所に対応する目標位置方向に移動している場合、制御部13は、直近に得られたカメラ画像に基づいてどの方向に移動すればよいのかを判定できない場合には、引き続き、検査作業者による遠隔操作に従ってUAV10を移動させる。例えば、直近に得られたカメラ画像に情報画像が全く写っていない場合、制御部13は、引き続き、検査作業者による遠隔操作に従ってUAV10を移動させる。また、制御部13は、直近に得られたカメラ画像に基づいてどの方向に移動すればよいのかを判定できる場合には、検査作業者による遠隔操作に依らず、自律的な動作を開始する。例えば、図12(b)に例示するように、直近に得られたカメラ画像50内に情報画像40の一部が写っている場合、制御部13は、情報画像40全体をカメラ11の視野内に入れるためには、どちらの方向にUAV10を移動させればよいのかを判定できる。この場合、制御部13は、情報画像40全体をカメラ11の視野内に入れるように、自律的にUAV10を移動させる。   When the information image cannot be recognized in the camera image (No in Step B3), the UAV 10 repeats the operations after Step B1. In addition, when moving to the target position direction corresponding to the first projection location, when the control unit 13 cannot determine which direction to move based on the most recently obtained camera image, Subsequently, the UAV 10 is moved according to a remote operation by the inspection worker. For example, when no information image is captured in the most recently obtained camera image, the control unit 13 continues to move the UAV 10 according to a remote operation by the inspection operator. In addition, when it is possible to determine in which direction the control unit 13 should move based on the most recently obtained camera image, the control unit 13 starts an autonomous operation regardless of the remote operation by the inspection worker. For example, as illustrated in FIG. 12B, when a part of the information image 40 is captured in the camera image 50 obtained most recently, the control unit 13 places the entire information image 40 within the field of view of the camera 11. In order to enter, it can be determined in which direction the UAV 10 should be moved. In this case, the control unit 13 autonomously moves the UAV 10 so that the entire information image 40 is within the field of view of the camera 11.

カメラ画像の中に情報画像を認識できなかった場合(ステップB3のNo)、カメラ画像の中に情報画像を認識できるまで、ステップB1〜B3を繰り返す。   When the information image cannot be recognized in the camera image (No in Step B3), Steps B1 to B3 are repeated until the information image can be recognized in the camera image.

カメラ画像の中に情報画像を認識できる場合は、図9に例示するように、カメラ画像50内に情報画像40が適度な大きさで写っていて(換言すれば閾値以上の面積で写っていて)、情報画像40の輪郭abcdを検出できる場合である。この場合、制御部13は、輪郭情報が示すカメラ画像50内の輪郭51(図9参照)と、カメラ画像50内の情報画像40の輪郭abcd(図9参照)とに基づいて、UAV10の現在位置と目標位置とのずれを計算する(ステップB4)。   When the information image can be recognized in the camera image, as illustrated in FIG. 9, the information image 40 is captured in an appropriate size in the camera image 50 (in other words, the information image 40 is captured in an area larger than the threshold value). ), When the outline abcd of the information image 40 can be detected. In this case, the control unit 13 determines the current UAV 10 based on the contour 51 (see FIG. 9) in the camera image 50 indicated by the contour information and the contour abcd (see FIG. 9) of the information image 40 in the camera image 50. The deviation between the position and the target position is calculated (step B4).

カメラ画像の中に情報画像を認識できたということは、UAV10が目標位置の近傍に存在していると言うことができる。なお、実際には、UAV10は、移動しながらステップB1〜B3の処理を繰り返している。そのため、カメラ画像の中に情報画像が全て入った瞬間に、ステップB3で情報画像が完全に認識されたとして、ステップB4に進んでしまう。換言すると、UAV10が目標位置から比較的離れた位置であってもカメラ画像の端の方に情報画像が入った瞬間に、制御部13は、ステップB4を実行してしまう。これを防ぐため、図11では省略しているが、「情報画像がカメラ画像のある一定の範囲に入るまでステップB4への移行を停止する」、あるいは、「カメラ画像のある一定の範囲に情報画像を入れるための移動方向を判定しステップB1以降を繰り返す」、あるいは、「一定時間(または一定フレーム数)、情報画像がカメラ画像内で認識されるまでステップB4への移行を停止する」等の処理があってもよい。あるいは、ステップB4においてずれMを計算できるため、このずれMに対応した移動量を計算しステップB1以降を繰り返すとなお良い。これに加えて、ずれMが規定の形状となるようカメラの向きを制御しつつステップB1を繰り返すとさらに良い。ずれMを基にしたUAV10の移動やカメラ11の制御により、より精確な位置にUAV10を移動させたり、より精確な姿勢にUAV10をさせたりすることができるからである。   If the information image can be recognized in the camera image, it can be said that the UAV 10 exists in the vicinity of the target position. Actually, the UAV 10 repeats the processing of steps B1 to B3 while moving. Therefore, at the moment when all the information images are included in the camera image, the information image is completely recognized in step B3, and the process proceeds to step B4. In other words, even when the UAV 10 is at a position relatively far from the target position, the control unit 13 executes Step B4 at the moment when the information image enters toward the end of the camera image. In order to prevent this, although omitted in FIG. 11, “stopping the transition to step B4 until the information image enters a certain range of the camera image” or “information in a certain range of the camera image” Determine the moving direction for entering the image and repeat step B1 and subsequent steps "or" Stop the transition to step B4 until the information image is recognized in the camera image for a certain period of time (or a certain number of frames) " There may be processing. Alternatively, since the deviation M can be calculated in step B4, it is better to calculate the amount of movement corresponding to this deviation M and repeat step B1 and subsequent steps. In addition to this, it is better to repeat step B1 while controlling the orientation of the camera so that the deviation M has a prescribed shape. This is because the UAV 10 can be moved to a more accurate position or the UAV 10 can be moved to a more accurate posture by the movement of the UAV 10 based on the deviation M and the control of the camera 11.

UAV10の現在位置と目標位置とのずれを計算した後、制御部13は、カメラ画像50内の情報画像40の歪みを取り除く(ステップB5)。既に説明したように、建築物の表面に投影されている情報画像40は長方形であり、カメラの視野49は長方形ではない(図7(b)参照)。一方、その視野49を撮像することによって得られるカメラ画像50は長方形である。従って、カメラ画像50内に写っている情報画像40は、長方形ではなく、歪んだ状態になっている(図8参照)。ステップB5において、制御部13は、この歪みを取り除く。   After calculating the deviation between the current position of the UAV 10 and the target position, the control unit 13 removes the distortion of the information image 40 in the camera image 50 (step B5). As already described, the information image 40 projected on the surface of the building is rectangular, and the field of view 49 of the camera is not rectangular (see FIG. 7B). On the other hand, the camera image 50 obtained by imaging the visual field 49 is rectangular. Therefore, the information image 40 shown in the camera image 50 is not rectangular but distorted (see FIG. 8). In step B5, the control unit 13 removes this distortion.

続いて、制御部13は、歪みが取り除いた後の情報画像40が示す命令(制御内容)を認識し、その命令を実行する(ステップB6)。   Subsequently, the control unit 13 recognizes a command (control content) indicated by the information image 40 after the distortion is removed, and executes the command (step B6).

本例では、制御部13が、図3に例示する情報画像40が示す命令(制御内容)を認識し、その命令を実行する場合を例にして説明する。   In this example, a case where the control unit 13 recognizes a command (control content) indicated by the information image 40 illustrated in FIG. 3 and executes the command will be described as an example.

具体的には、制御部13は、その場で所定時間滞空し、滞空中に建築物の表面の状態検査のための撮像をする旨を認識する。そして、制御部13は、その命令に従って、その場で所定時間滞空し、滞空中に建築物の表面をカメラ11によって撮像する。このとき、カメラ11の視野内に情報画像40が投影された状態のままであってもよい。   Specifically, the control unit 13 stays on the spot for a predetermined time, and recognizes that imaging is performed for checking the state of the surface of the building in the air. Then, the control unit 13 stays on the spot for a predetermined time in accordance with the command, and images the surface of the building with the camera 11 in the stay. At this time, the information image 40 may be projected in the field of view of the camera 11.

また、制御部13は、所定時間滞空後に下降する旨、下降する際にカメラ11の水平角を固定したままカメラ11を上向きにする旨、および、UAV10の姿勢を水平に制御する旨を認識する。このとき、制御部13は、ステップB4で計算したUAV10の現在位置と目標位置とのずれと、下降する旨の移動制御内容とに基づいて、次の目標位置までの移動のための制御内容を導出し、その制御内容に応じてモータドライバ16を介して各モータ17a〜17dを制御することで、UAV10を移動させる。すなわち、制御部13は、情報画像40が示す移動に関する制御内容を、ステップB4で計算したずれによって補正し、補正後の制御内容に基づいて、UAV10を移動させる。   In addition, the control unit 13 recognizes that the camera 11 is lowered after a predetermined time, that the camera 11 is turned upward while the horizontal angle of the camera 11 is fixed, and that the posture of the UAV 10 is controlled horizontally. . At this time, based on the deviation between the current position of the UAV 10 calculated in step B4 and the target position and the movement control content indicating that the control unit 13 moves down, the control unit 13 determines the control content for movement to the next target position. The UAV 10 is moved by controlling each of the motors 17a to 17d via the motor driver 16 according to the control contents. That is, the control unit 13 corrects the control content related to the movement indicated by the information image 40 by the deviation calculated in step B4, and moves the UAV 10 based on the corrected control content.

また、制御部13は、情報画像40が示す命令を認識した後、命令認識が完了した旨を、投影ステーション20に通知する(ステップB7)。   Further, after recognizing the command indicated by the information image 40, the control unit 13 notifies the projection station 20 that the command recognition has been completed (step B7).

制御部13は、上述の補正後の制御内容に基づいて、UAV10の移動を開始すると、ステップB1以降の動作を繰り返す。このステップB1では、1番目の投影箇所に対応する目標位置に向けて移動する場合と異なり、制御部13は、検査作業者による遠隔操作に依らず、自律的にUAV10を移動させる。   When the control unit 13 starts moving the UAV 10 based on the control content after the correction, the control unit 13 repeats the operations after Step B1. In this step B1, unlike the case of moving toward the target position corresponding to the first projection location, the control unit 13 autonomously moves the UAV 10 without depending on the remote operation by the inspection worker.

プロジェクタ制御部22は、命令認識が完了した旨の通知をUAV10から受信すると、プロジェクタ21にそれまで投影していた情報画像の投影を停止させる。また、情報画像生成部25は、命令認識が完了した旨の通知をUAV10から受信すると、次の情報画像の投影箇所(ここでは、2番目の情報画像の投影箇所)を特定し、その投影箇所に投影する2番目の情報画像を生成する(ステップT2)。本例では、情報画像生成部25は、2番目の目標位置の近傍で状態検査のための撮像を指示する命令や、2番目の目標位置から3番目の目標位置までUAV10を移動させるための命令等を含む情報画像を生成する。   When the projector control unit 22 receives notification from the UAV 10 that the command recognition is completed, the projector control unit 22 stops the projection of the information image that has been projected to the projector 21. In addition, when the information image generation unit 25 receives a notification that the instruction recognition is completed from the UAV 10, the information image generation unit 25 specifies the projection position of the next information image (here, the projection position of the second information image), and the projection position A second information image to be projected onto is generated (step T2). In this example, the information image generation unit 25 is a command for instructing imaging for state inspection near the second target position, or a command for moving the UAV 10 from the second target position to the third target position. An information image including such as is generated.

UAV10は、移動しながらカメラ11によって建築物の表面を撮像し(ステップB2)、制御部13は、ステップB3を実行する。2番目の情報画像が投影されるまでの間、2番目の情報画像はカメラ画像に写らないので、UAV10は、ステップB1〜B3を繰り返す。   The UAV 10 images the surface of the building with the camera 11 while moving (step B2), and the control unit 13 executes step B3. Until the second information image is projected, since the second information image is not captured in the camera image, the UAV 10 repeats steps B1 to B3.

プロジェクタ制御部22は、情報画像生成部25がステップT2で、次の投影箇所に投影する情報画像(ここでは、2番目の情報画像)を生成すると、その情報画像をその投影箇所に投影するようにプロジェクタ21を制御する。この結果、プロジェクタ21は、2番目の情報画像の投影箇所に、2番目の情報画像を投影する(ステップT1)。   When the information image generation unit 25 generates an information image to be projected onto the next projection location (here, the second information image) at step T2, the projector control unit 22 projects the information image onto the projection location. The projector 21 is controlled. As a result, the projector 21 projects the second information image on the projection location of the second information image (step T1).

新たに投影された情報画像がカメラ11の視野内に入る位置までUAV10が移動し、カメラ画像内に情報画像を認識できた場合(ステップB3のYes)、UAV10は、ステップB4以降の処理を繰り返せばよい。また、投影ステーション20は、ステップB7の通知を受けた場合、それまで投影していた情報画像の投影を停止し、ステップT2,T1を実行すればよい。   When the UAV 10 moves to a position where the newly projected information image falls within the field of view of the camera 11 and the information image can be recognized in the camera image (Yes in step B3), the UAV 10 can repeat the processing after step B4. That's fine. When the projection station 20 receives the notification in step B7, the projection station 20 may stop projecting the information image that has been projected so far and execute steps T2 and T1.

上記の処理を繰り返すことによって、UAV10は、定められた経路の近傍を移動しつつ、状態検査のために建築物の表面を撮像することができる。   By repeating the above processing, the UAV 10 can image the surface of the building for the state inspection while moving in the vicinity of the determined route.

また、投影ステーション20が、最後の情報画像を投影し、制御部13が、最後の情報画像に示されている命令を実行した場合、ステップB7の通知を行うことなく、無人飛行装置制御システムは処理を終了してよい。この場合、投影ステーション20が、最後の情報画像内に、最後の情報画像であることを示す所定の記号を含めておき、制御部13が最後の情報画像であることを認識できるようにしておけばよい。   In addition, when the projection station 20 projects the last information image and the control unit 13 executes the command shown in the last information image, the unmanned flight apparatus control system does not perform the notification in step B7. Processing may be terminated. In this case, the projection station 20 includes a predetermined symbol indicating that it is the last information image in the last information image so that the control unit 13 can recognize that it is the last information image. That's fine.

本実施形態によれば、制御部13は、カメラ画像内に情報画像を認識できるまで、ステップB1〜B3を繰り返し、カメラ画像内に情報画像を認識できた場合には、ずれMを計算し、カメラ画像内の情報画像のゆがみを取り除き、情報画像が示す命令を認識し、その命令に従って動作する。制御部13がこの動作を繰り返すことで、定められた経路の近傍を移動しつつ、状態検査のために建築物の表面を撮像することができる。従って、簡易な構成で、建築物の付近の目標位置近傍にUAV10を誘導することができる。   According to the present embodiment, the control unit 13 repeats steps B1 to B3 until the information image can be recognized in the camera image. If the information image can be recognized in the camera image, the control unit 13 calculates the deviation M, The distortion of the information image in the camera image is removed, the command indicated by the information image is recognized, and the operation is performed according to the command. By repeating this operation, the control unit 13 can image the surface of the building for the state inspection while moving in the vicinity of the determined route. Therefore, the UAV 10 can be guided near the target position near the building with a simple configuration.

また、本発明では、情報画像によってUAV10を誘導するので、UAV10はGPS信号を受信する必要がない。従って、本発明では、どの場所においてもGPS信号による位置情報を得るために、GPS衛星の代わりとなる設備を多数設ける必要がない。この点でも、本発明では、システムの構成を簡易にすることができる。   In the present invention, since the UAV 10 is guided by the information image, the UAV 10 does not need to receive a GPS signal. Therefore, in the present invention, it is not necessary to provide a large number of facilities in place of GPS satellites in order to obtain position information by GPS signals at any location. In this respect as well, the present invention can simplify the system configuration.

また、本発明では、情報画像によってUAV10を誘導する。UAV10は情報画像に近付いてずれを求めるため、情報画像とUAV10の位置および姿勢を精確に得ることが可能である。すなわち、測定装置であるUAV10は、測定対象である情報画像に近接しているため誤差要因が少なくなり、この結果、GPSや他の方法に比べて精緻な位置測定、および、測定結果に基づいた誘導が可能となる。   In the present invention, the UAV 10 is guided by the information image. Since the UAV 10 approaches the information image and obtains a shift, the information image and the position and posture of the UAV 10 can be accurately obtained. In other words, the UAV 10 that is a measuring device is close to the information image that is the measurement target, so that there are fewer error factors. As a result, the position measurement is based on precise position measurement and measurement results compared to GPS and other methods. Guidance is possible.

また、UAV10は、UAV10の現在位置と目標位置とのずれを、情報画像に基づいて導出する。このずれを差分として用いることで、UAV10は精確に目標位置に移動することもできる。   Further, the UAV 10 derives the deviation between the current position of the UAV 10 and the target position based on the information image. By using this shift as a difference, the UAV 10 can also accurately move to the target position.

また、UAV10は、UAV10の現在位置と目標位置とのずれと、情報画像が示す移動制御内容とに基づいて、次の目標位置までの移動制御内容を導出する。この結果、UAV10は、次の目標位置の近傍まで移動することができる。すなわち、良好な精度でUAV10の移動を制御することができる。また、上記のように、本発明では、UAV10はGPS信号を受信する必要がない。従って、GPS信号の受信が困難な場所であっても、精度良くUAV10を制御することができる。   Further, the UAV 10 derives the movement control content up to the next target position based on the shift between the current position of the UAV 10 and the target position and the movement control content indicated by the information image. As a result, the UAV 10 can move to the vicinity of the next target position. That is, the movement of the UAV 10 can be controlled with good accuracy. Further, as described above, in the present invention, the UAV 10 does not need to receive a GPS signal. Therefore, the UAV 10 can be accurately controlled even in a place where it is difficult to receive GPS signals.

また、投影ステーション20は情報画像を一定の大きさで建築物に投影しており、UAV10はこの情報画像を監視している。また、この情報画像とUAV10との位置関係はUAV10の内部で計算できるため、UAV10は、その位置関係を、ほぼリアルタイムで連続して取得できる。従って、例えば、突風等の外乱によりUAV10の位置が大きく変化したり姿勢が崩れたりしても、UAV10は建築物に接触する前に位置や姿勢を補正することができる。   The projection station 20 projects an information image on a building with a certain size, and the UAV 10 monitors this information image. Further, since the positional relationship between the information image and the UAV 10 can be calculated inside the UAV 10, the UAV 10 can acquire the positional relationship continuously in substantially real time. Therefore, for example, even if the position of the UAV 10 is greatly changed or the posture is broken due to a disturbance such as a gust, the UAV 10 can correct the position and the posture before contacting the building.

次に、第1の実施形態の変形例について説明する。   Next, a modification of the first embodiment will be described.

上記の実施形態では、ステップB5において、制御部13は、カメラ画像50内の情報画像40の歪みを取り除く場合を説明した。情報画像40の歪みを取り除かなくても、情報画像40が示す命令を制御部13が認識できるのであれば、ステップB5を省略してもよい。   In the above embodiment, the case where the control unit 13 removes the distortion of the information image 40 in the camera image 50 in step B5 has been described. If the control unit 13 can recognize the command indicated by the information image 40 without removing the distortion of the information image 40, step B5 may be omitted.

また、上記の実施形態では、ステップB6において、建築物の状態検査のために建築物の表面を撮像する際、カメラ11の視野内に情報画像40が投影された状態のまま、建築物の表面を撮像する場合を示した。建築物の状態検査のために建築物の表面を撮像する際、制御部13が、投影ステーション20に情報画像の投影の停止を指示してもよい。この場合、投影ステーション20の情報画像生成部25は、1つの投影箇所に対して、状態検査のための撮像を指示する情報画像と、次の目標位置への移動を指示する情報画像とを生成すればよい。情報画像生成部25は、状態検査のための撮像を指示する情報画像内に、その情報画像の投影中止を投影ステーション20に通知する旨の命令、その通知後に(換言すれば、投影ステーション20がその通知に応じて投影を中止した後に)状態検査のために建築物を撮像する旨の命令、およびその撮像完了後に撮像完了を投影ステーション20に通知する旨の命令を含める。投影ステーション20は、その情報画像を先に投影箇所に投影する。制御部13がそれらの命令を認識し、投影中止を投影ステーション20に通知した場合、投影ステーション20は、その情報画像の投影を中止する。UAV10は、その状態で、建築物の表面を撮像する。また、UAV10が、撮像完了を投影ステーション20に通知した場合には、次の目標位置への移動を指示する情報画像を同じ投影箇所に投影する。このとき、状態検査のための撮像を行っている間に、風等の影響によりUAV10が多少移動することがある。そのため、次の目標位置への移動を指示する情報画像が投影後も、UAV10は、ステップB2以降の動作を再度行うことが好ましい。UAV10の現在位置と目標位置とのずれを再度計算するためである。そして、ステップB6において、制御部13は、その情報画像が示す移動に関する制御内容をそのずれによって補正すればよい。   Moreover, in said embodiment, when imaging the surface of a building for the state test | inspection of a building in step B6, the surface of a building remains in the state where the information image 40 was projected in the visual field of the camera 11. The case of imaging was shown. When the surface of the building is imaged for the state inspection of the building, the control unit 13 may instruct the projection station 20 to stop projecting the information image. In this case, the information image generation unit 25 of the projection station 20 generates an information image instructing imaging for state inspection and an information image instructing movement to the next target position for one projection location. do it. The information image generation unit 25 includes a command for notifying the projection station 20 of the stop of projection of the information image in the information image instructing imaging for state inspection, and in other words after the notification (in other words, the projection station 20 A command to image the building for the state inspection (after stopping the projection in response to the notification) and a command to notify the projection station 20 of the completion of the imaging after the completion of the imaging are included. The projection station 20 projects the information image on the projection location first. When the control unit 13 recognizes those commands and notifies the projection station 20 of the projection stop, the projection station 20 stops the projection of the information image. In this state, the UAV 10 images the surface of the building. When the UAV 10 notifies the projection station 20 of the completion of imaging, the information image instructing movement to the next target position is projected onto the same projection location. At this time, the UAV 10 may move somewhat due to the influence of wind or the like while imaging for state inspection is performed. Therefore, it is preferable that the UAV 10 performs the operation after Step B2 again after the information image instructing the movement to the next target position is projected. This is because the deviation between the current position of the UAV 10 and the target position is calculated again. In step B <b> 6, the control unit 13 may correct the control content related to movement indicated by the information image based on the deviation.

情報画像が投影された状態で建築物の表面を撮像すると、カメラ画像において、情報画像以外の部分が相対的に暗くなってしまう場合がある。上記のように、UAV10が状態検査のための撮像を行う場合に、投影ステーション20が情報画像の投影を停止することで、そのようなことを防止できる。   If the surface of a building is imaged in a state where an information image is projected, a portion other than the information image may be relatively dark in the camera image. As described above, when the UAV 10 performs imaging for state inspection, such a situation can be prevented by the projection station 20 stopping the projection of the information image.

また、UAV10が状態検査のための撮像を行うときに投影ステーション20が情報画像の投影を停止する場合、プロジェクタ制御部22は、プロジェクタ21に情報画像の投影を停止させた後、プロジェクタ21に白色光または適当な色の光を照射させてもよい。このとき、プロジェクタ21は、プロジェクタ制御部22に従い、状態検査の対象となる建築物の表面に光を照射する。この結果、UAV10は、建築物の表面に光が照射された状態で、建築物の状態検査のために建築物の表面を撮像する。   Further, when the projection station 20 stops projecting the information image when the UAV 10 performs imaging for the state inspection, the projector control unit 22 causes the projector 21 to stop projecting the information image, and then causes the projector 21 to Light or light of an appropriate color may be irradiated. At this time, the projector 21 irradiates light on the surface of the building to be inspected according to the projector control unit 22. As a result, the UAV 10 images the surface of the building for the state inspection of the building in a state where the surface of the building is irradiated with light.

プロジェクタ21が建築物の表面に光を照射することによって、UAV10のカメラ11が建築物の表面を撮像する際における光量不足を補える。例えば、カメラ11が建築物の奥まった箇所を撮像する場合や、夜間に無人飛行装置制御システムを運用する場合、光量が不足して、建築物の表面が明瞭に写っているカメラ画像が得られない。UAV10のカメラ11が建築物の状態検査のために建築物の表面を撮像する時に、プロジェクタ21が建築物の表面に光を照射することによって、上記のように光量不足を補うことができ、カメラ11は、建築物の表面が明瞭に写っているカメラ画像を生成することができる。   When the projector 21 irradiates light on the surface of the building, the shortage of light when the camera 11 of the UAV 10 images the surface of the building can be compensated. For example, when the camera 11 takes an image of a place where a building is buried or when an unmanned flight control system is operated at night, a camera image can be obtained in which the surface of the building is clearly shown due to insufficient light quantity. Absent. When the camera 11 of the UAV 10 images the surface of the building for the state inspection of the building, the projector 21 can compensate for the shortage of the light amount as described above by irradiating the surface of the building with light. 11 can generate a camera image in which the surface of the building is clearly shown.

なお、投影ステーション20は、プロジェクタ21とは別に、光を照射するための投光器を備えていてもよい。   The projection station 20 may include a projector for irradiating light separately from the projector 21.

また、投光ステーション20から投影する情報画像の輪郭の形状は、常に同じでなくてもよい。輪郭情報は、情報画像を認識するステップB3の前に既知である必要がある。そのため、1つ前の情報画像に含めておいたり、投影ステーション20が通信によってUAV10に通達したり、あるいは、予め情報画像毎の輪郭情報をUAV10に記憶させておいたりすればよい。制御部13は、ずれMを計算する毎に、情報画像に対応する輪郭情報を適用すればよい。また、情報画像の輪郭の形状を変形させることにより、建築物の状態検査の際に情報画像が邪魔にならないようにすることができる。   Further, the contour shape of the information image projected from the light projecting station 20 may not always be the same. The contour information needs to be known before step B3 for recognizing the information image. Therefore, it may be included in the previous information image, the projection station 20 communicates to the UAV 10 by communication, or the contour information for each information image may be stored in the UAV 10 in advance. The control unit 13 may apply contour information corresponding to the information image every time the deviation M is calculated. Further, by deforming the shape of the contour of the information image, the information image can be prevented from getting in the way during the state inspection of the building.

以下に示す各実施形態では、既に説明した事項と同様の事項については、説明を省略する。   In each embodiment described below, the description of the same matters as those already described is omitted.

実施形態2.
本発明の第2の実施形態では、UAV10が大きな外乱を受けたことによって、UAV10の姿勢や位置等の飛行状態が変化し、制御部13がカメラ画像内に写っていた情報画像を見失った(情報画像を撮像不能となった)場合の動作について説明する。UAV10が外乱を受ける前にカメラ画像内に情報画像が写っていて、制御部13がその情報画像を認識していたとしても、外乱によってUAV10の姿勢や位置が変化したことによって、建築物に投影されている情報画像がカメラ11の視野外に出てしまうと、カメラ画像内に情報画像が写らなくなる。すなわち、制御部13がカメラ画像内の情報画像を見失うことになる。
Embodiment 2. FIG.
In the second embodiment of the present invention, when the UAV 10 receives a large disturbance, the flight state such as the posture and position of the UAV 10 changes, and the control unit 13 loses sight of the information image shown in the camera image ( The operation when the information image cannot be captured will be described. Even if the information image is captured in the camera image before the UAV 10 receives the disturbance, and the control unit 13 recognizes the information image, the UAV 10 is projected onto the building because the posture and position of the UAV 10 are changed due to the disturbance. If the information image that has been displayed goes out of the field of view of the camera 11, the information image will not appear in the camera image. That is, the control unit 13 loses sight of the information image in the camera image.

この場合、制御部13は、UAV10の姿勢を各方向に変化させ、カメラ11により撮像を行う。あるいは、制御部13は、カメラ角度制御部15を介して、カメラ11の向きや視野49の範囲を変化させ、カメラ11により撮像を行う。このとき、制御部13は、UAV10の姿勢を変化させるととともに、カメラ11の向きや視野49の範囲を変化させてもよい。この結果、制御部13は、情報画像が写っているカメラ画像を取得したならば、ステップB4(図11参照)以降の動作を行えばよい。なお視野49の範囲(撮像範囲)を広げると、情報画像40がカメラ画像50の内側に入る可能性が高くなるが、解像度が低下しカメラ画像50における情報画像40が小さくなる。したがって、視野49の範囲を広げて情報画像40を発見した後は、UAV10は情報画像40が視野49の中心付近に来るようカメラ11やUAV10の姿勢や位置を制御すると共に、視野49を元の範囲に戻す処理を行う。また視野49の範囲が変化した場合、ステップB4の計算パラメータもこれに合わせて変化させる。なお、視野49を元の範囲に戻す処理は、元の範囲に限らず、情報画像40を認識可能な解像度となるような撮像範囲に縮小する処理であってもよい。   In this case, the control unit 13 changes the posture of the UAV 10 in each direction and performs imaging with the camera 11. Alternatively, the control unit 13 changes the orientation of the camera 11 and the range of the visual field 49 via the camera angle control unit 15 and performs imaging with the camera 11. At this time, the control unit 13 may change the orientation of the UAV 10 and also change the orientation of the camera 11 and the range of the visual field 49. As a result, if the control unit 13 acquires a camera image in which the information image is captured, the control unit 13 may perform the operations after Step B4 (see FIG. 11). Note that when the range of the field of view 49 (imaging range) is increased, the possibility that the information image 40 enters the inside of the camera image 50 increases, but the resolution decreases and the information image 40 in the camera image 50 becomes smaller. Therefore, after discovering the information image 40 by expanding the range of the visual field 49, the UAV 10 controls the posture and position of the camera 11 and the UAV 10 so that the information image 40 is near the center of the visual field 49, and the visual field 49 is restored to the original. Perform processing to return to the range. When the range of the visual field 49 changes, the calculation parameter in step B4 is also changed accordingly. Note that the process of returning the visual field 49 to the original range is not limited to the original range, and may be a process of reducing the information image 40 to an imaging range that provides a recognizable resolution.

また、このとき、制御部13は、複数のフレームのカメラ画像に基づいて、UAV10の位置および姿勢が、制御部13がカメラ画像内の情報画像を認識していた時の位置および姿勢からどれだけ変化したかを検出してもよい。すなわち、情報画像を見失った時点の前後の複数のフレームの画像を撮影順に並べ、同一と思われる画素の変化量をベクトルとして求める。言い換えるとオプティカルフローを求める。画素の変化量ベクトルとUAV10の移動ベクトルはほぼ一致するため、この変化量ベクトルをUAV10の位置および姿勢の変化と見なして良い。なおUAV10の移動ベクトルは一定ではなく時間と共に変化するが、この変化はフレームレートに比べ緩やかであると考えられるため、情報画像を見失う前の変化量ベクトルだけでなく、見失った後の変化量ベクトルを用いても、結果にはあまり差が出ない。また移動量を含むベクトルではなく、向きだけを検出しこれを変化量としても良い。さらに、カメラに近い位置の物体の変化量ベクトルと、遠い位置の変化量ベクトルとの差から、UAV10の位置変化と姿勢変化とのそれぞれについて求めるとなお良い。カメラが動いている場合の、画面内のピクセルの動きが奥行きにより差が出ることを利用したカメラの位置と姿勢の変化量推定方法については、PTAM(Parallel Tracking and Mapping)など様々な方法が知られているため、省略する。   At this time, the control unit 13 determines the position and orientation of the UAV 10 based on the camera images of a plurality of frames from the position and orientation when the control unit 13 recognizes the information image in the camera image. You may detect whether it changed. In other words, images of a plurality of frames before and after the time when the information image is lost are arranged in the order of photographing, and the amount of change in pixels considered to be identical is obtained as a vector. In other words, the optical flow is obtained. Since the change vector of the pixel and the movement vector of the UAV 10 substantially coincide with each other, this change vector may be regarded as a change in the position and orientation of the UAV 10. Note that the movement vector of the UAV 10 is not constant and changes with time. However, since this change is considered to be gentle compared to the frame rate, not only the change vector before losing sight of the information image but also the change vector after losing sight. Even if is used, there is not much difference in the results. Also, instead of a vector including the amount of movement, only the direction may be detected and this may be used as the amount of change. Furthermore, it is better to obtain each of the position change and the attitude change of the UAV 10 from the difference between the change vector of the object near the camera and the change vector of the far position. Various methods, such as PTAM (Parallel Tracking and Mapping), are known for estimating the amount of change in the position and orientation of a camera using the fact that the movement of pixels in the screen varies depending on the depth when the camera is moving. It is omitted here.

あるいは、UAV10が慣性航法装置を備えていてもよい。そして、UAV10の位置および姿勢が、制御部13がカメラ画像内の情報画像を認識していた時の位置および姿勢からどれだけ変化したかを、慣性航法装置が検出してもよい。慣性航法装置とは、加速度計、ジャイロ、地磁気の方位検出計の1個または複数と演算部を組み合わせた装置である。慣性航法装置が移動すると、加速度、角速度、方位が検出され、これらを演算部で積分することで移動量や回転量を求める。すなわち、UAV10が外乱を受けると、慣性航法装置は変化量を慣性航法値で直接求めることができる。なおカメラ画層の場合と同様に、情報画像を見失った時点の前の測定結果より求めてもよいし、後から求めてもよい。   Alternatively, the UAV 10 may include an inertial navigation device. Then, the inertial navigation apparatus may detect how much the position and orientation of the UAV 10 have changed from the position and orientation when the control unit 13 recognizes the information image in the camera image. The inertial navigation device is a device in which one or a plurality of accelerometers, gyroscopes, and geomagnetic azimuth detectors are combined with a calculation unit. When the inertial navigation device moves, acceleration, angular velocity, and direction are detected, and these are integrated by a calculation unit to determine the amount of movement and the amount of rotation. That is, when the UAV 10 receives a disturbance, the inertial navigation device can directly determine the amount of change with the inertial navigation value. As in the case of the camera layer, it may be obtained from the measurement result before the time when the information image is lost or may be obtained later.

あるいは、UAV10の位置を検出する追尾撮像装置26を投影ステーション20に備えていてもよい。図22は、追尾撮像装置26を備える投影ステーション20を含む無人飛行装置制御システムおよび検査対象となる建築物を示す模式図である。追尾撮像装置26は、例えば、画像投影部101とほぼ同軸に設置されたカメラを含み、図22に例示するように、UAV10を撮像し、その位置を求める。そして、UAV10の位置および姿勢が、制御部13がカメラ画像内の情報画像を認識していた時の位置および姿勢からどれだけ変化したかを、追尾撮像装置26が検出する。図23は、追尾撮像装置26がUAV10の位置および姿勢の変化量を求める例を示す模式図である。追尾撮像装置26は、UAV10が情報画像40を認識していた時(図23の点線で示す)の追尾撮像装置26から見たUAV10と情報画像40との位置を求めることができる。また、UAVが外乱により移動すると、図23に例示するように、追尾撮像装置26のカメラ画像51内の相対位置も変化するため、追尾撮像装置26は、このUAV10の相対値の変化を求める。なお、追尾撮像装置26は、上述した画像投影部101とほぼ同軸に設置されたカメラを含む装置の他、ステレオカメラやTOF(Time of Flight)カメラなど3Dカメラを含む装置であっても良い。3Dカメラの場合、UAV10の3次元空間における座標を常に認識し、情報画像を見失った瞬間前後のUAV10の座標変化を求める。 Alternatively, the projection station 20 may include a tracking imaging device 26 that detects the position of the UAV 10. FIG. 22 is a schematic diagram showing an unmanned flying device control system including a projection station 20 including a tracking imaging device 26 and a building to be inspected. The tracking imaging device 26 includes, for example, a camera that is installed substantially coaxially with the image projection unit 101, images the UAV 10 as illustrated in FIG. 22, and obtains its position. Then, the tracking imaging device 26 detects how much the position and orientation of the UAV 10 have changed from the position and orientation when the control unit 13 recognized the information image in the camera image. FIG. 23 is a schematic diagram illustrating an example in which the tracking imaging device 26 obtains the change amount of the position and posture of the UAV 10. The tracking imaging device 26 can obtain the positions of the UAV 10 and the information image 40 viewed from the tracking imaging device 26 when the UAV 10 recognizes the information image 40 (indicated by a dotted line in FIG. 23). Further, when the UAV moves due to a disturbance, as shown in FIG. 23, the relative position in the camera image 51 of the tracking imaging device 26 also changes. Therefore, the tracking imaging device 26 obtains a change in the relative value of the UAV 10. The tracking imaging device 26 may be a device including a 3D camera, such as a stereo camera or a TOF (Time of Flight) camera, in addition to a device including a camera installed substantially coaxially with the image projecting unit 101 described above. In the case of a 3D camera, the coordinates of the UAV 10 in the three-dimensional space are always recognized, and the coordinate change of the UAV 10 before and after the moment when the information image is lost is obtained.

そして、制御部13は、UAV10の位置および姿勢それぞれの変化量に基づいて、カメラ11の視野を情報画像方向に向けるために、UAV10の位置や姿勢、カメラ11の向きや視野範囲をどのように変化させるかを判定してもよい。制御部13は、その判定結果に応じて、UAV10の位置や姿勢、カメラ11の向きや視野範囲を変化させればよい。この場合、制御部13は、迅速に、カメラ11の視野を情報画像方向に向けることができ、投影されている情報画像を早めに撮像することができる。なお、変化量に基づいて視野49の範囲を広げる場合は、先の例と同様に、UAV10は情報画像50が視野49の中心付近に来るよう移動すると共に、視野49を元の範囲に戻す処理を行う。   Then, the control unit 13 sets the position and orientation of the UAV 10 and the orientation and field of view of the camera 11 in order to direct the field of view of the camera 11 in the information image direction based on the amount of change in the position and orientation of the UAV 10. You may determine whether to change. The control unit 13 may change the position and orientation of the UAV 10, the orientation of the camera 11, and the visual field range according to the determination result. In this case, the control unit 13 can quickly point the field of view of the camera 11 in the direction of the information image, and can capture the projected information image early. When the range of the visual field 49 is expanded based on the amount of change, the UAV 10 moves so that the information image 50 is near the center of the visual field 49 and returns the visual field 49 to the original range, as in the previous example. I do.

また、制御部13は、制御部13がカメラ画像内の情報画像を認識していた時からのUAV10の位置および姿勢の変化量を投影ステーション20に通知してもよい。   Further, the control unit 13 may notify the projection station 20 of the change amount of the position and orientation of the UAV 10 since the control unit 13 recognized the information image in the camera image.

UAV10の位置および姿勢の変化量を通知されると、投影ステーション20の情報画像生成部25(図10参照)は、その変化量に基づいて、カメラ11の視野範囲を計算し、その視野範囲に投影する情報画像を新たに生成する。この新たな情報画像は、補正を含む情報画像である。例えば、図2を用いて説明すると、はじめにUAV10はP1の位置でA1の情報画像を認識しており、外乱によりP1’の位置に移動したとする。新たな情報画像A1’(図示しない)は、P1’の位置でも認識出来る位置に投影されるが、この新たな情報画像A1’は、外乱移動前の位置P1への移動制御内容が示されていても良いし、情報画像A1に準じていても良い。すなわち新たな情報画像A1’はP1’の位置から次の位置P2への移動制御内容であっても良い。いずれにせよ、プロジェクタ制御部22は、計算されたカメラの視野範囲の方向にプロジェクタ21を向け、プロジェクタ21にその情報画像を投影させる。そして、カメラ11が撮像を行い(ステップB2)、その後、UAV10は、ステップB3以降の動作を行えばよい。この結果、UAV10は、その情報画像に従って処理を続けることができる。   When notified of the change amount of the position and orientation of the UAV 10, the information image generation unit 25 (see FIG. 10) of the projection station 20 calculates the visual field range of the camera 11 based on the change amount, A new information image to be projected is generated. This new information image is an information image including correction. For example, referring to FIG. 2, it is assumed that the UAV 10 first recognizes the information image A1 at the position P1, and moves to the position P1 'due to disturbance. The new information image A1 ′ (not shown) is projected at a position that can be recognized even at the position P1 ′. This new information image A1 ′ shows the contents of movement control to the position P1 before the disturbance movement. Alternatively, the information image A1 may be used. That is, the new information image A1 'may be content of movement control from the position P1' to the next position P2. In any case, the projector control unit 22 directs the projector 21 in the direction of the calculated visual field range of the camera, and causes the projector 21 to project the information image. Then, the camera 11 captures an image (step B2), and then the UAV 10 may perform the operations after step B3. As a result, the UAV 10 can continue processing according to the information image.

また、特にUAV10が継続してランダムな外乱を受けていると考えられる場合は、投影ステーション20の情報処理生成部25は、その変化量に基づいて、UAV10の移動予測範囲と視野49が存在する範囲を広めに想定し、視野49が存在する可能性のある範囲全体に対し情報画像40を生成しても良い。つまり、乱気流によりUAV10の位置が連続して不安定な場合、視野49の位置は刻々と変化するため、通常サイズの情報画像40を1カ所に投影しても、制御部13は情報画像40を継続的に捕らえられない場合がある。これを回避するため、通常サイズより大きな位置補正用の情報画像40を投影し、この情報画像の一部をカメラ11が撮像した結果を基にUAV10が情報画像の中央に向かうよう制御部13が制御するか、もしくは複数の情報画像40を同時に投影し、UAV10がランダムに動いても少なくともどれか1つの情報画像40が撮像できるようにするとよい。なお、新たな情報画像40の位置と範囲は同時に変化させても良い。   In particular, when it is considered that the UAV 10 is continuously subjected to random disturbance, the information processing generation unit 25 of the projection station 20 has the movement prediction range and the field of view 49 of the UAV 10 based on the change amount. Assuming that the range is wide, the information image 40 may be generated for the entire range where the visual field 49 may exist. That is, when the position of the UAV 10 is continuously unstable due to turbulence, the position of the visual field 49 changes every moment. Therefore, even if the information image 40 of the normal size is projected at one place, the control unit 13 displays the information image 40. It may not be captured continuously. In order to avoid this, the control unit 13 projects the position correction information image 40 larger than the normal size, and the UAV 10 is directed toward the center of the information image based on the result of the camera 11 capturing a part of the information image. It is preferable to control or project a plurality of information images 40 at the same time so that at least one information image 40 can be captured even when the UAV 10 moves randomly. Note that the position and range of the new information image 40 may be changed simultaneously.

第2の実施形態によれば、UAV10は、外乱によって、カメラ11の視野が情報画像とは異なる方向に向いてしまったとしても、UAV10は、再度、その情報画像を捉え、通常の制御に復帰することができる。すなわち、第2の実施形態によれば、無人飛行装置が撮像した画像に基づき無人飛行装置を制御して対象物の付近の目標位置近傍に無人飛行装置を誘導する場合において、無人飛行装置が撮像していた画像を見失った場合であっても、無人飛行装置を制御することができる。   According to the second embodiment, even if the UAV 10 causes the visual field of the camera 11 to face in a direction different from the information image due to disturbance, the UAV 10 captures the information image again and returns to normal control. can do. That is, according to the second embodiment, in the case where the unmanned flight apparatus is controlled based on the image captured by the unmanned flight apparatus and the unmanned flight apparatus is guided near the target position near the object, the unmanned flight apparatus captures the image. Even if the user loses sight of the image, the unmanned flying device can be controlled.

実施形態3.
本発明の第3の実施形態では、無人飛行装置制御システムは、情報画像とUAV10の影とが重なってカメラ画像に写る状態を回避する。
Embodiment 3. FIG.
In the third embodiment of the present invention, the unmanned aerial vehicle control system avoids a situation in which the information image and the shadow of the UAV 10 overlap and appear in the camera image.

投影ステーション20の経路導出部24は、情報画像の投影箇所として、UAV10の影と重ならない投影箇所を定める。   The route deriving unit 24 of the projection station 20 determines a projection location that does not overlap with the shadow of the UAV 10 as the projection location of the information image.

例えば、経路導出部24が、データ記憶部23に記憶されている情報に基づいて、建築物の表面を格子状に区切ることによって、複数の検査区域を定め、個々の検査区域内の所定箇所(例えば、検査区域の中央)を情報画像の投影箇所として定めるとする。また、経路導出部24は、投影箇所毎に、UAV10の目標位置、並びに、その目標位置でのUAV10の姿勢およびカメラの向きも定める。そして、経路導出部24は、投影箇所毎に、投影箇所とUAV10の影とが重なるか否かを判定する。この判定は、投影ステーション20と目標位置と投影箇所との位置関係に基づいて行うことができる。経路導出部24は、UAV10の影と重なる投影箇所に関して、検査区域内で、UAV10の影と重ならない位置に変更し、その変更に合わせて、投影箇所に対応するUAV10の姿勢およびカメラの向きも変更する。このとき、経路導出部24がUAV10の目標位置も変更することがあってもよい。検査区域内で、投影箇所の位置を変更しても、UAV10の影と重なってしまう場合には、その検査区域に関しては、投影箇所を定めないと決定する。そして、経路導出部24は、UAV10の影と重ならない投影箇所を対象として、その各投影箇所に投影された情報画像を撮像するための経路を決定する。   For example, the route deriving unit 24 defines a plurality of inspection areas by dividing the surface of the building into a lattice shape based on the information stored in the data storage unit 23, and determines a predetermined location ( For example, suppose that the center of the examination area is defined as the projection location of the information image. The path deriving unit 24 also determines the target position of the UAV 10, the posture of the UAV 10 at the target position, and the direction of the camera for each projection location. Then, the route deriving unit 24 determines, for each projection location, whether the projection location and the shadow of the UAV 10 overlap each other. This determination can be made based on the positional relationship among the projection station 20, the target position, and the projection location. The route deriving unit 24 changes the projection location that overlaps the shadow of the UAV 10 to a position that does not overlap with the shadow of the UAV 10 within the examination area, and in accordance with the change, the posture of the UAV 10 corresponding to the projection location and the orientation of the camera are also changed. change. At this time, the route deriving unit 24 may also change the target position of the UAV 10. Even if the position of the projection location is changed within the examination area, if it overlaps with the shadow of the UAV 10, it is determined that no projection location is determined for the examination area. Then, the route deriving unit 24 determines a route for capturing an information image projected on each projection location, targeting a projection location that does not overlap with the shadow of the UAV 10.

このように情報画像の投影箇所を定めることによって、投影箇所に投影される情報画像とUAV10の影とが重なった状態でカメラ画像に写ってしまうことを防止しやすくなる。   By determining the projection location of the information image in this way, it is easy to prevent the information image projected on the projection location and the shadow of the UAV 10 from appearing in the camera image.

また、上記のように、経路導出部24がUAV10の影と重ならない投影箇所を定めた場合であっても、UAV10が風等の影響を受けるので、投影箇所に対応する目標位置で情報画像を撮像することは一般的に少ない。その結果、上記のように投影箇所を定めた場合であっても、投影箇所に投影される情報画像とUAV10の影とが重なる場合が生じ得る。   In addition, as described above, even when the route deriving unit 24 determines a projection location that does not overlap with the shadow of the UAV 10, the UAV 10 is affected by wind or the like, so that the information image is displayed at the target position corresponding to the projection location. It is generally rare to take an image. As a result, even when the projection location is determined as described above, the information image projected on the projection location may overlap with the shadow of the UAV 10.

この場合、制御部13は、UAV10を移動させればよい。図13は、情報画像とUAV10の影とが重なって写ったカメラ画像の例を示す模式図である。制御部13は、情報画像40の輪郭の一部が黒色の画素群の存在によって途切れていると判定した場合、図13に例示するように、情報画像40の外周部の一部分と影55とが重なっていると判定する。制御部13は、このように判定した場合、例えば、任意の方向に移動し、ステップB1(図11参照)以降の動作を実行すればよい。また、このとき、制御部13は、情報画像40の輪郭のうち影55によって途切れている箇所に基づいて、UAV10を移動させる方向を判定し、その方向にUAV10を移動させてもよい。図14は、UAV10が移動することによって、情報画像40とUAV10の影55とが重ならない状態になったカメラ画像の例を示す模式図である。図14に例示するカメラ画像では、情報画像40の輪郭全体の位置を検出可能である。制御部13は、UAV10を移動させた後、図14に例示するカメラ画像を用いて、現在位置を目標位置とのずれを計算できる。その後、制御部13は、ステップB5(図11参照)以降の動作を実行すればよい。   In this case, the control unit 13 may move the UAV 10. FIG. 13 is a schematic diagram illustrating an example of a camera image in which an information image and a shadow of the UAV 10 are overlapped. When the control unit 13 determines that a part of the outline of the information image 40 is interrupted due to the presence of the black pixel group, a part of the outer peripheral part of the information image 40 and the shadow 55 are generated as illustrated in FIG. Judged as overlapping. When determining in this way, the control unit 13 may move in an arbitrary direction and execute the operations after Step B1 (see FIG. 11), for example. At this time, the control unit 13 may determine the direction in which the UAV 10 is moved based on the portion of the contour of the information image 40 that is interrupted by the shadow 55, and may move the UAV 10 in that direction. FIG. 14 is a schematic diagram illustrating an example of a camera image in which the information image 40 and the shadow 55 of the UAV 10 do not overlap with each other as the UAV 10 moves. In the camera image illustrated in FIG. 14, the position of the entire contour of the information image 40 can be detected. After moving the UAV 10, the control unit 13 can calculate the deviation of the current position from the target position using the camera image illustrated in FIG. 14. Then, the control part 13 should just perform operation | movement after step B5 (refer FIG. 11).

このように、情報画像40とUAV10の影との重なりを検出した場合、制御部13は、UAV10を移動させることによって、情報画像40とUAV10の影との重なりを回避することができる。この動作は、UAV10の影と投影箇所とが重ならないように経路導出部24が統計箇所を決定していない場合であっても適用可能である。   As described above, when the overlapping of the information image 40 and the shadow of the UAV 10 is detected, the control unit 13 can avoid the overlapping of the information image 40 and the shadow of the UAV 10 by moving the UAV 10. This operation is applicable even when the route deriving unit 24 has not determined a statistical location so that the shadow of the UAV 10 and the projected location do not overlap.

上記の説明では、UAV10が移動することによって情報画像40とUAV10の影との重なりを回避する動作を説明した。制御部13は、投影ステーション20に情報画像の投影位置を変更させることによって、情報画像40とUAV10の影との重なりを回避してもよい。例えば、制御部13が、上記の場合と同様に、情報画像40の外周部の一部分と影55とが重なっていると判定したとする。この場合、制御部13は、情報画像40の輪郭のうち影55によって途切れている箇所に基づいて、情報画像40と影55との重なりを回避すれるために投影ステーション20が情報画像の投影箇所をどの方向にどれだけ移動させればよいかを判定し、投影箇所の移動方向および移動量を投影ステーション20に通知する。この通知は、投影箇所の変更の指示であると言うことができる。この通知を受けた投影ステーション20の情報画像生成部25は、通知された移動方向および移動量に応じて、情報画像40の内容を変更する。これは、情報画像の投影箇所が変わることによって、次の投影箇所への移動制御内容が変化するためである。また、経路導出部24は、通知された移動方向および移動量に応じて投影箇所を移動させた場合における目標位置、並びに、その目標位置における姿勢およびカメラの方向も定める。プロジェクタ制御部22は、通知された移動方向および移動量に応じて投影箇所の方向にプロジェクタ21を向け、プロジェクタ21にその情報画像40を投影させる。この結果、UAV10は、例えば、図14に例示するカメラ画像を得る。その後、制御部13は、ステップB4(図11参照)以降の動作を実行すればよい。   In the above description, the operation for avoiding the overlapping of the information image 40 and the shadow of the UAV 10 due to the movement of the UAV 10 has been described. The control unit 13 may avoid the overlapping of the information image 40 and the shadow of the UAV 10 by causing the projection station 20 to change the projection position of the information image. For example, it is assumed that the control unit 13 determines that a part of the outer peripheral portion of the information image 40 and the shadow 55 overlap each other as in the above case. In this case, the control unit 13 uses the projection station 20 to project the information image in order to avoid the overlap between the information image 40 and the shadow 55 based on the portion of the contour of the information image 40 that is interrupted by the shadow 55. It is determined how much to move in which direction, and the projection station 20 is notified of the movement direction and amount of projection. This notification can be said to be an instruction to change the projection location. Upon receiving this notification, the information image generating unit 25 of the projection station 20 changes the content of the information image 40 in accordance with the notified movement direction and movement amount. This is because the content of movement control to the next projection location changes as the projection location of the information image changes. The route deriving unit 24 also determines a target position when the projection location is moved according to the notified movement direction and movement amount, and the posture and camera direction at the target position. The projector control unit 22 directs the projector 21 in the direction of the projection location according to the notified movement direction and movement amount, and causes the projector 21 to project the information image 40. As a result, the UAV 10 obtains, for example, a camera image illustrated in FIG. Then, the control part 13 should just perform operation | movement after step B4 (refer FIG. 11).

このように、UAV10が投影ステーション20に情報画像40の投影箇所を変更させることでも、情報画像40とUAV10の影との重なりを回避することができる。この動作は、UAV10の影と投影箇所とが重ならないように経路導出部24が統計箇所を決定していない場合であっても適用可能である。   In this way, even when the UAV 10 causes the projection station 20 to change the projection location of the information image 40, it is possible to avoid the overlap between the information image 40 and the shadow of the UAV 10. This operation is applicable even when the route deriving unit 24 has not determined a statistical location so that the shadow of the UAV 10 and the projected location do not overlap.

実施形態4.
本発明の第4の実施形態では、UAV10は、天候等の影響によって消費電力が大きく、全ての検査区域で状態検査のための撮像を行えない場合に、経路の途中で経路を変更する。
Embodiment 4 FIG.
In the fourth embodiment of the present invention, the UAV 10 changes the route in the middle of the route when the power consumption is large due to the influence of the weather or the like and imaging for the state inspection cannot be performed in all the inspection areas.

第1の実施形態で説明したように、経路導出部24は、例えば、各投影箇所に投影された情報画像を撮像できるようにUAV10の経路を定める。すなわち、各投影箇所の付近を通過するようにUAV10の経路を定める。   As described in the first embodiment, the route deriving unit 24 determines the route of the UAV 10 so that, for example, an information image projected on each projection location can be captured. That is, the route of the UAV 10 is determined so as to pass near each projection location.

このとき、経路導出部24は、UAV10の消費電力が最小となる経路を定めることが好ましい。ここで、UAV10が電力を多く消費するのは、飛行の速度ベクトルが変わる場合である。従って、経路導出部24は、例えば、UAV10の速度ベクトル変更が最小となる経路を定めればよい。   At this time, it is preferable that the route deriving unit 24 determines a route that minimizes the power consumption of the UAV 10. Here, the UAV 10 consumes a lot of power when the flight speed vector changes. Therefore, the route deriving unit 24 may determine, for example, a route that minimizes the change in the velocity vector of the UAV 10.

経路導出部24が、図15に例示する経路を定めたとする。図15では、建築物の表面上の各検査区域およびUAV10の経路61を図示している。また、検査区域Raは、最初の検査区域であり、検査区域Rzは、最後の検査区域である。   It is assumed that the route deriving unit 24 determines the route illustrated in FIG. In FIG. 15, each inspection area on the surface of a building and the path 61 of the UAV 10 are illustrated. The inspection area Ra is the first inspection area, and the inspection area Rz is the last inspection area.

経路導出部24は、経路61上に、UAV10が近道となる経路に切り替え可能な位置(以下、切り替え可能位置と記す。)を定める。切り替え可能位置は、1つであっても、複数であってもよい。図15に示す切り替え可能位置71を例にして説明する。   The route deriving unit 24 determines a position on the route 61 where the UAV 10 can be switched to a shortcut route (hereinafter referred to as a switchable position). There may be one or more switchable positions. A description will be given by taking the switchable position 71 shown in FIG. 15 as an example.

経路導出部24は、経路61を定めた後、切り替え可能位置71から終点79までの近道となる経路の候補を複数定める。経路導出部24は、既に通過した検査区域を通過しないように、経路の候補を定める。また、経路の候補は、切り替え可能位置71から終点79までの近道であるので、未通過の検査区域を全て通過する必要はない。また、切り替え可能位置71に関して定められる複数の経路の候補が通過する検査区域の数は、経路の候補毎に異なっていてよい。換言すれば、切り替え可能位置71から終点79まで経路の候補の長さは、それぞれ異なっていてよい。なお、本例では説明を簡単にするため、経路の各候補において、切り替え可能位置71から次の検査区域までの一区間分の移動経路は、予め定められた経路と変わらないものとする。   After determining the route 61, the route deriving unit 24 determines a plurality of route candidates that are shortcuts from the switchable position 71 to the end point 79. The route deriving unit 24 determines route candidates so as not to pass through the inspection area that has already passed. Further, since the route candidate is a shortcut from the switchable position 71 to the end point 79, it is not necessary to pass through all the inspection areas that have not passed. Further, the number of examination areas through which a plurality of route candidates determined with respect to the switchable position 71 passes may be different for each route candidate. In other words, the lengths of the route candidates from the switchable position 71 to the end point 79 may be different from each other. In this example, in order to simplify the description, it is assumed that the movement route for one section from the switchable position 71 to the next examination area is not different from a predetermined route in each route candidate.

経路導出部24は、切り替え可能位置71以外の各切り替え可能位置に対しても、切り替え可能位置毎に、終点79までの近道となる経路の候補を複数定める。   The route deriving unit 24 also determines a plurality of route candidates that are shortcuts to the end point 79 for each switchable position other than the switchable position 71.

以下、説明を簡単にするため、検査区域に対応するUAV10の目標位置が、切り替え可能位置として定められるものとする。   Hereinafter, in order to simplify the description, it is assumed that the target position of the UAV 10 corresponding to the examination area is determined as a switchable position.

UAV10の制御部13は、命令認識が完了した旨を投影ステーション20に通知する際(ステップB7)、飛行開始後の消費エネルギ、その時点における電池残量、および天候(ここでは、横風の風速を例にする。)を計測し、それらの値も、投影ステーション20に通知する。なお、これらの値を計測するためのセンサをUAV10に搭載しておけばよい。ただし、制御部13は、例えば、飛行可能距離が十分確保できる条件(例えば、電池残量が閾値以上残っているという条件)が満たされている場合には、消費エネルギ、電池残量および天候(横風の風速)を投影ステーション20に通知しなくてもよい。   When the control unit 13 of the UAV 10 notifies the projection station 20 that the command recognition has been completed (step B7), the energy consumption after the start of the flight, the remaining battery level at that time, and the weather (here, the wind speed of the cross wind) In this example, the projection station 20 is also notified. In addition, what is necessary is just to mount the sensor for measuring these values in UAV10. However, the control unit 13, for example, if a condition that can ensure a sufficient flight distance (for example, a condition that the remaining battery level is equal to or greater than a threshold) is satisfied, the energy consumption, the remaining battery level, and the weather ( It is not necessary to notify the projection station 20 of the wind speed of the cross wind.

また、経路導出部24は、予め、消費エネルギ、電池残量および天候(横風の風速)を説明変数とし、UAV10の飛行可能距離を被説明変数とする飛行可能距離の予測式を保持している。この予測式は、例えば、回帰分析等の機械学習によって予め定めておけばよい。経路導出部24は、UAV10から消費エネルギ、電池残量および天候を通知されると、それらの値を、予測式の説明変数に代入することによって、UAV10の飛行可能距離を算出する。   In addition, the route deriving unit 24 holds in advance a prediction formula for a flightable distance using energy consumption, remaining battery capacity and weather (wind speed of cross wind) as explanatory variables, and the flightable distance of the UAV 10 as an explanatory variable. . This prediction formula may be determined in advance by machine learning such as regression analysis. When the route derivation unit 24 is notified of the energy consumption, the remaining battery level, and the weather from the UAV 10, the route deriving unit 24 calculates the flight distance of the UAV 10 by substituting those values into the explanatory variables of the prediction formula.

さらに、経路導出部24は、UAV10が存在している切り替え可能位置に対して予め定めていた経路の候補毎に、経路の候補の長さから、予測式によって算出した飛行可能距離を減算する。経路導出部24は、この減算結果が最も小さい経路の候補を、最適な近道と判定し、以降、その経路の候補をUAV10の経路とする。   Further, the route deriving unit 24 subtracts the flightable distance calculated by the prediction formula from the length of the route candidate for each route candidate predetermined for the switchable position where the UAV 10 exists. The route deriving unit 24 determines the route candidate having the smallest subtraction result as the optimum shortcut, and thereafter designates the route candidate as the route of the UAV 10.

UAV10の消費電力は、風等の天候に影響を受ける。例えば、強風が吹いている場合は、その強風に対向する推力が必要なるため、無風時よりも消費電力が大きくなる。この結果、最初に定められた経路61に沿ってUAV10が移動し続けようとした場合、経路の途中で電池残量が0になってしまう場合が起こり得る。本実施形態によれば、切り替え可能位置で終点79までの近道となる経路に切り替えることができるので、通過する検査区画の数を少なくすることと引き換えに、終点79までUAV10の飛行を維持することができる。   The power consumption of the UAV 10 is affected by weather such as wind. For example, when a strong wind is blowing, a thrust force against the strong wind is required, so that power consumption is greater than when there is no wind. As a result, when the UAV 10 continues to move along the route 61 that is initially determined, the remaining battery level may become zero in the middle of the route. According to the present embodiment, since it is possible to switch to a route that is a shortcut to the end point 79 at the switchable position, it is possible to maintain the flight of the UAV 10 to the end point 79 in exchange for reducing the number of inspection sections that pass through. Can do.

なお、上記の例では、飛行可能距離の予測式に用いられる説明変数として、消費エネルギ、電池残量および天候を例示したが、他の説明変数を用いてもよい。   In the above example, the energy consumption, the remaining battery level and the weather are exemplified as the explanatory variables used in the prediction formula of the flightable distance, but other explanatory variables may be used.

実施形態5.
本発明の第5の実施形態では、UAV10が大きな外乱を受けたことによって、UAV10の位置が変化した場合、投影ステーション20は、その変化後の位置から経路の終点までの経路を、再度、導出する。
Embodiment 5. FIG.
In the fifth embodiment of the present invention, when the position of the UAV 10 changes due to a large disturbance to the UAV 10, the projection station 20 derives the route from the changed position to the end point of the route again. To do.

外乱によってUAV10が移動し、UAV10の制御部13がカメラ画像内の情報画像を見失った場合、制御部13は、第2の実施形態で例示した場合と同様に、カメラ画像内の情報画像を認識していた時からのUAV10の位置および姿勢の変化量を投影ステーション20に通知する。   When the UAV 10 moves due to disturbance and the control unit 13 of the UAV 10 loses sight of the information image in the camera image, the control unit 13 recognizes the information image in the camera image as in the case of the second embodiment. The change amount of the position and posture of the UAV 10 from the time when it has been informed is notified to the projection station 20.

投影ステーション20の経路導出部24は、この通知を受けると、この通知に基づいて、現在のUAV10の位置を計算する。そして、経路導出部24は、その位置からの経路を再度、導出する。ただし、経路導出部24は、既にUAV10が通過した検査区域を通過しないように、新たに経路を導出すればよい。また、新たな経路は、未通過の検査区域を全て通過しなくてもよい。また、このとき、経路導出部24は、例えば、消費電力が最小となる経路を選択することが好ましい。例えば、前述のように、経路導出部24は、UAV10の速度ベクトルの変化が最小となる経路を定めてもよい。   Upon receiving this notification, the route deriving unit 24 of the projection station 20 calculates the current position of the UAV 10 based on this notification. Then, the route deriving unit 24 derives the route from the position again. However, the route deriving unit 24 may derive a new route so as not to pass through the examination area that the UAV 10 has already passed. Further, the new route may not pass through all the inspection areas that have not passed. At this time, the route deriving unit 24 preferably selects, for example, a route that minimizes power consumption. For example, as described above, the route deriving unit 24 may determine a route that minimizes the change in the velocity vector of the UAV 10.

本実施形態によれば、突風等の外乱によってUAV10が移動したとしても、その位置からの経路を経路導出部24が再度定める。従って、UAV10の消費電力の増加を抑えることができ、UAV10の運用効率を上げることができる。   According to this embodiment, even if the UAV 10 moves due to a disturbance such as a gust, the route deriving unit 24 again determines a route from that position. Therefore, an increase in power consumption of the UAV 10 can be suppressed, and the operational efficiency of the UAV 10 can be increased.

実施形態6.
本発明の第6の実施形態では、プロジェクタ制御部22は、生成された情報画像を、投影時に歪まないように補正するだけでなく、情報画像の色味や輝度の補正も行う。
Embodiment 6. FIG.
In the sixth embodiment of the present invention, the projector control unit 22 not only corrects the generated information image so as not to be distorted during projection, but also corrects the color and brightness of the information image.

第6の実施形態では、プロジェクタ21は、予め定められた基準となる画像(本実施形態では、白色の枠形状の画像とする。)も、建築物の表面に投影する。プロジェクタ制御部22は、カメラ画像内に写っている枠形状部分の色に応じて、情報画像の色を補正する。なお、プロジェクタ21は、常に白色の枠形状の画像を投影してもよい。あるいは、プロジェクタ21は、情報画像の投影箇所が変化したときに、先に白色の枠形状の画像を投影し、その後、カメラ画像内に写っている枠形状部分の色に応じて補正された情報画像を投影してもよい。   In the sixth embodiment, the projector 21 also projects an image serving as a predetermined reference (in this embodiment, a white frame-shaped image) on the surface of the building. The projector control unit 22 corrects the color of the information image in accordance with the color of the frame shape portion that appears in the camera image. The projector 21 may always project a white frame-shaped image. Alternatively, the projector 21 projects the white frame-shaped image first when the projection position of the information image changes, and then corrects the information according to the color of the frame-shaped portion that is reflected in the camera image. An image may be projected.

以下、より具体的に説明する。UAV10のカメラ11が、白色の枠形状の画像が投影された建築物の表面を撮像し、カメラ画像を生成した場合、制御部13は、カメラ画像内におけるその枠形状部分の色(白色の枠形状の画像がカメラ内でどのような色で写っているか)を認識する。そして、制御部13は、カメラ画像内における枠形状部分の色の情報を投影ステーション20に通知する。   More specific description will be given below. When the camera 11 of the UAV 10 captures the surface of a building on which a white frame-shaped image is projected and generates a camera image, the control unit 13 determines the color (white frame) of the frame-shaped portion in the camera image. The color of the shape image in the camera). Then, the control unit 13 notifies the projection station 20 of the color information of the frame shape portion in the camera image.

投影ステーション20のプロジェクタ制御部22は、カメラ画像内における枠形状部分の色の情報を受信すると、その色の情報に応じて、情報画像生成部25によって生成された情報画像の色を補正する。   When the projector control unit 22 of the projection station 20 receives the color information of the frame shape portion in the camera image, the projector control unit 22 corrects the color of the information image generated by the information image generation unit 25 according to the color information.

白色光で投影した枠形状の画像が、カメラ画像内で何らかの色になっているということは、建築物の表面は、その色のみを反射する状態になっていることになる。例えば、建築物の表面が緑色であり、550nm±30nmの波長のみを反射する状態であるとする。この場合、カメラ画像内における枠形状部分の色は、550nm±30nmの範囲内の波長の色である。プロジェクタ制御部22は、この情報をUAV10から受信すると、その波長に応じて、情報画像の色を、例えば、色の波長が530nm〜570nmの範囲内になるように補正する。   The fact that the frame-shaped image projected with white light has some color in the camera image means that the surface of the building reflects only that color. For example, it is assumed that the surface of a building is green and reflects only a wavelength of 550 nm ± 30 nm. In this case, the color of the frame-shaped portion in the camera image is a color having a wavelength within the range of 550 nm ± 30 nm. When the projector control unit 22 receives this information from the UAV 10, the projector control unit 22 corrects the color of the information image so that the wavelength of the color falls within a range of 530 nm to 570 nm, for example.

この結果、カメラ11は、建築物の表面に投影された情報画像を撮像することができる。上記の例では、仮に、波長が520nm未満の色、または、波長が580nmより大きい色の情報画像を反射面に投影しても、その光は反射されず、情報画像はカメラ画像に写らない。本実施形態では、白色光で投影した形状の画像がカメラ画像内でどのような色で写っているかに応じて、プロジェクタ制御部22が情報画像の色を補正するので、建築物の表面が特定の波長の光しか反射しない場合であっても、カメラ11は、情報画像が写ったカメラ画像を生成することができる。   As a result, the camera 11 can capture an information image projected on the surface of the building. In the above example, even if an information image having a wavelength of less than 520 nm or a wavelength of more than 580 nm is projected on the reflection surface, the light is not reflected and the information image is not reflected in the camera image. In this embodiment, the projector control unit 22 corrects the color of the information image according to the color of the image projected with white light in the camera image, so that the surface of the building is specified. The camera 11 can generate a camera image in which an information image is reflected even when only light having a wavelength of is reflected.

また、プロジェクタ制御部22は、色の他に、情報画像の輝度を補正してもよい。この場合、制御部13は、カメラ画像内における枠形状部分の画像に基づいて、情報画像が投影された建築物の表面の明るさを認識する。制御部13は、その明るさを投影ステーション20に通知する。   In addition to the color, the projector control unit 22 may correct the luminance of the information image. In this case, the control unit 13 recognizes the brightness of the surface of the building on which the information image is projected based on the image of the frame shape portion in the camera image. The control unit 13 notifies the projection station 20 of the brightness.

投影ステーション20のプロジェクタ制御部22は、建築物の表面に投影された情報画像の明るさが通知されると、その明るさに応じて、情報画像の輝度を補正する。例えば、プロジェクタ制御部22は、建築物の表面が暗く見える場合には、情報画像の輝度を上げるように補正する。   When the brightness of the information image projected on the surface of the building is notified, the projector control unit 22 of the projection station 20 corrects the brightness of the information image according to the brightness. For example, when the surface of the building looks dark, the projector control unit 22 corrects the brightness of the information image to be increased.

このように輝度を補正することによって、建築物の表面に投影した情報画像が環境光に埋もれることを防止することができる。   By correcting the luminance in this way, it is possible to prevent the information image projected on the surface of the building from being buried in ambient light.

制御部13が、カメラ画像内におけるその枠形状部分の色と建築物の表面の明るさとを認識し、プロジェクタ制御部22が、情報画像の色および輝度の両方を補正してもよい。   The control unit 13 may recognize the color of the frame shape portion in the camera image and the brightness of the surface of the building, and the projector control unit 22 may correct both the color and luminance of the information image.

なお、上記の例では、建築物の表面に投影された枠形状の画像を、UAV10のカメラ11が撮像し、UAV10の制御部13がカメラ画像内における枠形状部分の色や、建築物の表面の明るさを認識する場合を示した。投影ステーション20もカメラを備え、そのカメラが建築物の表面に投影された枠形状の画像を撮像してもよい。そして、投影ステーション20が、カメラ画像内における枠形状部分の色や、建築物の表面の明るさを認識する画像認識部(図示略)を備えていてもよい。すなわち、カメラ画像内における枠形状部分の色や、建築物の表面の明るさの認識を投影ステーション20側で行ってもよい。ただし、この場合であっても、UAV10は、図6に示すようにカメラ11および制御部13を備える。   In the above example, the frame-shaped image projected on the surface of the building is captured by the camera 11 of the UAV 10, and the control unit 13 of the UAV 10 controls the color of the frame-shaped portion in the camera image and the surface of the building. The case of recognizing the brightness of was shown. The projection station 20 may also include a camera, and the camera may capture a frame-shaped image projected on the surface of the building. And the projection station 20 may be provided with the image recognition part (not shown) which recognizes the color of the frame shape part in a camera image, and the brightness of the surface of a building. That is, the color of the frame-shaped portion in the camera image and the brightness of the surface of the building may be recognized on the projection station 20 side. However, even in this case, the UAV 10 includes the camera 11 and the control unit 13 as shown in FIG.

また、上記のように、投影ステーション20もカメラを備える場合、予め投影ステーション20のカメラが建築物の表面の画像を撮像し、カメラ画像を生成してもよい。そして、経路導出部24は、そのカメラ画像に基づいて、建築物の表面のうち、直射日光が当たっておらず影(UAV10の影ではない。)が生じている領域や、亀裂が生じている領域を特定してもよい。そして、経路導出部24が、その影が生じている領域内であって、亀裂が生じていない領域の中で、情報画像の投影箇所を定めてもよい。   Further, as described above, when the projection station 20 also includes a camera, the camera of the projection station 20 may capture an image of the surface of the building in advance and generate a camera image. Based on the camera image, the route deriving unit 24 has a region or crack in the surface of the building that is not exposed to direct sunlight and has a shadow (not a shadow of the UAV 10). An area may be specified. Then, the route deriving unit 24 may determine the projection location of the information image in the area where the shadow is generated and in the area where the crack is not generated.

本実施形態によれば、建築物の表面が特定の波長の光しか反射しない場合であっても、カメラ11は、情報画像が写ったカメラ画像を生成することができる。また、建築物の表面に投影した情報画像が環境光に埋もれることを防止することができる。従って、カメラ画像内の情報画像を検出しやすくすることができる。   According to this embodiment, even if the surface of the building reflects only light of a specific wavelength, the camera 11 can generate a camera image in which an information image is reflected. Moreover, it is possible to prevent the information image projected on the surface of the building from being buried in the ambient light. Therefore, it is possible to easily detect the information image in the camera image.

また、プロジェクタ21は、例えば、赤色、緑色および青色のそれぞれの色毎に、所定の波長の光のみを照射する光源を有するプロジェクタ(例えば、レーザプロジェクタ)であってもよい。プロジェクタ制御部22は、UAV10の制御部13から通知された色の情報に応じて、プロジェクタ21の光源を切り替えることによって、情報画像の色を補正してもよい。このような構成によれば、選択された光源が照射する光の波長が限られているので、太陽光が存在する環境下であっても、UAV10のカメラ11は、情報画像が明瞭に写ったカメラ画像を得ることができる。   The projector 21 may be a projector (for example, a laser projector) having a light source that emits only light of a predetermined wavelength for each of red, green, and blue colors. The projector control unit 22 may correct the color of the information image by switching the light source of the projector 21 in accordance with the color information notified from the control unit 13 of the UAV 10. According to such a configuration, since the wavelength of light emitted from the selected light source is limited, the camera 11 of the UAV 10 clearly shows an information image even in an environment where sunlight exists. A camera image can be obtained.

さらに、UAV10のカメラ11には、所定の波長の光のみを透過させるフィルタであって、透過させる光の波長を切り替え可能な構成のフィルタを備えていてもよい。例えば、フィルタが透過させる光の波長は、プロジェクタ21が有する個々の光源に合わせて定められていればよい。例えば、カメラ11のフィルタは、プロジェクタ21の赤色の光源に対応する波長の光のみを透過させる状態、プロジェクタ21の緑色の光源に対応する波長の光のみを透過させる状態、および、プロジェクタ21の青色の光源に対応する波長の光のみを透過させる状態のいずれかに切り替え可能なフィルタである。例えば、制御部13は、赤色という情報を投影ステーション20に通知した場合、カメラ11のフィルタをプロジェクタ21の赤色の光源に対応する波長の光のみを透過させる状態に切り替える。同様に、制御部13は、緑色という情報を投影ステーション20に通知した場合、カメラ11のフィルタをプロジェクタ21の緑色の光源に対応する波長の光のみを透過させる状態に切り替える。同様に、制御部13は、青色という情報を投影ステーション20に通知した場合、カメラ11のフィルタをプロジェクタ21の青色の光源に対応する波長の光のみを透過させる状態に切り替える。カメラ11が上記のフィルタを備えていることにより、太陽光が存在する環境下であっても、カメラ11が、情報画像が明瞭に写ったカメラ画像を得られるという効果をより向上させることができる。なお、カメラ11が備えるフィルタの態様は特に限定されない。例えば、一般的なカラーカメラには、各画素にベイヤー配列(Bayer arrangement )のR/G/Bフィルタが配置されている。このフィルタによって対応する光源の光のみを用いてもよい。すなわち、緑色の光源のみを用いるのであれば、緑色の画素のみを用いてもよい。同様に、他の色の光源を用いるのであれば、その光源に対応する画素のみを用いてもよい。また、モノクロカメラと、外部に取り付けた交換式カラーフィルタとの組み合わせを用いてもよい。また、カメラ11に上記のフィルタが設けられていなくてもよい。   Furthermore, the camera 11 of the UAV 10 may be provided with a filter that transmits only light of a predetermined wavelength and that can switch the wavelength of the transmitted light. For example, the wavelength of the light transmitted by the filter may be determined according to the individual light sources included in the projector 21. For example, the filter of the camera 11 transmits only light having a wavelength corresponding to the red light source of the projector 21, transmits only light having a wavelength corresponding to the green light source of the projector 21, and blue of the projector 21. It is a filter that can be switched to either of the states that transmit only the light of the wavelength corresponding to the light source. For example, when the control unit 13 notifies the projection station 20 of information of red, the control unit 13 switches the filter of the camera 11 to a state in which only light having a wavelength corresponding to the red light source of the projector 21 is transmitted. Similarly, when the information about green is notified to the projection station 20, the control unit 13 switches the filter of the camera 11 to a state in which only light having a wavelength corresponding to the green light source of the projector 21 is transmitted. Similarly, when notifying the projection station 20 of the blue information, the control unit 13 switches the filter of the camera 11 to a state in which only light having a wavelength corresponding to the blue light source of the projector 21 is transmitted. Since the camera 11 includes the above-described filter, it is possible to further improve the effect that the camera 11 can obtain a camera image in which an information image is clearly captured even in an environment where sunlight is present. . In addition, the aspect of the filter with which the camera 11 is provided is not specifically limited. For example, in a general color camera, an R / G / B filter having a Bayer arrangement is arranged for each pixel. Only the light of the corresponding light source may be used by this filter. That is, if only a green light source is used, only a green pixel may be used. Similarly, if light sources of other colors are used, only pixels corresponding to the light sources may be used. A combination of a monochrome camera and a replaceable color filter attached to the outside may be used. Further, the camera 11 may not be provided with the above filter.

また、建築物の表面の色が既知であり一色である場合には、プロジェクタ21は、その色に応じた所定の波長の光のみを照射する1つの光源を備える構成であってもよい。また、この場合、カメラ11には、その光源に対応する波長の光のみを透過させるフィルタが設けられていてもよい。すなわち、建築物の表面の色が既知であり一色である場合、プロジェクタ21の光源やカメラ11のフィルタは、切り替え可能でなくてもよい。なお、既に述べたように、カメラ11にフィルタが設けられていなくてもよい。   In addition, when the color of the surface of the building is known and is one color, the projector 21 may be configured to include one light source that emits only light having a predetermined wavelength corresponding to the color. In this case, the camera 11 may be provided with a filter that transmits only light having a wavelength corresponding to the light source. That is, when the color of the surface of the building is known and is one color, the light source of the projector 21 and the filter of the camera 11 may not be switchable. As already described, the camera 11 may not be provided with a filter.

また、特に直射日光下等、プロジェクタの輝度に対して周辺光が強い場合、投影ステーション20のプロジェクタ21にはレーザ等、波長幅の狭い光源を用い、この波長の光のみを透過させる狭帯域フィルタをUAV10に取り付けるとなお良い。太陽光は、広い波長範囲に渡って光を照射しており、また、一般的なカメラは、広い波長範囲の光を積分した値を明るさとして出力する。しかし、狭帯域フィルタを付けると、太陽光成分は、このフィルタの透過範囲のみとなるため、太陽光成分の検出値は低下する。一方、レーザ光線は狭帯域フィルタの影響を受けない。従って、レーザ光源と、それに対応した狭帯域フィルタとを用いることで、外乱光の影響を受けにくくすることができる。   Further, particularly when the ambient light is strong with respect to the brightness of the projector, such as in direct sunlight, the projector 21 of the projection station 20 uses a light source with a narrow wavelength width, such as a laser, and transmits only light of this wavelength. It is even better to attach to the UAV10. Sunlight irradiates light over a wide wavelength range, and a general camera outputs a value obtained by integrating light in a wide wavelength range as brightness. However, when a narrow band filter is attached, the sunlight component is only in the transmission range of this filter, so the detection value of the sunlight component is lowered. On the other hand, the laser beam is not affected by the narrow band filter. Therefore, by using a laser light source and a narrow band filter corresponding to the laser light source, it is possible to make it less susceptible to disturbance light.

実施形態7.
本発明の第7の実施形態では、情報画像の投影面と、状態検査のための撮像の対象面が異なる場合の動作について説明する。
Embodiment 7. FIG.
In the seventh embodiment of the present invention, the operation when the projection plane of the information image is different from the imaging target plane for the state inspection will be described.

図16は、情報画像の投影面と、状態検査のための撮像の対象面とが異なる状況の例を示す模式図である。状態検査のための撮像対象となる領域が、領域82であるとする。しかし、領域82は、水平である。また、領域82には、建築物30の構造物39によって、プロジェクタ21から見て死角となる領域が存在する。また、プロジェクタ21から見て死角となる領域には、情報画像を投影することができない。領域82のうち、プロジェクタ21から見て死角とならない領域にプロジェクタ21が情報画像を投影したとしても、UAV10は、水平な領域82に投影された情報画像を撮像できない場合がある。   FIG. 16 is a schematic diagram illustrating an example of a situation where the projection plane of the information image is different from the imaging target plane for state inspection. It is assumed that an area to be imaged for state inspection is an area 82. However, region 82 is horizontal. In the area 82, there is an area that becomes a blind spot as viewed from the projector 21 due to the structure 39 of the building 30. In addition, an information image cannot be projected onto an area that is a blind spot as viewed from the projector 21. Even if the projector 21 projects an information image in a region that does not become a blind spot when viewed from the projector 21 in the region 82, the UAV 10 may not be able to capture the information image projected on the horizontal region 82.

このような状況では、情報画像の投影面と、状態検査のための撮像の対象面とを異なる面とすればよい。   In such a situation, the projection plane of the information image and the imaging target plane for state inspection may be different planes.

領域81は、情報画像の投影箇所を含む領域である。プロジェクタ21は、領域81に情報画像(以下、この情報画像を情報画像Qと記す。)を投影する。プロジェクタ21の情報画像生成部25(図10参照)は、情報画像Qを生成する際、移動中のカメラの向きの制御内容とは別に、滞空中のカメラの向きの制御内容も情報画像Qに含めておく。本例では、情報画像生成部25は、滞空中にはカメラの向きを真上方向に向けることを指示する制御内容を、情報画像Qに含めておく。   A region 81 is a region including a projection location of the information image. The projector 21 projects an information image (hereinafter, this information image is referred to as an information image Q) in the area 81. When the information image generation unit 25 (see FIG. 10) of the projector 21 generates the information image Q, the control content of the direction of the moving camera is also included in the information image Q in addition to the control content of the direction of the moving camera. Include it. In this example, the information image generation unit 25 includes, in the information image Q, the control content instructing to turn the camera in the upward direction in the air.

UAV10は、情報画像Qの一つ前の情報画像に基づいて、目標位置P3の方向に進み、ステップB1〜B3(図11参照)を行う。そして、カメラ画像内に情報画像を認識できたならば、UAV10は、ステップB4以降の動作を行う。   The UAV 10 proceeds in the direction of the target position P3 based on the information image immediately before the information image Q, and performs steps B1 to B3 (see FIG. 11). If the information image can be recognized in the camera image, the UAV 10 performs the operations after step B4.

UAV10の制御部13(図6参照)、ステップB6において、情報画像Qに従い、その場でUAV10を滞空させる。さらに、制御部13は、情報画像Qに含まれる上記の制御内容に従い、滞空中にカメラの向きを真上方向に向ける。制御部13は、この状態で滞空している間に、状態検査のための撮像を行う。このとき、カメラ11は真上方向を向いているので、検査対象となる領域82を撮像でき、領域82のカメラ画像を生成することができる。   In the control unit 13 of the UAV 10 (see FIG. 6), in step B6, the UAV 10 is suspended on the spot according to the information image Q. Furthermore, the control unit 13 directs the camera in the upward direction in the air according to the control content included in the information image Q. The control unit 13 performs imaging for state inspection while the vehicle is stagnating in this state. At this time, since the camera 11 faces directly upward, the area 82 to be inspected can be imaged, and a camera image of the area 82 can be generated.

本実施形態によれば、状態検査のための撮像の対象面に情報画像を投影できなくても、他の面に投影された情報画像Qを利用して目標位置の近傍に到達することができる。そして、情報画像Qに含まれている制御内容に従って、UAV10は、滞空中におけるカメラ方向を変え、状態検査のための撮像の対象面を撮像し、その面のカメラ画像を生成することができる。   According to the present embodiment, even if an information image cannot be projected onto a target surface for imaging for state inspection, the information image Q projected onto another surface can be used to reach the vicinity of the target position. . Then, according to the control content included in the information image Q, the UAV 10 can change the direction of the camera in the air, capture an image of an imaging target surface for state inspection, and generate a camera image of that surface.

実施形態8.
建築物の経年劣化により、建築物の表面にひび割れや浮き等の欠陥が生じる場合がある。本発明の第8の実施形態の無人飛行装置制御システムは、そのような欠陥を検出する。また、無人飛行装置制御システムは、その欠陥に応じて、投影された情報画像が歪まないように情報画像を補正する。
Embodiment 8. FIG.
Due to aging of the building, defects such as cracks and floating may occur on the surface of the building. The unmanned aerial vehicle control system according to the eighth embodiment of the present invention detects such a defect. Further, the unmanned aerial vehicle control system corrects the information image according to the defect so that the projected information image is not distorted.

本発明の第8の実施形態では、プロジェクタ21は、所定のパターンを表す画像(以下、パターン画像と記す。)も、建築物の表面に投影する。UAV10の制御部13は、カメラ画像内に写っているパターンの形状に応じて、建築物の表面の欠陥の状態を検出する。投影ステーション20は、その欠陥の状態に応じて、情報画像を補正する。   In the eighth embodiment of the present invention, the projector 21 also projects an image representing a predetermined pattern (hereinafter referred to as a pattern image) onto the surface of the building. The control unit 13 of the UAV 10 detects the state of a defect on the surface of the building according to the shape of the pattern shown in the camera image. The projection station 20 corrects the information image according to the state of the defect.

以下、より具体的に説明する。プロジェクタ21は、パターン画像を建築物の表面に投影する。パターン画像は、例えば、メッシュパターンを表す画像であってもよい。本実施形態では、説明を簡単にするために、所定のパターンとして水平な直線を例にして説明する。図17は、水平な直線を表すパターン画像の例を示す模式図である。図17では、1本の直線を表すパターン画像を示しているが、パターン画像内に複数の直線が表わされていてもよい。   More specific description will be given below. The projector 21 projects the pattern image on the surface of the building. The pattern image may be an image representing a mesh pattern, for example. In the present embodiment, for the sake of simplicity of explanation, a horizontal straight line will be described as an example of the predetermined pattern. FIG. 17 is a schematic diagram illustrating an example of a pattern image representing a horizontal straight line. Although FIG. 17 shows a pattern image representing a single straight line, a plurality of straight lines may be represented in the pattern image.

図18は、経年劣化によって段差が生じた建築物の表面にパターン画像を投影し、UAV10のカメラ11がその投影箇所を撮像している状態を示す模式図である。図19は、図18に示す状態の模式的側面図である。図18および図19に示す例では、建築物の面91は、面92よりも浮いた状態となり、段差が生じている   FIG. 18 is a schematic diagram illustrating a state in which a pattern image is projected on the surface of a building where a step is generated due to deterioration over time, and the camera 11 of the UAV 10 captures the projected portion. FIG. 19 is a schematic side view of the state shown in FIG. In the example shown in FIG. 18 and FIG. 19, the surface 91 of the building is in a state of being floated more than the surface 92, and a step is generated.

カメラ11が、パターン画像(水平な直線)が投影された面91および面92を撮像し、カメラ画像を生成する。図20は、パターン画像を撮像した結果得られたカメラ画像の例を示す模式図である。図20に示すカメラ画像には、面91,92および線93が写っている。プロジェクタ21は、水平な直線を面91,92に投影しているが、面91,92の段差により、その直線では、カメラ画像内では、曲がった線93として写る。   The camera 11 captures the surface 91 and the surface 92 on which the pattern image (horizontal straight line) is projected, and generates a camera image. FIG. 20 is a schematic diagram illustrating an example of a camera image obtained as a result of imaging a pattern image. In the camera image shown in FIG. 20, surfaces 91 and 92 and a line 93 are shown. The projector 21 projects a horizontal straight line onto the surfaces 91 and 92, but due to the level difference between the surfaces 91 and 92, the straight line appears as a bent line 93 in the camera image.

また、投影ステーション20は、パターン画像の投影方向と壁面とがなす角度をUAV10に伝達する。投影ステーション20は、通信によって、この角度をUAV10に伝達してもよい。あるいは、投影ステーション20は、この角度の情報を含む情報画像を投影し、UAV10の制御部13が、カメラ画像内の情報画像によって、角度の情報を認識してもよい。   In addition, the projection station 20 transmits the angle formed by the projection direction of the pattern image and the wall surface to the UAV 10. Projection station 20 may communicate this angle to UAV 10 by communication. Alternatively, the projection station 20 may project an information image including this angle information, and the control unit 13 of the UAV 10 may recognize the angle information from the information image in the camera image.

UAV10の制御部13は、カメラ画像内に写ったパターン(本例では、線93)の形状を認識する。制御部13は、カメラ画像内に写ったパターンの形状に基づいて、建築物の表面の状態を判定する。本例では、制御部13は、カメラ画像内に写った線93の形状から、面91と面92との段差があると判定する。すなわち、制御部13は、面91と面92との段差の大きさおよび段差が生じている位置を検出する。例えば、制御部13に、パターン画像の投影方向と壁面とがなす角度と、カメラ画像内のパターンの形状変形との対応関係を予め記憶させておけばよい。そして、制御部13は、カメラ画像内のパターンの形状変形に対応する建築物の表面の状態を特定することによって、建築物の表面の状態を判定すればよい。   The control unit 13 of the UAV 10 recognizes the shape of a pattern (in this example, a line 93) shown in the camera image. The control part 13 determines the state of the surface of a building based on the shape of the pattern reflected in the camera image. In this example, the control unit 13 determines that there is a step between the surface 91 and the surface 92 based on the shape of the line 93 captured in the camera image. That is, the control unit 13 detects the size of the step between the surface 91 and the surface 92 and the position where the step is generated. For example, the control unit 13 may store in advance the correspondence between the angle formed by the projection direction of the pattern image and the wall surface and the shape deformation of the pattern in the camera image. And the control part 13 should just determine the state of the surface of a building by specifying the state of the surface of the building corresponding to the shape deformation of the pattern in a camera image.

制御部13は、建築物の表面の状態の情報(本例では、面91と面92との段差の大きさ、および段差が生じている位置)を投影ステーション20に送信する。   The control unit 13 transmits information on the state of the surface of the building (in this example, the size of the step between the surface 91 and the surface 92 and the position where the step is generated) to the projection station 20.

投影ステーション20のプロジェクタ制御部22は、制御部13から送信された建築物の表面の状態の情報を受信する。すると、プロジェクタ制御部22は、データ記憶部23に記憶されている建築物の外観および建築物の3次元形状の情報と、UAV10(制御部13)から受信した建築物の表面の状態の情報とに基づいて、投影された情報画像が歪まないように、情報画像を補正する。   The projector control unit 22 of the projection station 20 receives the information on the state of the building surface transmitted from the control unit 13. Then, the projector control unit 22 receives information on the exterior of the building and the three-dimensional shape of the building stored in the data storage unit 23, and information on the surface state of the building received from the UAV 10 (control unit 13). Based on the above, the information image is corrected so that the projected information image is not distorted.

本実施形態によれば、制御部13は、経年劣化等により生じた建築物の欠陥とその欠陥の大きさを検出することができる。さらに、制御部13は、建築物の表面の状態の情報を投影ステーション20に送信するので、投影ステーション20(プロジェクタ制御部22)は、投影された情報画像が歪まないように、情報画像を補正することができる。従って、投影ステーション20は、良好な状態で情報画像を建築物の表面に投影することができ、UAV10の誘導精度をより高くすることができる。   According to this embodiment, the control part 13 can detect the defect of the building and the magnitude | size of the defect which arose by aged deterioration etc. Furthermore, since the control unit 13 transmits information on the state of the surface of the building to the projection station 20, the projection station 20 (projector control unit 22) corrects the information image so that the projected information image is not distorted. can do. Therefore, the projection station 20 can project the information image on the surface of the building in a favorable state, and the guidance accuracy of the UAV 10 can be further increased.

本発明の各実施形態は、インフラストラクチャ劣化診断の他、建築物の巡回監視を行うためにUAVを制御する場合等にも適用可能である。   Each embodiment of the present invention is applicable not only to infrastructure deterioration diagnosis but also to the case of controlling a UAV to perform patrol monitoring of buildings.

次に、本発明の概要について説明する。図21は、本発明の無人飛行装置制御システムの概要を示す模式図である。無人飛行装置制御システム100は、画像投影部101と、制御部103とを備える。   Next, the outline of the present invention will be described. FIG. 21 is a schematic diagram showing an outline of the unmanned flight control system of the present invention. The unmanned flying device control system 100 includes an image projection unit 101 and a control unit 103.

画像投影部101(例えば、投影ステーション20)は、撮像装置(例えば、カメラ11)を搭載する無人飛行装置(例えば、UAV10)を制御するための画像(例えば、情報画像)を対象物(例えば、状態検査の対象となる建築物)に投影する。   The image projection unit 101 (for example, the projection station 20) receives an image (for example, an information image) for controlling an unmanned flight apparatus (for example, the UAV 10) on which an imaging device (for example, the camera 11) is mounted, as an object (for example, Project to the building subject to condition inspection.

制御部103(例えば、制御部13)は、撮像装置によって撮像された画像に基づき、無人飛行装置の動作を制御する。また、制御部103は、無人飛行装置の飛行状態(例えば、UAV10の姿勢や位置)の変化により画像を撮像不能となった場合に、飛行状態の変化量に基づき無人飛行装置の動作を制御する。   The control unit 103 (for example, the control unit 13) controls the operation of the unmanned flight apparatus based on the image captured by the imaging apparatus. The control unit 103 controls the operation of the unmanned aerial vehicle based on the amount of change in the flight state when an image cannot be captured due to a change in the unmanned aerial vehicle flight state (for example, the posture or position of the UAV 10). .

そのような構成により、無人飛行装置が撮像した画像に基づき無人飛行装置を制御して対象物の付近の目標位置近傍に無人飛行装置を誘導する場合において、無人飛行装置が撮像していた画像を見失った場合であっても、無人飛行装置を制御することができる。   With such a configuration, when controlling the unmanned aerial vehicle based on the image captured by the unmanned aerial vehicle and guiding the unmanned aerial vehicle near the target position near the object, the image captured by the unmanned aerial vehicle is displayed. Even if it is lost, the unmanned flight device can be controlled.

本発明は、無人飛行装置を制御する無人飛行装置制御システムに好適に適用される。   The present invention is preferably applied to an unmanned flight apparatus control system for controlling an unmanned flight apparatus.

10 UAV(無人飛翔体)
11 カメラ
13 制御部
15 カメラ角度制御部
16 モータドライバ
17a〜17d モータ
18 通信部
20 投影ステーション
21 プロジェクタ
22 プロジェクタ制御部
23 データ記憶部
24 経路導出部
25 情報画像生成部
27 通信部
10 UAV (Unmanned Flying Object)
DESCRIPTION OF SYMBOLS 11 Camera 13 Control part 15 Camera angle control part 16 Motor driver 17a-17d Motor 18 Communication part 20 Projection station 21 Projector 22 Projector control part 23 Data storage part 24 Path | route derivation part 25 Information image generation part 27 Communication part

Claims (10)

撮像装置を搭載する無人飛行装置の動作を制御するための画像を対象物に投影する画像投影部と、
前記撮像装置によって撮像された前記画像に基づき、前記無人飛行装置の動作を制御する制御部とを備え、
前記制御部は、前記無人飛行装置の飛行状態の変化により前記画像を撮像不能となった場合に、前記飛行状態の変化量に基づき前記無人飛行装置の動作を制御する
無人飛行装置制御システム。
An image projecting unit that projects an image for controlling the operation of the unmanned flight apparatus equipped with the imaging device onto an object;
A control unit that controls the operation of the unmanned flight device based on the image captured by the imaging device;
The said control part is an unmanned flight apparatus control system which controls operation | movement of the said unmanned flight apparatus based on the variation | change_quantity of the said flight state, when it becomes impossible to image the said image by the change of the flight state of the said unmanned flight apparatus.
前記制御部は、前記撮像装置によって撮像された複数の画像の変化量に基づいて、前記飛行状態の変化量を算出する
請求項1に記載の無人飛行装置制御システム。
The unmanned flight apparatus control system according to claim 1, wherein the control unit calculates a change amount of the flight state based on a change amount of a plurality of images captured by the imaging device.
前記無人飛行装置は、慣性航法装置を備え、
前記制御部は、前記慣性航法装置を用いて、前記飛行状態の変化量を算出する
請求項1または2に記載の無人飛行装置制御システム。
The unmanned flight device includes an inertial navigation device,
The unmanned flight apparatus control system according to claim 1, wherein the control unit calculates an amount of change in the flight state using the inertial navigation apparatus.
前記画像投影部は、
前記無人飛行装置を追尾して撮像する追尾撮像装置を備え、
前記無人飛行装置の飛行状態の変化により前記画像を撮像不能となった場合に、前記追尾撮像装置により撮像された画像に基づき、前記飛行状態の変化量を算出する
請求項1に記載の無人飛行装置制御システム。
The image projection unit
A tracking imaging device that tracks and images the unmanned flight device,
2. The unmanned flight according to claim 1, wherein when the image cannot be captured due to a change in a flight state of the unmanned flight device, an amount of change in the flight state is calculated based on an image captured by the tracking imaging device. Device control system.
前記制御部は、前記飛行状態の変化量に基づき、前記無人飛行装置の姿勢および前記撮像装置の向きのいずれか一方または両方を変化させる
請求項1から請求項4のうちのいずれか1項に記載の無人飛行装置制御システム。
The control unit changes one or both of an attitude of the unmanned flight apparatus and an orientation of the imaging apparatus based on a change amount of the flight state. An unmanned aerial vehicle control system as described.
前記画像投影部は、前記飛行状態の変化量に応じて前記無人飛行装置の動作を制御するための画像を生成し、前記対象物に投影する
請求項1から請求項4のうちのいずれか1項に記載の無人飛行装置制御システム。
The said image projection part produces | generates the image for controlling operation | movement of the said unmanned flight apparatus according to the variation | change_quantity of the said flight state, and projects it on the said target object. The unmanned aerial vehicle control system according to item.
前記無人飛行装置の動作を制御するための画像は、制御内容を識別する識別情報を含み、
前記制御部は、
前記飛行状態の変更量に基づき、前記撮像装置の撮像範囲を拡大し、
拡大された撮像範囲において撮像された前記無人飛行装置の動作を制御するための画像の位置に基づき、前記無人飛行装置の動作を制御し、
前記無人飛行装置の動作の制御に応じて、拡大された撮像範囲を、前記識別情報を認識可能な撮像範囲に縮小する
請求項1から請求項4のうちのいずれか1項に記載の無人飛行装置制御システム。
The image for controlling the operation of the unmanned flight apparatus includes identification information for identifying control contents,
The controller is
Based on the change amount of the flight state, expand the imaging range of the imaging device,
Controlling the operation of the unmanned aerial vehicle based on the position of an image for controlling the operation of the unmanned aerial vehicle imaged in the enlarged imaging range;
The unmanned flight according to any one of claims 1 to 4, wherein the enlarged imaging range is reduced to an imaging range in which the identification information can be recognized in accordance with control of the operation of the unmanned flying device. Device control system.
前記画像投影部は、前記対象物上の画像の投影箇所を定め、前記無人飛行装置の経路を導出する経路導出部を備え、
前記経路導出部は、前記飛行状態の変更量に基づいて前記無人飛行装置の位置を算出し、算出した前記無人飛行装置の位置からの経路を導出する
請求項1から7のうちのいずれか1項に記載の無人飛行装置制御システム。
The image projection unit includes a route deriving unit that determines a projection position of an image on the object and derives a route of the unmanned flight apparatus,
The route deriving unit calculates a position of the unmanned flying device based on the change amount of the flight state, and derives a route from the calculated position of the unmanned flying device. The unmanned aerial vehicle control system according to item.
撮像装置を搭載する無人飛行装置の動作を制御するための画像を対象物に投影し、
前記撮像装置によって撮像された前記画像に基づき、前記無人飛行装置の動作を制御し、
前記無人飛行装置の飛行状態の変化により前記画像を撮像不能となった場合に、前記飛行状態の変化量に基づき前記無人飛行装置の動作を制御する
無人飛行装置制御方法。
Project an image for controlling the operation of the unmanned aerial vehicle equipped with the imaging device onto the object,
Based on the image captured by the imaging device, control the operation of the unmanned flight device,
An unmanned aerial vehicle control method for controlling an operation of the unmanned aerial vehicle based on a change amount of the flying state when the image cannot be captured due to a change in a flying state of the unmanned aerial vehicle.
無人飛行装置動作を制御するための画像であって、対象物に投影された画像を撮像する撮像装置と、
前記撮像装置によって撮像された前記画像に基づき、前記無人飛行装置の動作を制御する制御部とを備え、
前記制御部は、前記無人飛行装置の飛行状態の変化により前記画像を撮像不能となった場合に、前記飛行状態の変化量に基づき前記無人飛行装置の動作を制御する
無人飛行装置。
An imaging device for controlling the operation of the unmanned flying device, the imaging device capturing an image projected on the object;
A control unit that controls the operation of the unmanned flight device based on the image captured by the imaging device;
The said control part is an unmanned flight apparatus which controls operation | movement of the said unmanned flight apparatus based on the variation | change_quantity of the said flight state, when it becomes impossible to image the said image by the change of the flight state of the said unmanned flight apparatus.
JP2016056830A 2016-03-22 2016-03-22 Unmanned flight device control system, unmanned flight device control method, and unmanned flight device Active JP6707933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016056830A JP6707933B2 (en) 2016-03-22 2016-03-22 Unmanned flight device control system, unmanned flight device control method, and unmanned flight device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056830A JP6707933B2 (en) 2016-03-22 2016-03-22 Unmanned flight device control system, unmanned flight device control method, and unmanned flight device

Publications (2)

Publication Number Publication Date
JP2017173966A true JP2017173966A (en) 2017-09-28
JP6707933B2 JP6707933B2 (en) 2020-06-10

Family

ID=59973096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056830A Active JP6707933B2 (en) 2016-03-22 2016-03-22 Unmanned flight device control system, unmanned flight device control method, and unmanned flight device

Country Status (1)

Country Link
JP (1) JP6707933B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108196587A (en) * 2017-12-15 2018-06-22 北京臻迪科技股份有限公司 A kind of intelligence auxiliary unmanned plane and its control method
JP2020019371A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Automated guided vehicle system using unmanned flight body
CN113741541A (en) * 2021-09-28 2021-12-03 广州极飞科技股份有限公司 Unmanned aerial vehicle flight control method, device, system, equipment and storage medium
JP2022113698A (en) * 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 Inspection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JP2003269914A (en) * 2002-03-13 2003-09-25 Hitachi Ltd Instrument for measuring position of vehicle, and vehicle with the same mounted thereon
JP2008520046A (en) * 2004-11-12 2008-06-12 ザ・ボーイング・カンパニー Optical laser guidance system apparatus and method
JP2009301175A (en) * 2008-06-11 2009-12-24 Ihi Aerospace Co Ltd Monitoring method
JP2012071645A (en) * 2010-09-28 2012-04-12 Topcon Corp Automatic taking-off and landing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JP2003269914A (en) * 2002-03-13 2003-09-25 Hitachi Ltd Instrument for measuring position of vehicle, and vehicle with the same mounted thereon
JP2008520046A (en) * 2004-11-12 2008-06-12 ザ・ボーイング・カンパニー Optical laser guidance system apparatus and method
JP2009301175A (en) * 2008-06-11 2009-12-24 Ihi Aerospace Co Ltd Monitoring method
JP2012071645A (en) * 2010-09-28 2012-04-12 Topcon Corp Automatic taking-off and landing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108196587A (en) * 2017-12-15 2018-06-22 北京臻迪科技股份有限公司 A kind of intelligence auxiliary unmanned plane and its control method
JP2022113698A (en) * 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 Inspection device
JP7250198B2 (en) 2018-05-15 2023-03-31 東邦ガスネットワーク株式会社 inspection equipment
JP2020019371A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Automated guided vehicle system using unmanned flight body
CN113741541A (en) * 2021-09-28 2021-12-03 广州极飞科技股份有限公司 Unmanned aerial vehicle flight control method, device, system, equipment and storage medium

Also Published As

Publication number Publication date
JP6707933B2 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
JP6860003B2 (en) Unmanned aerial vehicle control system, unmanned aerial vehicle control method and inspection equipment
JP6672857B2 (en) Unmanned flying device control system, unmanned flying device control method, and unmanned flying device
CA3006155C (en) Positioning system for aerial non-destructive inspection
US11927960B2 (en) Control device, control method, and computer program
CN109552665B (en) Method for measuring and inspecting structures using a catenary platform
US11048276B2 (en) Measuring device, control device for unmanned aerial vehicle and computer program product for controlling unmanned aerial vehicle
JP6658532B2 (en) Control device, control method, and flying object device
JP2023130439A (en) Flight information control method, information processing device, and computer program
US20170248948A1 (en) Flying Vehicle Tracking Method, Flying Vehicle Image Acquiring Method, Flying Vehicle Displaying Method and Flying Vehicle Guiding System
JP6707933B2 (en) Unmanned flight device control system, unmanned flight device control method, and unmanned flight device
CN108474653B (en) Three-dimensional measurement device and measurement support processing method thereof
JP7044293B2 (en) Equipment inspection system
CN110402368A (en) The Inertial Sensor System of the view-based access control model of integrated form in vehicle navigation
JP2017174159A (en) Pilotless flight device control system, pilotless flight device controlling method, and image projector
KR101853127B1 (en) Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium
EP4063985A1 (en) Aerial inspection system
US20220026208A1 (en) Surveying system, surveying method, and surveying program
JP7031698B2 (en) Unmanned flight device control system and unmanned flight device control method
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
CN106127736A (en) One is parked detection method and processor
JP6733247B2 (en) Unmanned Flight Device Control System, Unmanned Flight Device Control Method, and Image Projection Device
JP2017201281A (en) Automatic collimation method with surveying instrument and automatic collimation device
JP2021155179A (en) Photographing system and program for crane
JP2021047744A (en) Information processing device, information processing method and information processing program
KR102504743B1 (en) Position correction device and correction method of inspection drone based on the model of the facility

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6707933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150