JPWO2018193574A1 - Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium - Google Patents

Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium Download PDF

Info

Publication number
JPWO2018193574A1
JPWO2018193574A1 JP2019513156A JP2019513156A JPWO2018193574A1 JP WO2018193574 A1 JPWO2018193574 A1 JP WO2018193574A1 JP 2019513156 A JP2019513156 A JP 2019513156A JP 2019513156 A JP2019513156 A JP 2019513156A JP WO2018193574 A1 JPWO2018193574 A1 JP WO2018193574A1
Authority
JP
Japan
Prior art keywords
imaging
flight path
processing unit
imaging position
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019513156A
Other languages
Japanese (ja)
Other versions
JP6765512B2 (en
Inventor
磊 顧
磊 顧
宗耀 瞿
宗耀 瞿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JPWO2018193574A1 publication Critical patent/JPWO2018193574A1/en
Application granted granted Critical
Publication of JP6765512B2 publication Critical patent/JP6765512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0052Navigation or guidance aids for a single aircraft for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain

Abstract

被写体を撮像する飛行体の飛行経路を生成する飛行経路生成方法は、被写体に含まれるオブジェクトの概略形状を取得するステップと、概略形状における側面を抽出するステップと、側面に対応する撮像位置を設定するステップと、撮像位置を通過する飛行経路を生成するステップと、を有する。A flight path generation method for generating a flight path of a flying object imaging a subject includes a step of obtaining a schematic shape of an object included in the subject, a step of extracting a side surface in the schematic shape, and setting an imaging position corresponding to the side surface. And generating a flight path passing through the imaging position.

Description

本開示は、飛行体の飛行経路を生成するための飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体に関する。   The present disclosure relates to a flight path generation method, an information processing device, a flight path generation system, a program, and a recording medium for generating a flight path of a flying object.

撮影機器を搭載し、予め設定された固定経路を飛行しながら撮影を行うプラットフォーム(例えば無人飛行体)が知られている(例えば特許文献1参照)。このプラットフォームは、地上基地から飛行経路や撮影指示等の命令を受け、その命令に従って飛行し、撮影を行って取得画像を地上基地に送る。プラットフォームは、撮影対象を撮影する場合、設定された固定経路を飛行しながら、プラットフォームと撮影対象との位置関係に基づいて、プラットフォームの撮像機器を傾斜して撮像する。   2. Description of the Related Art There is known a platform (for example, an unmanned aerial vehicle) that carries a photographing device and performs photographing while flying on a preset fixed route (for example, see Patent Document 1). The platform receives commands such as a flight path and a shooting instruction from the ground base, flies according to the instructions, performs shooting, and sends the acquired image to the ground base. When capturing an imaging target, the platform inclines and captures an imaging device of the platform based on the positional relationship between the platform and the imaging target while flying along a set fixed path.

また従来、空中を飛行する無人飛行体(例えばUAV:Unmanned Aerial Vehicle)により撮影された空中写真等の撮像画像に基づいて、建物等の被写体の3次元形状を推定することも知られている。無人飛行体による撮影(例えば空撮)を自動化するために、予め無人飛行体の飛行経路を生成する技術が用いられる。従って、無人飛行体を用いて建物等の被写体の3次元形状を推定するためには、予め生成した飛行経路に従って無人飛行体を飛行させ、無人飛行体が飛行経路中の異なる撮像位置において撮影した被写体の撮像画像を複数取得する必要がある。   Conventionally, it is also known to estimate a three-dimensional shape of a subject such as a building based on a captured image such as an aerial photograph taken by an unmanned aerial vehicle (for example, UAV: Unmanned Aerial Vehicle) flying in the air. In order to automate photographing (for example, aerial photography) using an unmanned aerial vehicle, a technique for generating a flight path of the unmanned aerial vehicle in advance is used. Therefore, in order to estimate the three-dimensional shape of a subject such as a building using an unmanned aerial vehicle, the unmanned aerial vehicle was caused to fly according to a previously generated flight path, and the unmanned aerial vehicle was photographed at different imaging positions in the flight path. It is necessary to acquire a plurality of captured images of a subject.

日本国特開2010−61216号公報Japanese Patent Application Laid-Open No. 2010-61216

特許文献1に記載されたプラットフォームでは、固定経路を通りながら撮像するが、固定経路から鉛直方向に位置するオブジェクト(例えば建物)の存在を十分に考慮されていない。そのため、オブジェクトの側面の撮像画像や上空から観察可能なオブジェクトの一部に隠された他の一部の撮像画像を十分に取得することが困難である。従って、3次元形状を推定するための撮像画像が不足し、3次元形状の推定精度が低下する。   In the platform described in Patent Literature 1, an image is taken while passing through a fixed path, but the existence of an object (for example, a building) positioned vertically from the fixed path is not sufficiently considered. Therefore, it is difficult to sufficiently obtain a captured image of the side surface of the object or another captured image hidden by a part of the object that can be observed from above. Therefore, the number of captured images for estimating the three-dimensional shape is insufficient, and the estimation accuracy of the three-dimensional shape is reduced.

オブジェクトの側面を撮像する場合、撮像者が撮像装置を把持してオブジェクトの側面を撮像することが考えられる。この場合、ユーザがオブジェクトの周辺まで移動する必要があるため、ユーザの利便性が低下する。また、ユーザ手動による撮像となるため、所望の状態(例えばオブジェクトの所望の撮像位置、オブジェクトの所望の撮像サイズ、オブジェクトの所望の撮像向き)の撮像画像を十分に取得できない可能性がある。   When capturing an image of the side surface of an object, it is conceivable that a photographer grasps the imaging device and captures an image of the side surface of the object. In this case, since the user needs to move to the periphery of the object, the convenience of the user is reduced. In addition, since the imaging is manually performed by the user, there is a possibility that a captured image in a desired state (for example, a desired imaging position of the object, a desired imaging size of the object, a desired imaging direction of the object) cannot be sufficiently acquired.

また、特定のオブジェクトの側面を無人航空機により撮像する場合、無人航空機が飛行する飛行経路を事前に手動で決定することが考えらえる。オブジェクトの周囲における所望の位置を撮像位置として指定する場合、3次元空間の位置(緯度、経度、高度)をユーザ入力して指定することが考えられる。この場合、各撮像位置をユーザ入力により決定するので、ユーザの利便性が低下する。また、飛行経路の決定のために、事前にオブジェクトの詳細な情報が必要となるので、準備に手間がかかる。   In the case where the side surface of a specific object is imaged by an unmanned aerial vehicle, it is conceivable that the flight path of the unmanned aerial vehicle is manually determined in advance. When a desired position around an object is designated as an imaging position, it is conceivable that a position (latitude, longitude, altitude) in a three-dimensional space is designated by a user input. In this case, since each imaging position is determined by a user input, user convenience is reduced. In addition, detailed information of the object is required in advance for determining the flight path, so that preparation is troublesome.

一態様において、被写体を撮像する飛行体の飛行経路を生成する飛行経路生成方法であって、被写体に含まれるオブジェクトの概略形状を取得するステップと、概略形状における側面を抽出するステップと、側面に対応する撮像位置を設定するステップと、撮像位置を通過する飛行経路を生成するステップと、を有する。   In one aspect, a flight path generation method for generating a flight path of a flying object that images a subject, the method including: obtaining a schematic shape of an object included in the subject; extracting a side surface in the general shape; Setting a corresponding imaging position; and generating a flight path passing through the imaging position.

撮像位置を設定するステップは、抽出した側面毎に、側面に対向する撮像位置を設定するステップを含んでよい。   The step of setting the imaging position may include, for each extracted side surface, setting an imaging position facing the side surface.

撮像位置を設定するステップは、側面に対応して、所定の撮像位置間隔を持つ複数の撮像位置を設定するステップを含んでよい。   The step of setting the imaging position may include a step of setting a plurality of imaging positions having a predetermined imaging position interval corresponding to the side surface.

飛行経路を生成するステップは、複数の撮像位置を通る撮影経路を決定し、撮影経路を含む飛行経路を生成するステップを含んでよい。   Generating the flight path may include determining an imaging path passing through the plurality of imaging positions and generating a flight path including the imaging path.

飛行経路生成方法は、側面に対して所定の撮影距離を有して平行する撮影平面を生成するステップ、を更に有し、撮像位置を設定するステップは、撮影平面において所定の撮像位置間隔を持つ複数の撮像位置を設定するステップを含んでよい。   The flight path generation method further includes a step of generating an imaging plane parallel to the side surface at a predetermined imaging distance, and the step of setting an imaging position has a predetermined imaging position interval in the imaging plane. The method may include a step of setting a plurality of imaging positions.

撮像位置を設定するステップは、所定の撮像位置間隔として、各撮像位置において撮像した撮像画像の一部が他と重複する撮像位置間隔を用いてよい。   The step of setting the imaging position may use, as the predetermined imaging position interval, an imaging position interval in which a part of an image captured at each imaging position overlaps with another.

飛行経路生成方法は、オブジェクトの概略形状を囲む多面体を算出するステップ、を更に有し、側面を抽出するステップは、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出するステップを含んでよい。   The flight path generation method further includes a step of calculating a polyhedron surrounding a schematic shape of the object, and the step of extracting a side surface includes a surface along the vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction. May be extracted as an aspect.

飛行経路生成方法は、オブジェクトの概略形状を簡略化した多面体を算出するステップ、を更に有し、側面を抽出するステップは、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出するステップを含んでよい。   The flight path generation method further includes a step of calculating a polyhedron in which the schematic shape of the object is simplified, and the step of extracting the side surface includes a step of extracting a side surface of the polyhedron along a vertical direction or a predetermined angle range in the vertical direction. The method may include a step of extracting the cut surface as a side surface.

多面体を算出するステップは、オブジェクトの複数の概略形状に対応する多面体をそれぞれ算出し、近接する複数の多面体を結合するステップを含んでよい。   The step of calculating a polyhedron may include a step of calculating a polyhedron corresponding to a plurality of schematic shapes of the object, and combining a plurality of adjacent polyhedrons.

飛行経路を生成するステップは、一つの前記側面において撮像位置を通過する飛行経路を生成し、側面と隣接する次の側面において撮像位置を通過する飛行経路を生成するステップを含んでよい。   Generating a flight path may include generating a flight path that passes through the imaging position on one of the side surfaces, and generating a flight path that passes through the imaging position on the next side surface adjacent to the side surface.

飛行経路生成方法は、オブジェクトを下向きに撮像した撮像画像を取得するステップ、を更に有し、概略形状を取得するステップは、撮像画像を用いてオブジェクトの概略形状の3次元形状データを取得するステップを含んでよい。   The flight path generation method further includes a step of acquiring a captured image of the object facing downward, and the step of acquiring the schematic shape includes a step of acquiring three-dimensional shape data of the schematic shape of the object using the captured image. May be included.

一態様において、被写体を撮像する飛行体の飛行経路を生成する情報処理装置であって、飛行経路に関する処理を実行する処理部を有し、処理部は、被写体に含まれるオブジェクトの概略形状を取得し、概略形状における側面を抽出し、側面に対応する撮像位置を設定し、撮像位置を通過する飛行経路を生成する、情報処理装置である。   In one aspect, an information processing device that generates a flight path of a flying object that captures an image of a subject includes a processing unit that executes a process related to the flight path, and the processing unit obtains a schematic shape of an object included in the subject. This is an information processing apparatus that extracts a side surface in a schematic shape, sets an imaging position corresponding to the side surface, and generates a flight path passing through the imaging position.

処理部は、撮像位置の設定において、抽出した側面毎に、側面に対向する撮像位置を設定してよい。   The processing unit may set an imaging position facing the side surface for each extracted side surface in setting the imaging position.

処理部は、撮像位置の設定において、側面に対応して、所定の撮像位置間隔を持つ複数の撮像位置を設定してよい。   In the setting of the imaging position, the processing unit may set a plurality of imaging positions with a predetermined imaging position interval corresponding to the side surface.

処理部は、飛行経路の生成において、複数の撮像位置を通る撮影経路を決定し、撮影経路を含む飛行経路を生成してよい。   In generating the flight path, the processing unit may determine an imaging path passing through a plurality of imaging positions and generate a flight path including the imaging path.

処理部は、更に、側面に対して所定の撮影距離を有して平行する撮影平面を生成し、撮像位置の設定において、撮影平面において所定の撮像位置間隔を持つ複数の撮像位置を設定してよい。   The processing unit further generates an imaging plane parallel to the side surface at a predetermined imaging distance and sets a plurality of imaging positions having a predetermined imaging position interval on the imaging plane in setting the imaging position. Good.

処理部は、撮像位置の設定において、所定の撮像位置間隔として、各撮像位置において撮像した撮像画像の一部が他と重複する撮像位置間隔を用いてよい。   In the setting of the imaging position, the processing unit may use, as the predetermined imaging position interval, an imaging position interval in which a part of an image captured at each imaging position overlaps with another.

処理部は、更に、オブジェクトの概略形状を囲む多面体を算出し、側面の抽出において、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出してよい。   The processing unit may further calculate a polyhedron surrounding the approximate shape of the object, and extract a side along a vertical direction or a surface standing within a predetermined angle range in the vertical direction in the polyhedron in the side surface extraction.

処理部は、更に、オブジェクトの概略形状を簡略化した多面体を算出し、側面の抽出において、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出してよい。   The processing unit further calculates a polyhedron in which the schematic shape of the object is simplified, and in the extraction of the side surface, extracts a surface along the vertical direction in the polyhedron or a surface standing within a predetermined angle range in the vertical direction as the side surface. Good.

処理部は、多面体の算出において、オブジェクトの複数の概略形状に対応する多面体をそれぞれ算出し、近接する複数の多面体を結合してよい。   In the calculation of the polyhedron, the processing unit may calculate a polyhedron corresponding to a plurality of schematic shapes of the object, respectively, and combine a plurality of adjacent polyhedrons.

処理部は、飛行経路の生成において、一つの前記側面において撮像位置を通過する飛行経路を生成し、側面と隣接する次の側面において撮像位置を通過する飛行経路を生成してよい。   In generating the flight path, the processing unit may generate a flight path that passes through the imaging position on one of the side surfaces, and may generate a flight path that passes through the imaging position on the next side surface adjacent to the side surface.

処理部は、更に、オブジェクトを下向きに撮像した撮像画像を取得し、概略形状の取得において、撮像画像を用いてオブジェクトの概略形状の3次元形状データを取得してよい。   The processing unit may further obtain a captured image obtained by capturing the object downward, and may obtain three-dimensional shape data of the general shape of the object using the captured image in obtaining the general shape.

一態様において、被写体を撮像する飛行体と、飛行体の飛行経路を生成する処理部と、を有する飛行経路生成システムであって、処理部は、被写体に含まれるオブジェクトの概略形状を取得し、概略形状における側面を抽出し、側面に対応する撮像位置を設定し、撮像位置を通過する飛行経路を生成し、飛行体は、飛行経路を取得して設定する、飛行経路生成システムである。   In one aspect, a flight object that captures an image of a subject, and a processing unit that generates a flight path of the flying object, is a flight path generation system, wherein the processing unit acquires a schematic shape of an object included in the subject, A flight path generation system that extracts a side surface in a schematic shape, sets an imaging position corresponding to the side surface, generates a flight path passing through the imaging position, and acquires and sets the flight path of the flying object.

一態様において、プログラムは、被写体を撮像する飛行体の飛行経路を生成するコンピュータに、被写体に含まれるオブジェクトの概略形状を取得するステップと、概略形状における側面を抽出するステップと、側面に対応する撮像位置を設定するステップと、撮像位置を通過する飛行経路を生成するステップと、を実行させるためのプログラムである。   In one aspect, the program corresponds to a step of obtaining a schematic shape of an object included in the subject, extracting a side surface in the schematic shape, and a computer, the computer generating a flight path of the flying object imaging the subject. A program for executing a step of setting an imaging position and a step of generating a flight path passing through the imaging position.

一態様において、記録媒体は、被写体を撮像する飛行体の飛行経路を生成するコンピュータに、被写体に含まれるオブジェクトの概略形状を取得するステップと、概略形状における側面を抽出するステップと、側面に対応する撮像位置を設定するステップと、撮像位置を通過する飛行経路を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。   In one aspect, a recording medium includes: a computer that generates a flight path of a flying object that images a subject; obtaining a schematic shape of an object included in the subject; extracting a side surface in the schematic shape; A computer-readable recording medium storing a program for executing a step of setting an imaging position to be executed and a step of generating a flight path passing through the imaging position.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the above summary of the present invention does not list all of the features of the present disclosure. Further, a sub-combination of these feature groups can also be an invention.

実施形態における飛行経路生成システムの第1構成例を示す模式図である。FIG. 1 is a schematic diagram illustrating a first configuration example of a flight path generation system according to an embodiment. 無人飛行体の外観の一例を示す図である。It is a figure showing an example of the appearance of an unmanned aerial vehicle. 無人飛行体の具体的な外観の一例を示す図である。It is a figure showing an example of the concrete appearance of an unmanned aerial vehicle. 図1の飛行経路生成システムを構成する無人飛行体のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of an unmanned aerial vehicle included in the flight route generation system in FIG. 1. 携帯端末が装着された送信機の外観の一例を示す図である。It is a figure showing an example of appearance of a transmitter with which a personal digital assistant was attached. 図1の飛行経路生成システムを構成する送信機のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of a transmitter included in the flight route generation system in FIG. 1. 図1の飛行経路生成システムを構成する携帯端末のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of a mobile terminal included in the flight route generation system in FIG. 1. 実施形態における飛行経路生成方法の処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of a flight route generation method according to the embodiment. 飛行範囲の入力例を説明するための図である。It is a figure for explaining an example of input of a flight range. 飛行経路での概略撮像を説明するための図である。FIG. 3 is a diagram for explaining schematic imaging on a flight path. 飛行経路により得られた概略撮像に基づく概略形状の3次元形状データの生成を説明するための図である。It is a figure for explaining generation of three-dimensional shape data of an outline shape based on an outline imaging obtained by a flight course. 実施形態における3次元形状推定方法の処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of a three-dimensional shape estimation method according to the embodiment. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第1動作例を説明するための図である。FIG. 9 is a diagram for describing a first operation example of flight path generation using a schematic shape of an object in the embodiment. 撮影平面における複数の撮像位置の設定を説明するための図である。FIG. 4 is a diagram for describing setting of a plurality of imaging positions on an imaging plane. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第1動作例の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of a first operation example of generating a flight path using a schematic shape of an object according to the embodiment. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第2動作例を説明するための図である。FIG. 9 is a diagram for describing a second operation example of generating a flight path using a schematic shape of an object in the embodiment. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第2動作例の処理手順を示すフローチャートである。9 is a flowchart illustrating a processing procedure of a second operation example of generating a flight path using a schematic shape of an object according to the embodiment. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第3動作例を説明するための図である。FIG. 11 is a diagram for describing a third operation example of generating a flight path using a schematic shape of an object in the embodiment. 実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第3動作例の処理手順を示すフローチャートである。11 is a flowchart illustrating a processing procedure of a third operation example of generating a flight path using a schematic shape of an object according to the embodiment. 実施形態における飛行経路生成システムの第2構成例を示す模式図である。FIG. 3 is a schematic diagram illustrating a second configuration example of the flight path generation system according to the embodiment. 実施形態における飛行経路生成システムの第3構成例に係る無人飛行体のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of hardware constitutions of an unmanned aerial vehicle concerning a 3rd example of composition of a flight course generating system in an embodiment. 実施形態における飛行経路生成システムの第4構成例に係る送信機のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of hardware constitutions of a transmitter concerning a 4th example of composition of a flight course generating system in an embodiment.

以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, the present disclosure will be described through embodiments of the present invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of the features described in the embodiments are necessarily essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters covered by copyright. The copyright owner will not object to any person's reproduction of these documents, as indicated in the JPO file or record. However, in all other cases, all copyrights are reserved.

本開示に係る飛行経路生成システムは、移動体の一例としての飛行体と、飛行体の動作又は処理を遠隔で制御するためのプラットフォームとを含む構成である。   A flight path generation system according to the present disclosure is configured to include a flying object as an example of a moving object, and a platform for remotely controlling operation or processing of the flying object.

本開示に係る情報処理装置は、プラットフォームと、飛行体との少なくとも一方に含まれるコンピュータであって、飛行体の動作に係る各種処理を実行するものである。   An information processing device according to the present disclosure is a computer included in at least one of a platform and a flying object, and executes various processes related to the operation of the flying object.

飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、撮像装置を有する無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、撮像範囲における被写体(例えば一定の範囲内の建物、道路、公園等の地面形状)を撮像するために、あらかじめ設定された飛行経路に沿って飛行し、飛行経路上に設定されている複数の撮像位置において被写体を撮像する。被写体は、例えば建物、道路等のオブジェクトが含まれる。   Flying vehicles include airborne vehicles (eg, drones, helicopters). The flying object may be an unmanned aerial vehicle (UAV) having an imaging device. The flying object flies along a preset flight path in order to image a subject (for example, a ground shape of a building, a road, a park, or the like within a certain range) in the imaging range, and is set on the flight path. The subject is imaged at a plurality of imaging positions. The subject includes, for example, an object such as a building or a road.

プラットフォームは、コンピュータであって、例えば飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、或いは送信機又は飛行体と情報やデータの入出力が可能に接続された通信端末である。通信端末は、例えば携帯端末、PC(Personal Computer)などであってよい。なお、飛行体自体がプラットフォームとして含まれてよい。   The platform is a computer, for example, a transmitter for instructing remote control of various processes including movement of the flying object, or a communication terminal connected to the transmitter or the flying object so that information and data can be input and output. is there. The communication terminal may be, for example, a mobile terminal, a PC (Personal Computer), or the like. Note that the flying object itself may be included as a platform.

本開示に係る飛行経路生成方法は、情報処理装置(プラットフォーム、飛行体)、又は飛行経路生成システムにおける各種の処理(ステップ)が規定されたものである。   In the flight route generation method according to the present disclosure, various processes (steps) in the information processing device (platform, flying object) or the flight route generation system are defined.

本開示に係るプログラムは、情報処理装置(プラットフォーム、飛行体)、又は飛行経路生成システムに各種の処理(ステップ)を実行させるためのプログラムである。   A program according to the present disclosure is a program for causing an information processing device (platform, flying object) or a flight route generation system to execute various processes (steps).

本開示に係る記録媒体は、プログラム(つまり、情報処理装置(プラットフォーム、飛行体)、又は飛行経路生成システムに各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。   A recording medium according to the present disclosure has recorded thereon a program (that is, a program for causing an information processing device (platform, flying object) or a flight path generation system to execute various processes (steps)).

以下の実施形態では、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。本実施形態では、無人飛行体は、オブジェクトの側面を撮像可能な撮像位置を含む飛行経路を設定する。   In the following embodiments, an unmanned aerial vehicle (UAV) will be exemplified as a vehicle. In the drawings attached to this specification, the unmanned aerial vehicle is referred to as “UAV”. In the present embodiment, the unmanned aerial vehicle sets a flight path including an imaging position where the side surface of the object can be imaged.

[飛行経路生成システム、第1構成例]
図1は、実施形態における飛行経路生成システム10の第1構成例を示す模式図である。飛行経路生成システム10は、無人飛行体100、送信機50、及び携帯端末80を含む。無人飛行体100、送信機50、及び携帯端末80は、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、互いに通信することが可能である。送信機50は、例えば送信機50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。
[Flying path generation system, first configuration example]
FIG. 1 is a schematic diagram illustrating a first configuration example of a flight route generation system 10 according to the embodiment. The flight path generation system 10 includes an unmanned aerial vehicle 100, a transmitter 50, and a mobile terminal 80. The unmanned aerial vehicle 100, the transmitter 50, and the mobile terminal 80 can communicate with each other using wired communication or wireless communication (for example, wireless LAN (Local Area Network) or Bluetooth (registered trademark)). The transmitter 50 is used, for example, while being held by both hands of a person who uses the transmitter 50 (hereinafter, referred to as a “user”).

図2は、無人飛行体100の外観の一例を示す図である。図3は、無人飛行体100の具体的な外観の一例を示す図である。無人飛行体100が移動方向STV0に飛行する時の側面図が図2に示され、無人飛行体100が移動方向STV0に飛行する時の斜視図が図3に示されている。無人飛行体100は、撮像部の一例としての撮像装置220,230を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2及び図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2及び図3のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2及び図3のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2及び図3のz軸)が定められる。   FIG. 2 is a diagram illustrating an example of the appearance of the unmanned aerial vehicle 100. FIG. 3 is a diagram illustrating an example of a specific appearance of the unmanned aerial vehicle 100. A side view when the unmanned aerial vehicle 100 flies in the movement direction STV0 is shown in FIG. 2, and a perspective view when the unmanned aerial vehicle 100 flies in the movement direction STV0 is shown in FIG. The unmanned aerial vehicle 100 is an example of a moving object that includes imaging devices 220 and 230 as an example of an imaging unit and moves. The moving body is a concept including, in addition to the unmanned aerial vehicle 100, another aircraft moving in the air, a vehicle moving on the ground, a ship moving on water, and the like. Here, as shown in FIGS. 2 and 3, it is assumed that a roll axis (see the x-axis in FIGS. 2 and 3) is defined in a direction parallel to the ground and along the movement direction STV0. In this case, a pitch axis (see the y-axis in FIGS. 2 and 3) is defined in a direction parallel to the ground and perpendicular to the roll axis, and further a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. The yaw axis (the z-axis in FIGS. 2 and 3) is determined.

無人飛行体100は、UAV本体102と、ジンバル200と、撮像装置220と、複数の撮像装置230とを含む構成である。無人飛行体100は、プラットフォームの一例としての送信機50から送信される遠隔制御の指示を基に移動する。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。   The unmanned aerial vehicle 100 is configured to include a UAV main body 102, a gimbal 200, an imaging device 220, and a plurality of imaging devices 230. The unmanned aerial vehicle 100 moves based on a remote control instruction transmitted from a transmitter 50 as an example of a platform. The movement of the unmanned aerial vehicle 100 means a flight, and includes at least ascending, descending, turning left, turning right, moving left horizontally, and moving right horizontal.

UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人飛行体100を移動させる。UAV本体102は、例えば4つの回転翼を用いて無人飛行体100を移動させる。回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。   The UAV main body 102 includes a plurality of rotors (propellers). The UAV body 102 moves the unmanned aerial vehicle 100 by controlling the rotation of a plurality of rotors. The UAV main body 102 moves the unmanned aerial vehicle 100 using, for example, four rotors. The number of rotors is not limited to four. Further, the unmanned aerial vehicle 100 may be a fixed wing aircraft having no rotary wing.

撮像装置220は、所望の撮像範囲に含まれる被写体(例えば、地上の建物)を撮像する撮像用のカメラである。なお被写体は、例えば建物等のオブジェクトとともに、無人飛行体100の空撮対象となる上空の様子、山や川等の景色が含まれてよい。   The imaging device 220 is an imaging camera for imaging a subject (for example, a building on the ground) included in a desired imaging range. The subject may include, for example, an object such as a building, as well as a state of the sky as an aerial photograph target of the unmanned aerial vehicle 100 and scenery such as a mountain or a river.

複数の撮像装置230は、無人飛行体100の移動を制御するために無人飛行体100の周囲を撮像するセンシング用のカメラである。2つの撮像装置230が、無人飛行体100の機首である正面に設けられてよい。更に、他の2つの撮像装置230が、無人飛行体100の底面に設けられてよい。正面側の2つの撮像装置230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置230もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置230により撮像された画像に基づいて、無人飛行体100の周囲の3次元空間データが生成されてよい。なお、無人飛行体100が備える撮像装置230の数は4つに限定されない。無人飛行体100は、少なくとも1つの撮像装置230を備えていればよい。無人飛行体100は、無人飛行体100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置230を備えてよい。撮像装置230で設定できる画角は、撮像装置220で設定できる画角より広くてよい。撮像装置230は、単焦点レンズ又は魚眼レンズを有してよい。   The plurality of imaging devices 230 are sensing cameras that image the periphery of the unmanned aerial vehicle 100 in order to control the movement of the unmanned aerial vehicle 100. Two imaging devices 230 may be provided in front of the unmanned aerial vehicle 100, which is the nose. Further, two other imaging devices 230 may be provided on the bottom surface of the unmanned aerial vehicle 100. The two imaging devices 230 on the front side may be paired and function as a so-called stereo camera. The two imaging devices 230 on the bottom side may also be paired and function as a stereo camera. Three-dimensional spatial data around the unmanned aerial vehicle 100 may be generated based on images captured by the plurality of imaging devices 230. Note that the number of imaging devices 230 included in the unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one imaging device 230. The unmanned aerial vehicle 100 may include at least one imaging device 230 on each of the nose, the nose, the side surface, the bottom surface, and the ceiling surface of the unmanned aerial vehicle 100. The angle of view that can be set by the imaging device 230 may be wider than the angle of view that can be set by the imaging device 220. The imaging device 230 may include a single focus lens or a fisheye lens.

[無人飛行体の構成例]
次に、無人飛行体100の構成例について説明する。
[Configuration example of unmanned aerial vehicle]
Next, a configuration example of the unmanned aerial vehicle 100 will be described.

図4は、図1の飛行経路生成システム10を構成する無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、処理部110と、通信インタフェース150と、メモリ160と、ストレージ170と、バッテリ190と、ジンバル200と、回転翼機構210と、撮像装置220と、撮像装置230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザ測定器290とを含む構成である。通信インタフェース150は、通信部の一例である。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the unmanned aerial vehicle 100 included in the flight route generation system 10 of FIG. The unmanned aerial vehicle 100 includes a processing unit 110, a communication interface 150, a memory 160, a storage 170, a battery 190, a gimbal 200, a rotary wing mechanism 210, an imaging device 220, an imaging device 230, and a GPS reception device. The apparatus includes an instrument 240, an inertial measurement unit (IMU: Inertial Measurement Unit) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290. The communication interface 150 is an example of a communication unit.

処理部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。処理部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The processing unit 110 is configured using a processor, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The processing unit 110 performs signal processing for integrally controlling the operation of each unit of the unmanned aerial vehicle 100, data input / output processing with other units, data calculation processing, and data storage processing.

処理部110は、メモリ160に格納されたプログラムに従って無人飛行体100の飛行を制御する。処理部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。メモリ160は、無人飛行体100から取り外し可能であってよい。   The processing unit 110 controls the flight of the unmanned aerial vehicle 100 according to a program stored in the memory 160. The processing unit 110 controls the movement (i.e., flight) of the unmanned aerial vehicle 100 according to a command received from the remote transmitter 50 via the communication interface 150. Memory 160 may be removable from unmanned aerial vehicle 100.

処理部110は、撮像装置220及び撮像装置230により撮像された被写体の画像データ(以下、「撮像画像」と称する場合がある)を取得する。   The processing unit 110 acquires image data of a subject captured by the imaging device 220 and the imaging device 230 (hereinafter, may be referred to as “captured image”).

処理部110は、ジンバル200、回転翼機構210、撮像装置220、及び撮像装置230を制御する。処理部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。処理部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像装置220の撮像範囲を制御する。   The processing unit 110 controls the gimbal 200, the rotary wing mechanism 210, the imaging device 220, and the imaging device 230. The processing unit 110 controls the imaging range of the imaging device 220 by changing the imaging direction or the angle of view of the imaging device 220. The processing unit 110 controls an imaging range of the imaging device 220 supported by the gimbal 200 by controlling a rotation mechanism of the gimbal 200.

本明細書では、撮像範囲は、撮像装置220又は撮像装置230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、撮像装置220又は撮像装置230の画角及び撮像方向、並びに無人飛行体100が存在する位置に基づいて特定される。撮像装置220及び撮像装置230の撮像方向は、撮像装置220及び撮像装置230の撮像レンズが設けられた正面が向く方位と俯角とから定義される。撮像装置220の撮像方向は、無人飛行体100の機首の方位と、ジンバル200に対する撮像装置220の姿勢の状態とから特定される方向である。撮像装置230の撮像方向は、無人飛行体100の機首の方位と、撮像装置230が設けられた位置とから特定される方向である。   In the present specification, the imaging range refers to a geographical area captured by the imaging device 220 or the imaging device 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range is specified based on the angle of view and imaging direction of the imaging device 220 or the imaging device 230, and the position where the unmanned aerial vehicle 100 exists. The imaging direction of the imaging device 220 and the imaging device 230 is defined by the azimuth of the front of the imaging device 220 and the imaging device 230 provided with the imaging lens and the depression angle. The imaging direction of the imaging device 220 is a direction specified from the azimuth of the nose of the unmanned aerial vehicle 100 and the state of the attitude of the imaging device 220 with respect to the gimbal 200. The imaging direction of the imaging device 230 is a direction specified from the azimuth of the nose of the unmanned aerial vehicle 100 and the position where the imaging device 230 is provided.

処理部110は、回転翼機構210を制御することで、無人飛行体100の飛行を制御する。つまり、処理部110は、回転翼機構210を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置を制御する。処理部110は、無人飛行体100の飛行を制御することにより、撮像装置220及び撮像装置230の撮像範囲を制御してよい。処理部110は、撮像装置220が備えるズームレンズを制御することで、撮像装置220の画角を制御してよい。処理部110は、撮像装置220のデジタルズーム機能を利用して、デジタルズームにより、撮像装置220の画角を制御してよい。処理部110は、設定した飛行経路の途中に存在する撮像位置(後述するウェイポイント(Waypoint))において、撮像装置220又は撮像装置230により被写体を水平方向、既定角度の方向、又は鉛直方向に撮像させる。既定角度の方向は、情報処理装置(無人飛行体又はプラットフォーム)が被写体の3次元形状の推定を行う上で適した既定値の角度の方向である。   The processing unit 110 controls the flight of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. That is, the processing unit 110 controls the position of the unmanned aerial vehicle 100 including the latitude, longitude, and altitude by controlling the rotary wing mechanism 210. The processing unit 110 may control the imaging range of the imaging device 220 and the imaging device 230 by controlling the flight of the unmanned aerial vehicle 100. The processing unit 110 may control the angle of view of the imaging device 220 by controlling the zoom lens included in the imaging device 220. The processing unit 110 may use the digital zoom function of the imaging device 220 to control the angle of view of the imaging device 220 by digital zoom. The processing unit 110 captures an image of a subject in a horizontal direction, a predetermined angle direction, or a vertical direction by the imaging device 220 or the imaging device 230 at an imaging position (waypoint (Waypoint) described later) existing in the middle of the set flight path. Let it. The direction of the predetermined angle is a direction of the predetermined angle suitable for the information processing apparatus (unmanned aerial vehicle or platform) to estimate the three-dimensional shape of the subject.

撮像装置220が無人飛行体100に固定され、撮像装置220を動かせない場合、処理部110は、特定の日時に特定の位置に無人飛行体100を移動させることにより、所望の環境下で所望の撮像範囲を撮像装置220に撮像させることができる。あるいは撮像装置220がズーム機能を有さず、撮像装置220の画角を変更できない場合でも、処理部110は、特定された日時に、特定の位置に無人飛行体100を移動させることで、所望の環境下で所望の撮像範囲を撮像装置220に撮像させることができる。   When the imaging device 220 is fixed to the unmanned aerial vehicle 100 and the imaging device 220 cannot be moved, the processing unit 110 moves the unmanned aerial vehicle 100 to a specific position at a specific date and time to obtain a desired image under a desired environment. The imaging range can be imaged by the imaging device 220. Alternatively, even when the image capturing apparatus 220 does not have a zoom function and the angle of view of the image capturing apparatus 220 cannot be changed, the processing unit 110 moves the unmanned aerial vehicle 100 to a specific position on the specified date and time. Under the above environment, a desired imaging range can be imaged by the imaging device 220.

通信インタフェース150は、送信機50と通信する。通信インタフェース150は、遠隔の送信機50から処理部110に対する各種の命令を受信する。   The communication interface 150 communicates with the transmitter 50. The communication interface 150 receives various commands to the processing unit 110 from the remote transmitter 50.

メモリ160は、記憶部の一例である。メモリ160は、処理部110がジンバル200、回転翼機構210、撮像装置220、撮像装置230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザ測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、撮像装置220,230により撮像された撮像画像を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102の内部に設けられてよい。UAV本体102から取り外し可能に設けられてよい。   The memory 160 is an example of a storage unit. In the memory 160, the processing unit 110 includes a gimbal 200, a rotary wing mechanism 210, an imaging device 220, an imaging device 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and laser measurement. And a program necessary for controlling the device 290. The memory 160 stores the images captured by the imaging devices 220 and 230. The memory 160 may be a computer-readable recording medium, such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of a flash memory such as a USB memory. The memory 160 may be provided inside the UAV body 102. It may be provided detachably from the UAV body 102.

ストレージ170は、記憶部の一例である。ストレージ170は、各種データ、情報を蓄積し、保持する。ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ170は、UAV本体102の内部に設けられてよい。ストレージ170は、UAV本体102から取り外し可能に設けられてよい。   The storage 170 is an example of a storage unit. The storage 170 accumulates and holds various data and information. The storage 170 may be a hard disk drive (HDD), a solid state drive (SSD), a memory card, a USB memory, or the like. The storage 170 may be provided inside the UAV body 102. The storage 170 may be provided detachably from the UAV body 102.

バッテリ190は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。   The battery 190 has a function as a drive source for each unit of the unmanned aerial vehicle 100, and supplies necessary power to each unit of the unmanned aerial vehicle 100.

ジンバル200は、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。   The gimbal 200 rotatably supports the imaging device 220 about at least one axis. The gimbal 200 may rotatably support the imaging device 220 about a yaw axis, a pitch axis, and a roll axis. The gimbal 200 may change the imaging direction of the imaging device 220 by rotating the imaging device 220 about at least one of the yaw axis, the pitch axis, and the roll axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。   The rotary wing mechanism 210 includes a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades.

撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ、又はメモリ160に格納される。   The imaging device 220 captures an object in a desired imaging range and generates data of a captured image. Image data obtained by imaging by the imaging device 220 is stored in the memory of the imaging device 220 or the memory 160.

撮像装置230は、無人飛行体100の周囲を撮像して撮像画像のデータを生成する。撮像装置230の画像データは、メモリ160に格納される。   The imaging device 230 captures an image around the unmanned aerial vehicle 100 and generates data of a captured image. Image data of the imaging device 230 is stored in the memory 160.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報を処理部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりに処理部110により行われてよい。この場合、処理部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times transmitted from a plurality of navigation satellites (that is, GPS satellites) and a position (coordinate) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the received signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the processing unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the processing unit 110 instead of the GPS receiver 240. In this case, the processing unit 110 receives input of the time included in the plurality of signals received by the GPS receiver 240 and information indicating the position of each GPS satellite.

慣性計測装置250は、無人飛行体100の姿勢を検出し、検出結果を処理部110に出力する。慣性計測装置250は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。   Inertial measurement device 250 detects the attitude of unmanned aerial vehicle 100 and outputs the detection result to processing section 110. The inertial measurement device 250 calculates, as the attitude of the unmanned aerial vehicle 100, acceleration in the three axial directions of the unmanned aerial vehicle 100 in front and rear, left and right, and up and down, and angular velocities in three axial directions of a pitch axis, a roll axis, and a yaw axis. To detect.

磁気コンパス260は、無人飛行体100の機首の方位を検出し、検出結果を処理部110に出力する。   The magnetic compass 260 detects the azimuth of the nose of the unmanned aerial vehicle 100 and outputs the detection result to the processing unit 110.

気圧高度計270は、無人飛行体100が飛行する高度を検出し、検出結果を処理部110に出力する。   The barometric altimeter 270 detects the altitude at which the unmanned aerial vehicle 100 flies, and outputs the detection result to the processing unit 110.

超音波センサ280は、超音波を照射し、地面や物体により反射された超音波を検出し、検出結果を処理部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示してよい。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。   The ultrasonic sensor 280 emits ultrasonic waves, detects ultrasonic waves reflected by the ground or an object, and outputs a detection result to the processing unit 110. The detection result may indicate, for example, the distance (ie, altitude) from the unmanned aerial vehicle 100 to the ground. The detection result may indicate, for example, the distance from the unmanned aerial vehicle 100 to the object.

レーザ測定器290は、物体に向けてレーザ光を照射し、物体で反射された反射光を受光し、反射光により無人飛行体100と物体との間の距離を測距する。測距結果は、処理部110に入力される。レーザ光による距離の測定方式は、一例として、タイムオブフライト方式でよい。   The laser measuring device 290 irradiates the object with laser light, receives the light reflected by the object, and measures the distance between the unmanned aerial vehicle 100 and the object by the reflected light. The distance measurement result is input to the processing unit 110. As a method of measuring the distance by the laser beam, for example, a time-of-flight method may be used.

次に、無人飛行体100の処理部110の機能の一例について説明する。   Next, an example of the function of the processing unit 110 of the unmanned aerial vehicle 100 will be described.

処理部110は、複数の撮像装置230により撮像された複数の画像を解析することで、無人飛行体100の周囲の環境を特定してよい。処理部110は、無人飛行体100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御する。処理部110は、複数の撮像装置230により撮像された複数の画像に基づいて無人飛行体100の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。   The processing unit 110 may specify the environment around the unmanned aerial vehicle 100 by analyzing a plurality of images captured by the plurality of imaging devices 230. The processing unit 110 controls the flight while avoiding an obstacle, for example, based on the environment around the unmanned aerial vehicle 100. The processing unit 110 may generate three-dimensional space data around the unmanned aerial vehicle 100 based on a plurality of images captured by the plurality of imaging devices 230, and control flight based on the three-dimensional space data.

処理部110は、現在の日時を示す日時情報を取得する。処理部110は、GPS受信機240から現在の日時を示す日時情報を取得してよい。処理部110は、無人飛行体100に搭載されたタイマ(不図示)から現在の日時を示す日時情報を取得してよい。   The processing unit 110 acquires date and time information indicating the current date and time. The processing unit 110 may acquire date and time information indicating the current date and time from the GPS receiver 240. The processing unit 110 may obtain date and time information indicating the current date and time from a timer (not shown) mounted on the unmanned aerial vehicle 100.

処理部110は、無人飛行体100の位置を示す位置情報を取得する。処理部110は、GPS受信機240から、無人飛行体100が存在する緯度、経度及び高度を示す位置情報を取得してよい。処理部110は、GPS受信機240から無人飛行体100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270又は超音波センサ280から無人飛行体100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。   The processing unit 110 acquires position information indicating the position of the unmanned aerial vehicle 100. The processing unit 110 may acquire, from the GPS receiver 240, position information indicating the latitude, longitude, and altitude at which the unmanned aerial vehicle 100 exists. The processing unit 110 transmits, from the GPS receiver 240, latitude and longitude information indicating the latitude and longitude at which the unmanned aerial vehicle 100 is present, and altitude information indicating the altitude at which the unmanned aerial vehicle 100 is present from the barometric altimeter 270 or the ultrasonic sensor 280, respectively. It may be obtained as position information.

処理部110は、磁気コンパス260から無人飛行体100の向きを示す向き情報を取得してよい。向き情報は、例えば無人飛行体100の機首の向きに対応する方位を示してよい。   The processing unit 110 may obtain direction information indicating the direction of the unmanned aerial vehicle 100 from the magnetic compass 260. The direction information may indicate a direction corresponding to the direction of the nose of the unmanned aerial vehicle 100, for example.

処理部110は、撮像装置220が撮像すべき撮像範囲を撮像する時に無人飛行体100が存在すべき位置を示す位置情報を取得してよい。処理部110は、無人飛行体100が存在すべき位置を示す位置情報をメモリ160から取得してよい。処理部110は、無人飛行体100が存在すべき位置を示す位置情報を、通信インタフェース150を介して送信機50等の他の装置から取得してよい。処理部110は、3次元地図データベースを参照して、撮像すべき撮像範囲を撮像するために、無人飛行体100が存在可能な位置を特定して、その位置を無人飛行体100が存在すべき位置を示す位置情報として取得してよい。   The processing unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 should exist when the imaging device 220 captures an imaging range to be imaged. The processing unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 should exist from the memory 160. The processing unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 should exist from another device such as the transmitter 50 via the communication interface 150. The processing unit 110 refers to the three-dimensional map database, specifies a position where the unmanned aerial vehicle 100 can exist, and determines the position where the unmanned aerial vehicle 100 exists in order to image the imaging range to be imaged. You may acquire as position information which shows a position.

処理部110は、撮像装置220及び撮像装置230のそれぞれの撮像範囲を示す撮像情報を取得してよい。処理部110は、撮像範囲を特定するためのパラメータとして、撮像装置220及び撮像装置230の画角を示す画角情報を撮像装置220及び撮像装置230から取得してよい。処理部110は、撮像範囲を特定するためのパラメータとして、撮像装置220及び撮像装置230の撮像方向を示す情報を取得してよい。処理部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル200から撮像装置220の姿勢の状態を示す姿勢情報を取得してよい。撮像装置220の姿勢の状態を示す情報は、例えばジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度により示してよい。処理部110は、例えば撮像装置220の撮像方向を示す情報として、無人飛行体100の向きを示す情報を取得してよい。処理部110は、撮像範囲を特定するためのパラメータとして、無人飛行体100が存在する位置を示す位置情報を取得してよい。処理部110は、撮像装置220及び撮像装置230の画角及び撮像方向、並びに無人飛行体100が存在する位置に基づいて、撮像装置220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲を示す撮像情報を生成することで、撮像情報を取得してよい。   The processing unit 110 may acquire imaging information indicating an imaging range of each of the imaging device 220 and the imaging device 230. The processing unit 110 may acquire angle-of-view information indicating the angle of view of the imaging device 220 and the imaging device 230 from the imaging device 220 and the imaging device 230 as a parameter for specifying the imaging range. The processing unit 110 may acquire information indicating the imaging direction of the imaging device 220 and the imaging device 230 as a parameter for specifying the imaging range. The processing unit 110 may acquire posture information indicating the posture state of the imaging device 220 from the gimbal 200, for example, as information indicating the imaging direction of the imaging device 220. The information indicating the posture state of the imaging device 220 may be indicated by, for example, a rotation angle from a reference rotation angle of the pitch axis and the yaw axis of the gimbal 200. The processing unit 110 may acquire information indicating the direction of the unmanned aerial vehicle 100, for example, as information indicating the imaging direction of the imaging device 220. The processing unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 exists as a parameter for specifying the imaging range. The processing unit 110 defines an imaging range indicating a geographical range to be imaged by the imaging device 220 based on the angle of view and the imaging direction of the imaging device 220 and the imaging device 230, and the position where the unmanned aerial vehicle 100 exists. The imaging information may be acquired by generating imaging information indicating the imaging range.

処理部110は、撮像装置220が撮像すべき撮像範囲を示す撮像情報を取得してよい。処理部110は、メモリ160から撮像装置220が撮像すべき撮像情報を取得してよい。処理部110は、通信インタフェース150を介して送信機50等の他の装置から撮像装置220が撮像すべき撮像情報を取得してよい。   The processing unit 110 may acquire imaging information indicating an imaging range in which the imaging device 220 should image. The processing unit 110 may acquire imaging information to be imaged by the imaging device 220 from the memory 160. The processing unit 110 may acquire imaging information to be imaged by the imaging device 220 from another device such as the transmitter 50 via the communication interface 150.

処理部110は、無人飛行体100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得する。オブジェクトは、例えば、建物、道路、車、木等の風景の一部である。立体情報は、例えば、3次元空間データである。処理部110は、複数の撮像装置230から得られたそれぞれの画像から、無人飛行体100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。処理部110は、メモリ160に格納された3次元地図データベースを参照することにより、無人飛行体100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。処理部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人飛行体100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。   The processing unit 110 acquires three-dimensional information (three-dimensional information) indicating a three-dimensional shape (three-dimensional shape) of an object existing around the unmanned aerial vehicle 100. The object is, for example, a part of a landscape such as a building, a road, a car, and a tree. The three-dimensional information is, for example, three-dimensional space data. The processing unit 110 may acquire the stereoscopic information by generating stereoscopic information indicating the stereoscopic shape of the object existing around the unmanned aerial vehicle 100 from each image obtained from the plurality of imaging devices 230. The processing unit 110 may acquire the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aerial vehicle 100 by referring to the three-dimensional map database stored in the memory 160. The processing unit 110 may acquire three-dimensional information on the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to a three-dimensional map database managed by a server existing on the network.

次に、送信機50及び携帯端末80の構成例について説明する。   Next, a configuration example of the transmitter 50 and the portable terminal 80 will be described.

図5は、携帯端末80が装着された送信機50の外観の一例を示す図である。図5では、携帯端末80の一例として、スマートフォンが示されている。携帯端末80は、例えばスマートフォン、タブレット端末等でよい。送信機50に対する上下前後左右の方向は、図5に示す矢印の方向にそれぞれ従うとする。送信機50は、例えば送信機50を使用するユーザの両手で把持された状態で使用される。   FIG. 5 is a diagram illustrating an example of the appearance of the transmitter 50 on which the mobile terminal 80 is mounted. FIG. 5 illustrates a smartphone as an example of the mobile terminal 80. The mobile terminal 80 may be, for example, a smartphone, a tablet terminal, or the like. It is assumed that the directions of up, down, front, rear, left and right with respect to the transmitter 50 follow the directions of the arrows shown in FIG. The transmitter 50 is used, for example, while being held by both hands of the user who uses the transmitter 50.

送信機50は、例えば略正方形状の底面を有し、かつ高さが底面の一辺より短い略直方体(言い換えると、略箱形)の形状をした樹脂製の筐体50Bを有する。送信機50の筐体表面の略中央には、左制御棒53Lと右制御棒53Rとが突設して配置される。   The transmitter 50 has, for example, a substantially rectangular parallelepiped (in other words, substantially box-shaped) resin housing 50B having a substantially square bottom surface and a height shorter than one side of the bottom surface. A left control rod 53L and a right control rod 53R are arranged protrudingly at substantially the center of the housing surface of the transmitter 50.

左制御棒53L、右制御棒53Rは、それぞれユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。図5では、左制御棒53L及び右制御棒53Rは、ユーザの両手からそれぞれ外力が印加されていない初期状態の位置が示されている。左制御棒53L及び右制御棒53Rは、ユーザにより印加された外力が解放された後、自動的に所定位置(例えば図5に示す初期位置)に復帰する。   The left control rod 53L and the right control rod 53R are used in operations for remotely controlling the movement of the unmanned aerial vehicle 100 by the user (for example, moving the unmanned aerial vehicle 100 back and forth, left and right, up and down, and change direction). Is done. FIG. 5 shows the positions of the left control rod 53L and the right control rod 53R in the initial state where no external force is applied from both hands of the user. After the external force applied by the user is released, the left control rod 53L and the right control rod 53R automatically return to predetermined positions (for example, initial positions shown in FIG. 5).

左制御棒53Lの手前側(言い換えると、ユーザ側)には、送信機50の電源ボタンB1が配置される。電源ボタンB1がユーザにより一度押下されると、例えば送信機50に内蔵されるバッテリの容量の残量がバッテリ残量表示部L2において表示される。電源ボタンB1がユーザによりもう一度押下されると、例えば送信機50の電源がオンとなり、送信機50の各部(図6参照)に電源が供給されて使用可能となる。   The power button B1 of the transmitter 50 is arranged on the near side (in other words, on the user side) of the left control rod 53L. When the user presses the power button B1 once, for example, the remaining capacity of the battery built in the transmitter 50 is displayed on the remaining battery level display section L2. When the power button B1 is pressed again by the user, for example, the power of the transmitter 50 is turned on, and power is supplied to each unit (see FIG. 6) of the transmitter 50 to be usable.

右制御棒53Rの手前側(言い換えると、ユーザ側)には、RTH(Return To Home)ボタンB2が配置される。RTHボタンB2がユーザにより押下されると、送信機50は、無人飛行体100に所定の位置に自動復帰させるための信号を送信する。これにより、送信機50は、無人飛行体100を所定の位置(例えば無人飛行体100が記憶している離陸位置)に自動的に帰還させることができる。RTHボタンB2は、例えば屋外での無人飛行体100による空撮中にユーザが無人飛行体100の機体を見失った場合、又は電波干渉や予期せぬトラブルに遭遇して操作不能になった場合等に利用可能である。   An RTH (Return To Home) button B2 is arranged on the near side (in other words, on the user side) of the right control rod 53R. When the RTH button B2 is pressed by the user, the transmitter 50 transmits a signal for automatically returning the unmanned aerial vehicle 100 to a predetermined position. Thus, the transmitter 50 can automatically return the unmanned aerial vehicle 100 to a predetermined position (for example, a takeoff position stored in the unmanned aerial vehicle 100). The RTH button B2 is used, for example, when the user loses sight of the unmanned aerial vehicle 100 during aerial photographing with the unmanned aerial vehicle 100 outdoors, or when the user becomes unable to operate due to radio wave interference or unexpected trouble. Available to

電源ボタンB1及びRTHボタンB2の手前側(言い換えると、ユーザ側)には、リモートステータス表示部L1及びバッテリ残量表示部L2が配置される。リモートステータス表示部L1は、例えばLED(Light Emission Diode)を用いて構成され、送信機50と無人飛行体100との無線の接続状態を表示する。バッテリ残量表示部L2は、例えばLEDを用いて構成され、送信機50に内蔵されたバッテリの容量の残量を表示する。   A remote status display section L1 and a remaining battery level display section L2 are arranged in front of the power button B1 and the RTH button B2 (in other words, on the user side). The remote status display unit L1 is configured using, for example, an LED (Light Emission Diode), and displays a wireless connection state between the transmitter 50 and the unmanned aerial vehicle 100. The battery remaining amount display unit L2 is configured using, for example, an LED, and displays the remaining amount of the battery built in the transmitter 50.

左制御棒53L及び右制御棒53Rより後側であって、かつ送信機50の筐体50Bの後方側面から、2つのアンテナAN1,AN2が突設して配置される。アンテナAN1,AN2は、ユーザの左制御棒53L及び右制御棒53Rの操作に基づき、無人飛行体100の移動を制御するための信号を無人飛行体100に送信する。アンテナAN1,AN2は、例えば2kmの送受信範囲をカバーできる。また、アンテナAN1,AN2は、送信機50と無線接続中の無人飛行体100が有する撮像装置220,230により撮像された撮像画像、又は無人飛行体100が取得した各種データが無人飛行体100から送信された場合に、これらの画像又は各種データを受信できる。   Two antennas AN1 and AN2 are arranged to protrude from the rear side surface of the housing 50B of the transmitter 50 on the rear side of the left control rod 53L and the right control rod 53R. The antennas AN1 and AN2 transmit a signal for controlling the movement of the unmanned aerial vehicle 100 to the unmanned aerial vehicle 100 based on a user's operation of the left control rod 53L and the right control rod 53R. The antennas AN1 and AN2 can cover a transmission and reception range of, for example, 2 km. In addition, the antennas AN1 and AN2 are connected to the image pickup devices 220 and 230 of the unmanned aerial vehicle 100 wirelessly connected to the transmitter 50, or the various data acquired by the unmanned aerial vehicle 100 from the unmanned aerial vehicle 100. When transmitted, these images or various data can be received.

図5では、送信機50が表示部を備えていないが、表示部を備えてもよい。   In FIG. 5, the transmitter 50 does not include a display unit, but may include a display unit.

携帯端末80は、ホルダHLDに載置されて取り付けられてよい。ホルダHLDは、送信機50に接合されて取り付けられてよい。これにより、携帯端末80がホルダHLDを介して送信機50に装着される。携帯端末80と送信機50とは、有線ケーブル(例えばUSBケーブル)を介して接続されてよい。携帯端末80と送信機50とは、無線通信(例えばBluetooth(登録商標))によって接続されてよい。携帯端末80が送信機50に装着されず、携帯端末80と送信機50がそれぞれ独立して設けられてもよい。   The mobile terminal 80 may be mounted on the holder HLD. The holder HLD may be joined and attached to the transmitter 50. Thereby, the portable terminal 80 is mounted on the transmitter 50 via the holder HLD. The portable terminal 80 and the transmitter 50 may be connected via a wired cable (for example, a USB cable). The mobile terminal 80 and the transmitter 50 may be connected by wireless communication (for example, Bluetooth (registered trademark)). The mobile terminal 80 may not be mounted on the transmitter 50, and the mobile terminal 80 and the transmitter 50 may be independently provided.

[送信機の構成例]
図6は、図1の飛行経路生成システム10を構成する送信機50のハードウェア構成の一例を示すブロック図である。送信機50は、左制御棒53Lと、右制御棒53Rと、処理部61と、無線通信部63と、インタフェース部65と、メモリ67と、バッテリ69と、電源ボタンB1と、RTHボタンB2と、操作部セットOPSと、リモートステータス表示部L1と、バッテリ残量表示部L2とを含む構成である。送信機50は、無人飛行体100を遠隔制御するための操作端末の一例である。
[Configuration example of transmitter]
FIG. 6 is a block diagram illustrating an example of a hardware configuration of the transmitter 50 included in the flight route generation system 10 of FIG. The transmitter 50 includes a left control rod 53L, a right control rod 53R, a processing unit 61, a wireless communication unit 63, an interface unit 65, a memory 67, a battery 69, a power button B1, and an RTH button B2. , An operation section set OPS, a remote status display section L1, and a remaining battery level display section L2. The transmitter 50 is an example of an operation terminal for remotely controlling the unmanned aerial vehicle 100.

処理部61は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部61は、送信機50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The processing unit 61 is configured using a processor (for example, a CPU, an MPU, or a DSP). The processing unit 61 performs signal processing for integrally controlling the operation of each unit of the transmitter 50, data input / output processing with other units, data arithmetic processing, and data storage processing.

処理部61は、無人飛行体100の撮像装置220が撮像した撮像画像のデータを、無線通信部63を介して取得してメモリ67に保存し、インタフェース部65を介して携帯端末80に出力してよい。言い換えると、処理部61は、無人飛行体100の撮像装置220により撮像された撮像画像を携帯端末80に表示させてよい。これにより、無人飛行体100の撮像装置220により撮像された撮像画像は、携帯端末80において表示可能となる。   The processing unit 61 acquires the data of the captured image captured by the imaging device 220 of the unmanned aerial vehicle 100 via the wireless communication unit 63, stores the data in the memory 67, and outputs the data to the mobile terminal 80 via the interface unit 65. May be. In other words, the processing unit 61 may cause the mobile terminal 80 to display an image captured by the imaging device 220 of the unmanned aerial vehicle 100. Thus, the captured image captured by the imaging device 220 of the unmanned aerial vehicle 100 can be displayed on the mobile terminal 80.

処理部61は、ユーザの左制御棒53L及び右制御棒53Rの操作により、その操作により指定された無人飛行体100の移動を制御するための信号を生成してよい。処理部61は、この生成した信号を、無線通信部63及びアンテナAN1,AN2を介して、無人飛行体100に送信して無人飛行体100を遠隔制御してよい。これにより、送信機50は、無人飛行体100の移動を遠隔で制御できる。処理部61は、無線通信部63を介して外部サーバ等が蓄積する地図データベースの地図情報を取得してよい。   The processing unit 61 may generate a signal for controlling the movement of the unmanned aerial vehicle 100 specified by the operation of the left control rod 53L and the right control rod 53R by the user. The processing unit 61 may transmit the generated signal to the unmanned aerial vehicle 100 via the wireless communication unit 63 and the antennas AN1 and AN2 to remotely control the unmanned aerial vehicle 100. Accordingly, the transmitter 50 can remotely control the movement of the unmanned aerial vehicle 100. The processing unit 61 may acquire the map information of the map database stored in the external server or the like via the wireless communication unit 63.

左制御棒53Lは、例えばユーザの左手により、無人飛行体100の移動を遠隔で制御するための操作に使用される。右制御棒53Rは、例えばユーザの右手により、無人飛行体100の移動を遠隔で制御するための操作に使用される。無人飛行体100の移動は、例えば前進する方向の移動、後進する方向の移動、左方向の移動、右方向の移動、上昇する方向の移動、下降する方向の移動、左方向に無人飛行体100を回転する移動、右方向に無人飛行体100を回転する移動のうちいずれか又はこれらの組み合わせであり、以下同様である。   The left control rod 53L is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100 by, for example, the left hand of the user. The right control rod 53R is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100 by, for example, the right hand of the user. The movement of the unmanned aerial vehicle 100 includes, for example, movement in a forward direction, movement in a backward direction, movement in a left direction, movement in a right direction, movement in a rising direction, movement in a descending direction, and movement in the left direction. , Or a movement of rotating the unmanned aerial vehicle 100 rightward, or a combination thereof, and so on.

バッテリ69は、送信機50の各部の駆動源としての機能を有し、送信機50の各部に必要な電源を供給する。   The battery 69 has a function as a drive source of each unit of the transmitter 50, and supplies necessary power to each unit of the transmitter 50.

電源ボタンB1が一度押下されると、処理部61は、送信機50に内蔵されるバッテリ69の容量の残量をバッテリ残量表示部L2に表示する。これにより、ユーザは、送信機50に内蔵されるバッテリの容量の残量を簡単に確認できる。処理部61は、バッテリ残量表示部L2に、無人飛行体100に内蔵されたバッテリの容量の残量を表示してよい。また、電源ボタンB1が二度押下されると、処理部61は、送信機50に内蔵されるバッテリ69に対し、送信機50内の各部への電源供給を指示する。これにより、ユーザは、送信機50の電源がオンとなり、送信機50の使用を簡単に開始できる。   When the power button B1 is pressed once, the processing section 61 displays the remaining capacity of the battery 69 incorporated in the transmitter 50 on the remaining battery level display section L2. Thus, the user can easily check the remaining capacity of the battery built in the transmitter 50. The processing unit 61 may display the remaining capacity of the battery incorporated in the unmanned aerial vehicle 100 on the battery remaining amount display unit L2. When the power button B1 is pressed twice, the processing unit 61 instructs the battery 69 incorporated in the transmitter 50 to supply power to each unit in the transmitter 50. Thus, the user turns on the power of the transmitter 50 and can easily start using the transmitter 50.

RTHボタンB2が押下されると、処理部61は、無人飛行体100に所定の位置(例えば無人飛行体100の離陸位置)に自動復帰させるための信号を生成し、無線通信部63及びアンテナAN1,AN2を介して無人飛行体100に送信する。これにより、ユーザは、送信機50に対する簡単な操作により、無人飛行体100を所定の位置に自動で復帰(帰還)させることができる。   When the RTH button B2 is pressed, the processing unit 61 generates a signal for automatically returning the unmanned aerial vehicle 100 to a predetermined position (for example, a takeoff position of the unmanned aerial vehicle 100), and the wireless communication unit 63 and the antenna AN1. , AN2 to the unmanned aerial vehicle 100. Thus, the user can automatically return (return) the unmanned aerial vehicle 100 to a predetermined position by a simple operation on the transmitter 50.

操作部セットOPSは、複数の操作部(例えば操作部OP1,…,操作部OPn)(n:2以上の整数)を用いて構成される。操作部セットOPSは、図5に示す左制御棒53L、右制御棒53R、電源ボタンB1及びRTHボタンB2を除く他の操作部(例えば、送信機50による無人飛行体100の遠隔制御を支援するための各種の操作部)により構成される。ここでいう各種の操作部とは、例えば、無人飛行体100の撮像装置220を用いた静止画の撮像を指示するボタン、無人飛行体100の撮像装置220を用いた動画の録画の開始及び終了を指示するボタン、無人飛行体100のジンバル200(図4参照)のチルト方向の傾きを調整するダイヤル、無人飛行体100のフライトモードを切り替えるボタン、無人飛行体100の撮像装置220の設定を行うダイヤルが該当する。   The operation unit set OPS is configured using a plurality of operation units (for example, operation units OP1,..., Operation unit OPn) (n: an integer of 2 or more). The operation unit set OPS supports remote control of the unmanned aerial vehicle 100 by the operation units other than the left control rod 53L, the right control rod 53R, the power button B1, and the RTH button B2 shown in FIG. Various operation units). The various operation units referred to herein include, for example, a button for instructing imaging of a still image using the imaging device 220 of the unmanned aerial vehicle 100, and starting and ending recording of a moving image using the imaging device 220 of the unmanned aerial vehicle 100 Button, a dial for adjusting the tilt of the gimbal 200 (see FIG. 4) of the unmanned aerial vehicle 100 in the tilt direction, a button for switching the flight mode of the unmanned aerial vehicle 100, and setting of the imaging device 220 of the unmanned aerial vehicle 100. Dial is applicable.

リモートステータス表示部L1及びバッテリ残量表示部L2は、図5を参照して説明したので、ここでは説明を省略する。   Since the remote status display section L1 and the remaining battery level display section L2 have been described with reference to FIG. 5, the description is omitted here.

無線通信部63は、2つのアンテナAN1,AN2と接続される。無線通信部63は、2つのアンテナAN1,AN2を介して、無人飛行体100との間で所定の無線通信方式(例えばWifi(登録商標))を用いた情報やデータの送受信を行う。   The wireless communication unit 63 is connected to two antennas AN1 and AN2. The wireless communication unit 63 transmits and receives information and data to and from the unmanned aerial vehicle 100 via the two antennas AN1 and AN2 using a predetermined wireless communication method (for example, WiFi (registered trademark)).

インタフェース部65は、送信機50と携帯端末80との間の情報やデータの入出力を行う。インタフェース部65は、例えば送信機50に設けられたUSBポート(不図示)でよい。インタフェース部65は、USBポート以外のインタフェースでもよい。   The interface unit 65 inputs and outputs information and data between the transmitter 50 and the mobile terminal 80. The interface unit 65 may be a USB port (not shown) provided in the transmitter 50, for example. The interface unit 65 may be an interface other than the USB port.

メモリ67は、記憶部の一例である。メモリ67は、例えば処理部61の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、処理部61の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ64のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。メモリ64のRAMには、例えば無人飛行体100の撮像装置220,230により撮像された撮像画像のデータを保存してよい。   The memory 67 is an example of a storage unit. The memory 67 temporarily stores, for example, a ROM (Read Only Memory) in which a program for defining the operation of the processing unit 61 and data of set values are stored, and various information and data used in the processing of the processing unit 61. (Random Access Memory). The programs and the data of the setting values stored in the ROM of the memory 64 may be copied to a predetermined recording medium (for example, a CD-ROM or a DVD-ROM). In the RAM of the memory 64, for example, data of a captured image captured by the imaging devices 220 and 230 of the unmanned aerial vehicle 100 may be stored.

[携帯端末の構成例]
図7は、図1の飛行経路生成システム10を構成する携帯端末80のハードウェア構成の一例を示すブロック図である。携帯端末80は、処理部81、インタフェース部82、操作部83、無線通信部85、メモリ87、表示部88、ストレージ89、及びバッテリ99を備えてよい。携帯端末80は、情報処理装置の一例としての機能を有し、携帯端末80の処理部81は、情報処理装置の処理部の一例である。
[Configuration example of mobile terminal]
FIG. 7 is a block diagram illustrating an example of a hardware configuration of the mobile terminal 80 included in the flight route generation system 10 of FIG. The mobile terminal 80 may include a processing unit 81, an interface unit 82, an operation unit 83, a wireless communication unit 85, a memory 87, a display unit 88, a storage 89, and a battery 99. The mobile terminal 80 has a function as an example of an information processing device, and the processing unit 81 of the mobile terminal 80 is an example of a processing unit of the information processing device.

処理部81は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部81は、携帯端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The processing unit 81 is configured using a processor (for example, a CPU, an MPU, or a DSP). The processing unit 81 performs signal processing for integrally controlling the operation of each unit of the mobile terminal 80, data input / output processing with other units, data arithmetic processing, and data storage processing.

処理部81は、無線通信部85を介して、無人飛行体100からのデータや情報を取得してよい。処理部81は、インタフェース部82を介して、送信機50又は他の装置からのデータや情報を取得してよい。処理部81は、操作部83を介して入力されたデータや情報を取得してよい。処理部81は、メモリ87に保持されたデータや情報を取得してよい。処理部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。処理部81は、データや情報をストレージ89に送り、このデータや情報を格納してよい。処理部81は、ストレージ89に格納されたデータや情報を取得してよい。   The processing unit 81 may acquire data and information from the unmanned aerial vehicle 100 via the wireless communication unit 85. The processing unit 81 may obtain data and information from the transmitter 50 or another device via the interface unit 82. The processing unit 81 may acquire data or information input via the operation unit 83. The processing unit 81 may acquire data and information stored in the memory 87. The processing unit 81 may send the data and information to the display unit 88 and cause the display unit 88 to display display information based on the data and information. The processing unit 81 may send data and information to the storage 89 and store the data and information. The processing unit 81 may acquire data and information stored in the storage 89.

処理部81は、無人飛行体100の制御を指示するためのアプリケーションを実行してよい。処理部81は、アプリケーションで用いられる各種のデータを生成してよい。   The processing unit 81 may execute an application for instructing control of the unmanned aerial vehicle 100. The processing unit 81 may generate various data used in the application.

インタフェース部82は、送信機50又は他の装置と携帯端末80との間の情報やデータの入出力を行う。インタフェース部82は、例えば携帯端末80に設けられたUSBコネクタ(不図示)でよい。インタフェース部65は、USBコネクタ以外のインタフェースでもよい。   The interface unit 82 inputs and outputs information and data between the portable terminal 80 and the transmitter 50 or another device. The interface unit 82 may be, for example, a USB connector (not shown) provided on the mobile terminal 80. The interface unit 65 may be an interface other than the USB connector.

操作部83は、携帯端末80の操作者により入力されるデータや情報を受け付ける。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。   The operation unit 83 receives data and information input by the operator of the mobile terminal 80. The operation unit 83 may include buttons, keys, a touch panel, a microphone, and the like. Here, it is mainly illustrated that the operation unit 83 and the display unit 88 are configured by a touch panel. In this case, the operation unit 83 can receive a touch operation, a tap operation, a drag operation, and the like.

無線通信部85は、各種の無線通信方式により、無人飛行体100との間で通信する。無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、近距離無線通信、又は公衆無線回線を介した通信を含んでよい。無線通信部85は、他の装置との間で通信を行ってデータや情報を送受信してよい。   The wireless communication unit 85 communicates with the unmanned aerial vehicle 100 by various wireless communication systems. The wireless communication method may include, for example, wireless LAN, Bluetooth (registered trademark), short-range wireless communication, or communication via a public wireless line. The wireless communication unit 85 may communicate with another device to transmit and receive data and information.

メモリ87は、記憶部の一例である。メモリ87は、例えば携帯端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、処理部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、携帯端末80の内部に設けられてよい。メモリ87は、携帯端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 87 is an example of a storage unit. The memory 87 has, for example, a ROM in which a program that regulates the operation of the portable terminal 80 and data of set values are stored, and a RAM that temporarily stores various information and data used in the processing of the processing unit 81. May be. The memory 87 may include a memory other than the ROM and the RAM. The memory 87 may be provided inside the mobile terminal 80. The memory 87 may be provided detachably from the mobile terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)又は有機EL(ElectroLuminescence)ディスプレイを用いて構成され、処理部81から出力された各種の情報やデータを表示する。表示部88は、無人飛行体100の撮像装置220,230により撮像された撮像画像のデータを表示してよい。   The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (ElectroLuminescence) display, and displays various information and data output from the processing unit 81. The display unit 88 may display data of a captured image captured by the imaging devices 220 and 230 of the unmanned aerial vehicle 100.

ストレージ89は、記憶部の一例である。ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、フラッシュメモリ、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ89は、携帯端末80の本体から取り外し可能に設けられてよい。   The storage 89 is an example of a storage unit. The storage 89 accumulates and holds various data and information. The storage 89 may be a flash memory, a solid state drive (SSD), a memory card, a USB memory, or the like. The storage 89 may be provided detachably from the main body of the mobile terminal 80.

バッテリ99は、携帯端末80の各部の駆動源としての機能を有し、携帯端末80の各部に必要な電源を供給する。   The battery 99 has a function as a drive source of each unit of the mobile terminal 80 and supplies necessary power to each unit of the mobile terminal 80.

次に、携帯端末80の処理部81の機能の一例について説明する。   Next, an example of a function of the processing unit 81 of the mobile terminal 80 will be described.

情報処理装置の処理部の一例としての処理部81は、無人飛行体100の飛行経路の生成に関する処理を行う飛行経路処理部811を含む。処理部81は、被写体の3次元形状データの推定及び生成に関する処理を行う形状データ処理部812を含む。   The processing unit 81 as an example of a processing unit of the information processing device includes a flight path processing unit 811 that performs processing related to generation of a flight path of the unmanned aerial vehicle 100. The processing unit 81 includes a shape data processing unit 812 that performs processing relating to estimation and generation of three-dimensional shape data of a subject.

飛行経路処理部811は、被写体を撮像する無人飛行体100の飛行経路を生成する。飛行経路処理部811は、入力パラメータを取得してよい。飛行経路処理部811は、送信機50が入力した入力パラメータを、インタフェース部82又は無線通信部85を介して受信することで取得してよい。また、飛行経路処理部811は、入力パラメータに含まれる少なくとも一部の情報を、送信機50から取得するのではなく、他の装置から取得してよい。飛行経路処理部811は、入力パラメータに含まれる少なくとも一部の情報を、ネットワーク上に存在するサーバ等から取得してよい。取得された入力パラメータは、メモリ87に保持されてよい。携帯端末80の処理部81は、適宜(例えば飛行経路の生成時、3次元形状データの生成時)メモリ87を参照してよい。   The flight path processing unit 811 generates a flight path of the unmanned aerial vehicle 100 that images a subject. The flight path processing unit 811 may acquire an input parameter. The flight path processing unit 811 may acquire the input parameters input by the transmitter 50 by receiving the input parameters via the interface unit 82 or the wireless communication unit 85. Further, the flight path processing unit 811 may acquire at least a part of the information included in the input parameter from another device instead of acquiring from the transmitter 50. The flight path processing unit 811 may acquire at least a part of the information included in the input parameters from a server or the like existing on the network. The acquired input parameters may be stored in the memory 87. The processing unit 81 of the mobile terminal 80 may refer to the memory 87 as appropriate (for example, when generating a flight path and when generating three-dimensional shape data).

入力パラメータは、オブジェクトの概略形状の情報、飛行範囲の情報、飛行高度の情報、撮像距離の情報、撮像位置間隔の情報、を含んでよい。入力パラメータは、設定解像度の情報を含んでよい。なお、設定解像度は、無人飛行体100の撮像装置220,230により撮像される撮像画像の解像度(つまり、被写体の3次元形状を高精度に推定可能とするために適正な撮像画像を得るための解像度)を示し、無人飛行体100のメモリ160又は送信機50のメモリ67に保持されてよい。   The input parameters may include information on the approximate shape of the object, information on the flight range, information on the flight altitude, information on the imaging distance, and information on the imaging position interval. The input parameter may include information on the set resolution. Note that the set resolution is the resolution of the captured images captured by the imaging devices 220 and 230 of the unmanned aerial vehicle 100 (that is, a resolution for obtaining an appropriate captured image so that the three-dimensional shape of the subject can be estimated with high accuracy). Resolution), and may be stored in the memory 160 of the unmanned aerial vehicle 100 or the memory 67 of the transmitter 50.

なお、入力パラメータは、上述したパラメータの他に、無人飛行体100の飛行経路における撮像位置(つまり、ウェイポイント)の情報や、撮像位置を通る飛行経路を生成するための各種のパラメータを含んでよい。撮像位置は3次元空間における位置である。   The input parameters include, in addition to the above-described parameters, information on an imaging position (that is, a waypoint) in the flight path of the unmanned aerial vehicle 100 and various parameters for generating a flight path passing through the imaging position. Good. The imaging position is a position in a three-dimensional space.

また、入力パラメータは、例えば撮像位置において無人飛行体100が被写体を撮像する時の撮像範囲の重複率の情報を含んでよい。また、入力パラメータは、飛行経路における撮像位置の間隔の情報を含んでよい。撮像位置間隔は、飛行経路に配置される複数の撮像位置(ウェイポイント)のうち2つの隣り合う撮像位置の間隔(距離)である。また、入力パラメータは、無人飛行体100の撮像装置220又は230の画角の情報を含んでよい。   In addition, the input parameter may include, for example, information on the overlap ratio of the imaging range when the unmanned aerial vehicle 100 images the subject at the imaging position. Further, the input parameter may include information on the interval between the imaging positions in the flight path. The imaging position interval is an interval (distance) between two adjacent imaging positions among a plurality of imaging positions (waypoints) arranged on the flight path. In addition, the input parameter may include information on the angle of view of the imaging device 220 or 230 of the unmanned aerial vehicle 100.

また、飛行経路処理部811は、被写体の識別情報を受信して取得してよい。飛行経路処理部811は、特定された被写体の識別情報を基に、インタフェース部82又は無線通信部85を介して外部サーバと通信し、被写体の識別情報に対応する被写体の形状の情報や被写体の大きさの情報を受信して取得してよい。   Further, the flight path processing unit 811 may receive and acquire the identification information of the subject. The flight path processing unit 811 communicates with an external server via the interface unit 82 or the wireless communication unit 85 based on the identified subject identification information, and outputs information on the shape of the subject corresponding to the subject identification information and the subject. The size information may be received and acquired.

撮像範囲の重複率は、水平方向又は上下方向で隣り合う撮像位置で無人飛行体100の撮像装置220又は撮像装置230により撮像される場合の2つの撮像範囲が重複する割合を示す。撮像範囲の重複率は、水平方向での撮像範囲の重複率(水平重複率ともいう)の情報、上下方向での撮像範囲の重複率(上下重複率ともいう)の情報、の少なくとも1つを含んでよい。水平重複率及び上下重複率は、同じでも異なってもよい。水平重複率及び上下重複率が異なる値である場合、水平重複率の情報及び上下重複率の情報のいずれも入力パラメータに含まれてよい。水平重複率及び上下重複率が同値である場合、同値である1つの重複率の情報が入力パラメータに含まれてよい。   The overlap ratio of the imaging ranges indicates a rate at which two imaging ranges overlap when the imaging device 220 or the imaging device 230 of the unmanned aerial vehicle 100 captures images at imaging positions adjacent in the horizontal direction or the vertical direction. The overlap ratio of the imaging ranges is at least one of information on the overlap ratio of the imaging ranges in the horizontal direction (also referred to as horizontal overlap ratio) and information on the overlap ratio of the imaging ranges in the vertical direction (also referred to as vertical overlap ratio). May include. The horizontal overlap rate and the vertical overlap rate may be the same or different. When the horizontal overlap ratio and the vertical overlap ratio have different values, both the information of the horizontal overlap ratio and the information of the vertical overlap ratio may be included in the input parameter. When the horizontal overlap rate and the vertical overlap rate have the same value, information of one overlap rate having the same value may be included in the input parameter.

撮像位置間隔は、空間的な撮像間隔であり、飛行経路において無人飛行体100が画像を撮像すべき複数の撮像位置のうち、隣り合う撮像位置の間の距離である。撮像位置間隔は、水平方向での撮像位置の間隔(水平撮像間隔ともいう)及び鉛直方向の撮像位置の間隔(上下撮像間隔ともいう)の少なくとも1つを含んでよい。飛行経路処理部811は、水平撮像間隔及び上下撮像間隔を含む撮像位置間隔を、算出して取得してもよいし、入力パラメータから取得してもよい。   The image capturing position interval is a spatial image capturing interval, and is a distance between adjacent image capturing positions among a plurality of image capturing positions at which the unmanned aerial vehicle 100 should capture images on the flight path. The imaging position interval may include at least one of a horizontal imaging position interval (also referred to as a horizontal imaging interval) and a vertical imaging position interval (also referred to as a vertical imaging interval). The flight path processing unit 811 may calculate and acquire the imaging position interval including the horizontal imaging interval and the vertical imaging interval, or may acquire from the input parameters.

つまり、飛行経路処理部811は、飛行経路上に、撮像装置220又は230により撮像する撮像位置(ウェイポイント)を配置してよい。撮像位置の間隔(撮像位置間隔)は、例えば等間隔で配置されてよい。撮像位置は、隣り合う撮像位置での撮像画像に係る撮像範囲が一部重複するよう配置される。複数の撮像画像を用いた3次元形状の推定を可能とするためである。撮像装置220又は230は所定の画角を有するので、撮像位置間隔を短くすることで、双方の撮像範囲の一部が重複する。   That is, the flight path processing unit 811 may arrange an imaging position (waypoint) at which the imaging device 220 or 230 captures an image on the flight path. The intervals between the imaging positions (intervals between the imaging positions) may be arranged at equal intervals, for example. The imaging positions are arranged so that the imaging ranges of the captured images at adjacent imaging positions partially overlap. This is to enable estimation of a three-dimensional shape using a plurality of captured images. Since the imaging device 220 or 230 has a predetermined angle of view, shortening the interval between imaging positions partially overlaps both imaging ranges.

飛行経路処理部811は、例えば撮像位置が配置される高度(撮像高度)、撮像装置220又は230の解像度に基づき、撮像位置間隔を算出してよい。撮像高度が高い程又は撮像距離が長い程、撮像範囲の重複率が大きくなるので、撮像位置間隔を長く(疎に)できる。撮像高度が低い程又は撮像距離が短い程、撮像範囲の重複率が小さくなるので、撮像位置間隔を短く(密に)する。飛行経路処理部811は、更に撮像装置220又は230の画角を基に、撮像位置間隔を算出してよい。飛行経路処理部811は、その他公知の方法により撮像位置間隔を算出してよい。   The flight path processing unit 811 may calculate the imaging position interval based on, for example, the altitude at which the imaging position is arranged (imaging altitude) and the resolution of the imaging device 220 or 230. As the imaging altitude is higher or the imaging distance is longer, the overlap ratio of the imaging range is higher, so that the imaging position interval can be made longer (sparser). The lower the imaging altitude or the shorter the imaging distance, the smaller the overlap ratio of the imaging range. Therefore, the interval between the imaging positions is shortened (dense). The flight path processing unit 811 may further calculate an imaging position interval based on the angle of view of the imaging device 220 or 230. The flight path processing unit 811 may calculate the imaging position interval by another known method.

飛行経路処理部811は、撮像装置220の画角又は撮像装置230の画角の情報を、撮像装置220又は撮像装置230から取得してよい。撮像装置220の画角又は撮像装置230の画角は、水平方向と上下方向とで同じでも異なってもよい。水平方向での撮像装置220の画角又は撮像装置230の画角を水平画角とも称する。上下方向での撮像装置220の画角又は撮像装置230の画角を上下画角とも称する。飛行経路処理部811は、水平画角及び上下画角が同値である場合、同値である1つの画角の情報を取得してよい。   The flight path processing unit 811 may acquire information on the angle of view of the imaging device 220 or the angle of view of the imaging device 230 from the imaging device 220 or the imaging device 230. The angle of view of the imaging device 220 or the angle of view of the imaging device 230 may be the same or different between the horizontal direction and the vertical direction. The angle of view of the imaging device 220 or the angle of view of the imaging device 230 in the horizontal direction is also referred to as a horizontal angle of view. The angle of view of the imaging device 220 or the angle of view of the imaging device 230 in the vertical direction is also referred to as the vertical angle of view. When the horizontal angle of view and the vertical angle of view are the same, the flight path processing unit 811 may acquire information of one angle of view having the same value.

飛行経路処理部811は、飛行範囲及び撮像位置間隔に基づいて、無人飛行体100による被写体の撮像位置(ウェイポイント)を決定する。無人飛行体100による撮像位置は、水平方向において等間隔に配置されてよく、最後の撮像位置と最初の撮像位置との距離は撮像位置間隔より短くてよい。この間隔は、水平撮像間隔となる。無人飛行体100による撮像位置は、上下方向において等間隔に配置されてよく、最後の撮像位置と最初の撮像位置との距離は撮像位置間隔より短くてよい。この間隔は、上下撮像間隔となる。   The flight path processing unit 811 determines the imaging position (waypoint) of the subject by the unmanned aerial vehicle 100 based on the flight range and the imaging position interval. The imaging positions of the unmanned aerial vehicle 100 may be arranged at equal intervals in the horizontal direction, and the distance between the last imaging position and the first imaging position may be shorter than the imaging position interval. This interval is the horizontal imaging interval. The imaging positions of the unmanned aerial vehicle 100 may be arranged at equal intervals in the vertical direction, and the distance between the last imaging position and the first imaging position may be shorter than the imaging position interval. This interval is the vertical imaging interval.

飛行経路処理部811は、オブジェクトの側面に対応する1つの撮像平面毎に、決定された撮像位置を通る飛行経路を生成する。飛行経路処理部811は、1つの撮像平面の飛行コースにおいて隣り合う各撮像位置を順に通り、この飛行コースにおける各撮像位置を全て通過した後、次の撮像平面の飛行コースへ進入する飛行経路を生成してよい。飛行経路処理部811は、次の撮像平面の飛行コースにおいても同様に、隣り合う各撮像位置を順に通り、この飛行コースにおける各撮像位置を全て通過した後、その次の撮像平面の飛行コースへ進入する飛行経路を生成してよい。飛行経路は、上空側を始点として飛行経路を進むにつれて高度が下降するように形成されてよい。一方、飛行経路は、地面側を始点として飛行経路を進むにつれて高度が上昇するように形成されてよい。   The flight path processing unit 811 generates a flight path passing through the determined imaging position for each imaging plane corresponding to the side surface of the object. The flight path processing unit 811 sequentially passes through the adjacent imaging positions in the flight course of one imaging plane, passes through all the imaging positions in this flight course, and then determines the flight path that enters the flight course of the next imaging plane. May be generated. Similarly, in the flight course of the next imaging plane, the flight path processing unit 811 sequentially passes through the adjacent imaging positions, passes through all the imaging positions in this flight course, and then proceeds to the flight course of the next imaging plane. An approaching flight path may be generated. The flight path may be formed so that the altitude decreases as the flight path starts from the sky side. On the other hand, the flight path may be formed so that the altitude increases as the flight path proceeds starting from the ground side.

無人飛行体100の処理部110は、生成された飛行経路に従って、無人飛行体100の飛行を制御してよい。処理部110は、飛行経路の途中に存在する撮像位置において、撮像装置220又は撮像装置230により被写体を撮像させてよい。従って、撮像装置220又は撮像装置230は、飛行経路における撮像位置において、被写体の側面を撮像してよい。撮像装置220又は撮像装置230により撮像された撮像画像は、無人飛行体100のメモリ160又はストレージ170、或いは携帯端末80のメモリ87又はストレージ89に保持されてよい。処理部110は、適宜(例えば飛行経路の設定時)メモリ160を参照してよい。   The processing unit 110 of the unmanned aerial vehicle 100 may control the flight of the unmanned aerial vehicle 100 according to the generated flight path. The processing unit 110 may cause the imaging device 220 or the imaging device 230 to image a subject at an imaging position existing in the middle of the flight path. Therefore, the imaging device 220 or the imaging device 230 may image the side surface of the subject at the imaging position in the flight path. The image captured by the imaging device 220 or the imaging device 230 may be stored in the memory 160 or the storage 170 of the unmanned aerial vehicle 100 or the memory 87 or the storage 89 of the mobile terminal 80. The processing unit 110 may refer to the memory 160 as appropriate (for example, when setting a flight path).

形状データ処理部812は、撮像装置220,230のいずれかにより異なる撮像位置において撮像された複数の撮像画像に基づいて、オブジェクト(被写体)の立体形状(3次元形状)を示す立体情報(3次元情報、3次元形状データ)を生成してよい。よって、撮像画像は、3次元形状データを復元するための1つの画像として用いられてよい。3次元形状データを復元するための撮像画像は、静止画像でよい。複数の撮像画像に基づく3次元形状データの生成手法としては、公知の方法を用いてよい。公知の方法として、例えば、MVS(Multi View Stereo)、PMVS(Patch-based MVS)、SfM(Structure from Motion)が挙げられる。   The shape data processing unit 812 performs three-dimensional information (three-dimensional shape) indicating a three-dimensional shape (three-dimensional shape) of an object (subject) based on a plurality of captured images captured at different imaging positions by one of the imaging devices 220 and 230. Information, three-dimensional shape data). Therefore, the captured image may be used as one image for restoring the three-dimensional shape data. The captured image for restoring the three-dimensional shape data may be a still image. A known method may be used as a method for generating three-dimensional shape data based on a plurality of captured images. Known methods include, for example, MVS (Multi View Stereo), PMVS (Patch-based MVS), and SfM (Structure from Motion).

3次元形状データの生成に用いられる撮像画像は、静止画でよい。3次元形状データの生成に用いられる複数の撮像画像には、互いに撮像範囲が一部重複する2つの撮像画像が含まれる。この重複の割合(つまり撮像範囲の重複率)が高い程、同一範囲において3次元形状データを生成する場合には、3次元形状データの生成に用いられる撮像画像の数が多くなる。従って、形状データ処理部812は、3次元形状の復元精度を向上できる。一方、撮像範囲の重複率が低い程、同一範囲において3次元形状データを生成する場合には、3次元形状データの生成に用いられる撮像画像の数が少なくなる。従って、形状データ処理部812は、3次元形状データの生成時間を短縮できる。なお、複数の撮像画像において、互いに撮像範囲が一部重複する2つの撮像画像が含まれなくてもよい。   The captured image used for generating the three-dimensional shape data may be a still image. The plurality of captured images used for generating the three-dimensional shape data include two captured images whose imaging ranges partially overlap each other. When the three-dimensional shape data is generated in the same range, the number of captured images used for generating the three-dimensional shape data increases as the ratio of the overlap (that is, the overlap ratio of the imaging ranges) increases. Therefore, the shape data processing unit 812 can improve the accuracy of restoring the three-dimensional shape. On the other hand, when the three-dimensional shape data is generated in the same range, the number of captured images used for generating the three-dimensional shape data decreases as the overlapping rate of the imaging ranges decreases. Therefore, the shape data processing unit 812 can reduce the time for generating three-dimensional shape data. Note that the plurality of captured images need not include two captured images whose imaging ranges partially overlap each other.

形状データ処理部812は、複数の撮像画像として、被写体の側面が撮像された撮像画像を含んで取得してよい。これにより、形状データ処理部812は、一律に上空から鉛直方向を撮像した撮像画像を取得する場合と比較すると、被写体の側面における画像特徴を多数収集でき、被写体周辺の3次元形状の復元精度を向上できる。   The shape data processing unit 812 may acquire a plurality of captured images including a captured image of a side surface of a subject. Accordingly, the shape data processing unit 812 can collect a large number of image features on the side surface of the subject and can improve the restoration accuracy of the three-dimensional shape around the subject, as compared with a case where a captured image obtained by uniformly capturing the vertical direction from the sky is acquired. Can be improved.

次に、飛行経路生成システム10の動作例について説明する。   Next, an operation example of the flight route generation system 10 will be described.

[飛行経路生成]
図8は、実施形態における飛行経路生成方法の処理手順の一例を示すフローチャートである。図示例は、対象領域の空撮を行ってオブジェクトの概略形状を取得し、取得した概略形状に基づいて3次元形状推定のための飛行経路を生成する処理を例示する。本例では、携帯端末80の処理部81が主体的に処理を実行するものとする。
[Flight path generation]
FIG. 8 is a flowchart illustrating an example of a processing procedure of a flight route generation method according to the embodiment. The illustrated example illustrates a process of performing aerial photography of a target area to acquire a schematic shape of an object, and generating a flight path for three-dimensional shape estimation based on the acquired schematic shape. In the present example, it is assumed that the processing unit 81 of the mobile terminal 80 performs the processing independently.

処理部81の飛行経路処理部811は、オブジェクトの3次元形状推定のための撮影を実行する際に、オブジェクト撮影用の無人飛行体100の飛行経路を生成する。飛行経路処理部811は、無人飛行体100の飛行範囲を入力し、撮影対象領域の範囲を指定する(S11)。   The flight path processing unit 811 of the processing unit 81 generates a flight path of the unmanned aerial vehicle 100 for object shooting when performing shooting for estimating the three-dimensional shape of the object. The flight path processing unit 811 inputs the flight range of the unmanned aerial vehicle 100 and specifies the range of the imaging target area (S11).

無人飛行体100の処理部110は、指定された飛行範囲の情報を入力し、対応する飛行範囲を飛行し、所定の撮像位置において鉛直方向下向きに撮影対象領域のオブジェクトを俯瞰した状態で空撮する(S12)。この場合、処理部110は、少ない撮像位置において大まかにオブジェクトを撮像(以下、「概略撮像」と称する場合がある)する。無人飛行体100の処理部110は、各撮像位置における俯瞰の撮像画像を取得し、メモリ160に撮像画像を記録する。   The processing unit 110 of the unmanned aerial vehicle 100 inputs the information of the designated flight range, flies in the corresponding flight range, and aerially shoots the object in the shooting target area vertically downward at a predetermined imaging position in the vertical direction. (S12). In this case, the processing unit 110 roughly captures an object at a small number of capturing positions (hereinafter, may be referred to as “rough capturing”). The processing unit 110 of the unmanned aerial vehicle 100 acquires a bird's-eye view captured image at each imaging position, and records the captured image in the memory 160.

処理部81の飛行経路処理部811は、撮影対象領域の鉛直方向下方の概略撮像(下向き空撮)により得られた撮像画像を取得してメモリ87又はストレージ89に格納する。飛行経路処理部811は、取得した撮像画像群を用いて公知の3次元形状復元技術によってオブジェクト(建物、地面など)の概略形状を推定することで、概略形状を取得する(S13)。概略形状の3次元形状データは、例えばポリゴンデータを含んでよい。   The flight path processing unit 811 of the processing unit 81 acquires the captured image obtained by the general imaging (downward aerial photography) vertically below the imaging target area, and stores it in the memory 87 or the storage 89. The flight path processing unit 811 estimates the approximate shape of an object (building, ground, etc.) by a known three-dimensional shape restoration technique using the acquired captured image group, thereby acquiring the approximate shape (S13). The three-dimensional shape data of the schematic shape may include, for example, polygon data.

なお、オブジェクトの概略形状は、対象領域の空撮によって取得するのに代えて、携帯端末80又はサーバ等の他の装置が保持している3次元地図データベースを利用し、3次元地図データベースの地図情報に含まれる建物、道路などの3次元情報(例えばポリゴンデータ)によって概略形状の3次元形状データを取得してよい。   In addition, instead of acquiring the outline shape of the object by aerial photography of the target area, a three-dimensional map database held by another device such as the mobile terminal 80 or a server is used, and the map of the three-dimensional map database is used. The three-dimensional shape data of the approximate shape may be obtained based on the three-dimensional information (for example, polygon data) of the building, the road, and the like included in the information.

飛行経路処理部811は、取得したオブジェクトの概略形状を用いて、オブジェクトの3次元形状推定のための詳細な撮像用の飛行経路を生成する(S14)。オブジェクトの概略形状を用いた飛行経路の生成手順については、いくつかの例を後述する。   The flight path processing unit 811 uses the acquired general shape of the object to generate a detailed imaging flight path for estimating the three-dimensional shape of the object (S14). Some examples of a procedure for generating a flight path using the schematic shape of an object will be described later.

上記の動作例により、オブジェクトの3次元形状推定を行うための飛行経路を生成し、オブジェクトの詳細な撮像を自動化できる。また、オブジェクトに対する適切な飛行経路の設定を自動化できる。   According to the above operation example, a flight path for estimating the three-dimensional shape of the object can be generated, and detailed imaging of the object can be automated. In addition, the setting of an appropriate flight path for the object can be automated.

[概略形状取得]
次に、飛行経路生成処理におけるオブジェクトの概略形状の取得方法の一例について説明する。
[Schematic shape acquisition]
Next, an example of a method of obtaining a schematic shape of an object in the flight path generation processing will be described.

図9は、飛行範囲A1の入力例を説明するための図である。   FIG. 9 is a diagram for describing an input example of the flight range A1.

例えば、携帯端末80の処理部81は、操作部83によって、飛行範囲A1の情報を入力する。操作部83は、飛行範囲A1として、地図情報M1に示された3次元形状データの生成を望む所望の範囲のユーザ入力を受け付けてよい。飛行範囲A1の情報は、所望の範囲に限らず、所定の飛行範囲でもよい。所定の飛行範囲は、例えば定期的に3次元形状データを生成して3次元形状を計測するための範囲の1つでもよい。   For example, the processing unit 81 of the mobile terminal 80 inputs information on the flight range A1 using the operation unit 83. The operation unit 83 may receive a user input of a desired range in which generation of the three-dimensional shape data indicated in the map information M1 is desired as the flight range A1. The information on the flight range A1 is not limited to a desired range, and may be a predetermined flight range. The predetermined flight range may be, for example, one of ranges for periodically generating three-dimensional shape data and measuring the three-dimensional shape.

図10は、飛行経路FPAでの概略撮像を説明するための図である。   FIG. 10 is a diagram for explaining schematic imaging in the flight path FPA.

処理部81において、飛行経路処理部811は、飛行経路FPAでは、各撮像位置CPの間隔(撮像位置間隔)を、間隔d11に設定してよい。間隔d11は、オブジェクト(例えば建物)のサイズが推定可能となる程度の疎な間隔(例えば数10m間隔)である。間隔d11は、少なくとも、隣り合う撮像位置CPでの撮像範囲が一部重複する間隔に設定される。飛行経路FPAの間隔d11での各撮像位置CPでの撮像を、概略撮像と称してよい。無人飛行体100は、疎な間隔で撮像することで、密な間隔で撮像するよりも撮像時間を短縮できる。無人飛行体100が飛行する飛行経路の鉛直方向(地面に向かう方向、重力方向)には、建物BLや山MTを含む景色が広がっていてよい。従って、建物BLや山MTは、撮像範囲に存在し、撮像対象となる。この概略撮像による撮像画像によって、オブジェクトの概略形状が取得可能である。   In the processing unit 81, the flight path processing unit 811 may set the interval (imaging position interval) between the imaging positions CP to the interval d11 in the flight path FPA. The interval d11 is a sparse interval (eg, several tens of meters apart) at which the size of an object (eg, a building) can be estimated. The interval d11 is set to at least an interval in which the imaging ranges at the adjacent imaging positions CP partially overlap. Imaging at each imaging position CP at the interval d11 of the flight path FPA may be referred to as general imaging. The unmanned aerial vehicle 100 can reduce the imaging time by imaging at sparse intervals compared to imaging at dense intervals. In the vertical direction (the direction toward the ground, the direction of gravity) of the flight path on which the unmanned aerial vehicle 100 flies, the scenery including the building BL and the mountain MT may spread. Therefore, the building BL and the mountain MT exist in the imaging range and are the imaging targets. The schematic shape of the object can be obtained from the captured image obtained by the general imaging.

図11は、飛行経路FPAにより得られた概略撮像に基づく概略形状の3次元形状データの生成を説明するための図である。   FIG. 11 is a diagram for describing generation of three-dimensional shape data of a schematic shape based on the schematic imaging obtained by the flight path FPA.

処理部81において、形状データ処理部812は、飛行経路FPAの概略撮像により各撮像位置CPで得られた複数の撮像画像CI1を基に、オブジェクトの概略形状の3次元形状データSD1を生成する。ユーザは、3次元形状データSD1を表示等により確認することで、飛行経路FPAの鉛直方向に存在した地面の概略形状を把握できる。ユーザは、概略撮像に基づく3次元形状データSD1により得られる形状(概略形状)の確認により、山MTが存在することは確認可能であるが、建物BLの存在は確認できない。これは、山MTはその輪郭がなだらかであり、飛行経路FPAに従う上空から撮像しても、撮像画像CI1内に3次元形状データSD1の生成に必要な画像が足りるためである。また、これは、建物BLはその輪郭が鉛直方向に略平行となり、建物BLの上空で水平方向に無人飛行体100が進行する飛行経路FPAの撮像位置CPにおいて、建物BLの側面を十分に撮像することが困難であるためである。つまり、建物BLの周辺は、下向きに撮像した撮像画像からは3次元形状推定に必要な情報が取得できない。   In the processing unit 81, the shape data processing unit 812 generates the three-dimensional shape data SD1 of the schematic shape of the object based on the plurality of captured images CI1 obtained at the respective imaging positions CP by the schematic imaging of the flight path FPA. By confirming the three-dimensional shape data SD1 by display or the like, the user can grasp the general shape of the ground existing in the vertical direction of the flight path FPA. The user can confirm the presence of the mountain MT by checking the shape (schematic shape) obtained from the three-dimensional shape data SD1 based on the schematic imaging, but cannot confirm the existence of the building BL. This is because the mountain MT has a gentle contour, and even if the mountain MT is imaged from the sky following the flight path FPA, an image necessary for generating the three-dimensional shape data SD1 is sufficient in the captured image CI1. This also means that the side of the building BL is sufficiently imaged at the imaging position CP of the flight path FPA in which the outline of the building BL is substantially parallel to the vertical direction and the unmanned aerial vehicle 100 travels over the building BL in the horizontal direction. This is because it is difficult to do so. In other words, information necessary for three-dimensional shape estimation cannot be acquired from the captured image taken downward in the vicinity of the building BL.

そこで、飛行経路処理部811は、オブジェクトの概略形状のデータを用いて、オブジェクトの鉛直方向に平行な側面に向かう方向、すなわち水平方向(鉛直方向の法線方向)に向けてオブジェクトの側面を側方から撮像するように、飛行経路及び撮像位置を生成して設定する。形状データ処理部812は、生成した飛行経路に従って撮像したオブジェクトの側方の撮像画像を含む撮像画像を用いて、オブジェクトの3次元形状データを生成する。これにより、オブジェクトの3次元形状の推定精度を向上できる。   Therefore, the flight path processing unit 811 uses the data of the approximate shape of the object to move the side of the object toward the direction parallel to the vertical direction of the object, that is, the horizontal direction (the normal direction of the vertical direction). A flight path and an imaging position are generated and set so that an image is taken from the user. The shape data processing unit 812 generates three-dimensional shape data of the object using a captured image including a captured image on the side of the object captured according to the generated flight path. Thereby, the estimation accuracy of the three-dimensional shape of the object can be improved.

[3次元形状推定]
図12は、実施形態における3次元形状推定方法の処理手順の一例を示すフローチャートである。本例では、情報処理装置の処理部の一例としての携帯端末80の処理部81が主体的に処理を実行するものとする。
[Three-dimensional shape estimation]
FIG. 12 is a flowchart illustrating an example of a processing procedure of the three-dimensional shape estimation method according to the embodiment. In this example, it is assumed that the processing unit 81 of the mobile terminal 80 as an example of the processing unit of the information processing apparatus mainly performs the processing.

処理部81の飛行経路処理部811は、生成した飛行経路を用いて、無人飛行体100に対して飛行経路の設定を行う(S21)。無人飛行体100の処理部110は、設定された飛行経路に従って、撮影対象領域の飛行範囲を飛行し、所定の撮像位置において側方に向かってオブジェクトを空撮する(S22)。この場合、処理部110は、所定の撮像位置間隔毎に撮像範囲を一部重複させて詳細にオブジェクトを撮像(以下、「詳細撮像」と称する場合がある)する。無人飛行体100の処理部110は、各撮像位置における撮像画像を取得し、メモリ160に撮像画像を記録する。   The flight path processing unit 811 of the processing unit 81 sets a flight path for the unmanned aerial vehicle 100 using the generated flight path (S21). The processing unit 110 of the unmanned aerial vehicle 100 flies in the flight range of the imaging target area according to the set flight path, and aerially photographs the object sideways at a predetermined imaging position (S22). In this case, the processing unit 110 captures the object in detail by partially overlapping the imaging range at every predetermined imaging position interval (hereinafter, may be referred to as “detailed imaging”). The processing unit 110 of the unmanned aerial vehicle 100 acquires a captured image at each imaging position, and records the captured image in the memory 160.

処理部81の形状データ処理部812は、撮影対象領域の詳細撮像(側方空撮)により得られた撮像画像を取得してメモリ87又はストレージ89に格納する。形状データ処理部812は、取得した撮像画像群から公知の3次元形状復元技術によってオブジェクト(建物、地面など)の立体形状を推定することで、3次元形状データを生成する(S23)。   The shape data processing unit 812 of the processing unit 81 acquires a captured image obtained by detailed imaging (lateral aerial photography) of the imaging target area and stores the acquired image in the memory 87 or the storage 89. The shape data processing unit 812 generates three-dimensional shape data by estimating the three-dimensional shape of an object (building, ground, etc.) from the acquired captured image group by a known three-dimensional shape restoration technique (S23).

これにより、オブジェクトを側方から撮像した詳細な撮像画像を用いて、オブジェクトの側面の形状を含む3次元形状データを生成できる。したがって、オブジェクトを下向きに撮像した撮像画像では復元が困難であった側面の詳細形状を推定でき、オブジェクトの3次元形状データの精度を向上できる。   Accordingly, three-dimensional shape data including the shape of the side surface of the object can be generated using the detailed captured image of the object captured from the side. Therefore, it is possible to estimate the detailed shape of the side surface, which has been difficult to restore in the captured image obtained by capturing the object downward, and to improve the accuracy of the three-dimensional shape data of the object.

[飛行経路生成の第1動作例]
図13は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第1動作例を説明するための図である。第1動作例は、オブジェクトを囲む立方体等の多面体を算出してオブジェクトの側方に向かう撮影平面を生成する例である。
[First operation example of flight path generation]
FIG. 13 is a diagram illustrating a first operation example of generating a flight path using the schematic shape of an object according to the embodiment. The first operation example is an example in which a polyhedron, such as a cube, surrounding an object is calculated to generate an imaging plane directed to the side of the object.

処理部81の飛行経路処理部811は、取得した概略形状を用いて、オブジェクトの外形を囲むような多面体を算出する。この多面体は、オブジェクトの概略形状に対して、外側に接するか又は少し大きい立体である。図示例では、多面体の一例として立方体301を算出した例を示す。飛行経路処理部811は、立方体301の多面体において、少なくとも一つの側面303を抽出する。側面303は、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面であってよい。飛行経路処理部811は、抽出した側面303に対して、多面体の外向きに法線304を算出する。法線304は、側面303の面上に沿う2つのベクトル(例えば、各頂点のいずれかを結ぶベクトル)の外積によって算出できる。飛行経路処理部811は、取得した法線304を用いて、所定の撮影距離を有して側面303と平行する撮影平面305を算出する。この撮影平面305は、側面303から所定の撮影距離に位置し、法線304に対して垂直な平面となる。飛行経路処理部811は、生成した撮影平面305において、この平面内で所定の撮像位置間隔を持つ複数の撮像位置(ウェイポイント)306を設定し、各撮像位置306を通る撮影経路307を決定することにより、この撮影経路307を含む飛行経路を生成する。各撮像位置306における撮影方向は、法線304の方向と逆方向でオブジェクトの側面に対向する方向となる。オブジェクトを囲む多面体が立方体、直方体、或いは柱状体の場合、撮影平面は鉛直方向の平面となり、撮影方向は撮影平面と垂直な水平方向となる。   The flight path processing unit 811 of the processing unit 81 calculates a polyhedron surrounding the outer shape of the object by using the acquired schematic shape. The polyhedron is a solid that touches the outside or is slightly larger than the general shape of the object. The illustrated example shows an example in which a cube 301 is calculated as an example of a polyhedron. The flight path processing unit 811 extracts at least one side surface 303 from the polyhedron of the cube 301. The side surface 303 may be a surface along the vertical direction of the polyhedron, or a surface standing within a predetermined angle range in the vertical direction. The flight path processing unit 811 calculates a normal line 304 outward of the polyhedron with respect to the extracted side surface 303. The normal line 304 can be calculated by the cross product of two vectors (for example, a vector connecting any one of the vertices) along the surface of the side surface 303. The flight path processing unit 811 calculates an imaging plane 305 having a predetermined imaging distance and being parallel to the side surface 303 using the acquired normal line 304. The photographing plane 305 is located at a predetermined photographing distance from the side surface 303 and is a plane perpendicular to the normal 304. The flight path processing unit 811 sets a plurality of imaging positions (waypoints) 306 having a predetermined imaging position interval in the generated imaging plane 305 within this plane, and determines an imaging path 307 passing through each imaging position 306. As a result, a flight path including the photographing path 307 is generated. The imaging direction at each imaging position 306 is opposite to the direction of the normal line 304 and faces the side surface of the object. When the polyhedron surrounding the object is a cube, a rectangular parallelepiped, or a column, the imaging plane is a vertical plane, and the imaging direction is a horizontal direction perpendicular to the imaging plane.

図14は、撮影平面305における複数の撮像位置306の設定を説明するための図である。飛行経路処理部811は、多面体の側面303に対して、法線方向に所定の撮影距離Lを設定し、側面303から撮影距離L離れた位置に側面303と平行な撮影平面305を算出する。飛行経路処理部811は、撮影平面305において、所定の撮像位置間隔dを設定し、撮像位置間隔d毎に撮像位置306を決定する。撮影距離Lと撮像位置間隔dの設定は、例えば以下に示す方法を用いてよい。   FIG. 14 is a diagram for describing the setting of a plurality of imaging positions 306 on the imaging plane 305. The flight path processing unit 811 sets a predetermined shooting distance L in the normal direction with respect to the side surface 303 of the polyhedron, and calculates a shooting plane 305 parallel to the side surface 303 at a position separated from the side surface 303 by the shooting distance L. The flight path processing unit 811 sets a predetermined imaging position interval d on the imaging plane 305, and determines the imaging position 306 for each imaging position interval d. The setting of the photographing distance L and the photographing position interval d may be performed by the following method, for example.

[1]ユーザが撮影距離L[m]と撮像位置間隔d[m]を指定する。携帯端末80の処理部81は、ユーザによる操作入力に従い、操作部83によって、撮影距離Lと撮像位置間隔dの情報を入力し、メモリ87に格納する。これにより、ユーザの指定による撮影距離と撮像位置間隔に基づいて詳細撮像用の撮像位置を設定できる。   [1] The user specifies a shooting distance L [m] and an imaging position interval d [m]. The processing unit 81 of the mobile terminal 80 inputs information of the shooting distance L and the imaging position interval d by the operation unit 83 according to the operation input by the user, and stores the information in the memory 87. Thereby, the imaging position for detailed imaging can be set based on the imaging distance and the imaging position interval specified by the user.

[2]ユーザが撮影距離L[m]と撮像範囲の重複率rside[%]を指定し、撮影距離L及び重複率rsideから撮像位置間隔d[m]を算出する。撮像位置間隔dは、撮影距離L、重複率rside、及び撮像装置の画角FOV(Field of View)を用いて、次の数式(1)により算出できる。[2] The user specifies the shooting distance L [m] and the overlap ratio r side [%] of the imaging range, and calculates the imaging position interval d [m] from the shooting distance L and the overlap ratio r side . The imaging position interval d can be calculated by the following equation (1) using the imaging distance L, the overlap ratio r side , and the angle of view FOV (Field of View) of the imaging device.

Figure 2018193574
Figure 2018193574

携帯端末80の処理部81は、ユーザによる操作入力に従い、操作部83によって、撮影距離Lと重複率rsideの情報を入力し、メモリ87に格納する。処理部81は、インタフェース部82又は無線通信部85によって、無人飛行体100より撮像装置220の画角FOVの情報を取得し、メモリ87に格納する。処理部81は、上記数式(1)によって撮像位置間隔dを算出する。これにより、ユーザの指定による撮影距離と撮像範囲の重複率に基づいて撮像位置間隔を算出し、詳細撮像用の撮像位置を設定できる。The processing unit 81 of the mobile terminal 80 inputs information of the shooting distance L and the overlap ratio r side by the operation unit 83 according to the operation input by the user, and stores the information in the memory 87. The processing unit 81 acquires information on the angle of view FOV of the imaging device 220 from the unmanned aerial vehicle 100 by the interface unit 82 or the wireless communication unit 85, and stores the information in the memory 87. The processing unit 81 calculates the imaging position interval d using the above equation (1). Thus, the imaging position interval can be calculated based on the overlapping ratio of the imaging distance and the imaging range specified by the user, and the imaging position for detailed imaging can be set.

[3]ユーザが撮像画像の解像度r[m/pixel]と撮像範囲の重複率rside[%]を指定し、解像度r及び重複率rsideから撮像位置間隔d[m]を算出する。また、撮像位置間隔dから撮影距離L[m]を算出する。撮像位置間隔dは、解像度r、撮像画像の幅w、及び重複率rsideを用いて、次の数式(2)により算出できる。[3] The user specifies the resolution r [m / pixel] of the captured image and the overlap ratio r side [%] of the imaging range, and calculates the imaging position interval d [m] from the resolution r and the overlap ratio r side . Further, the photographing distance L [m] is calculated from the photographing position interval d. The imaging position interval d can be calculated by the following equation (2) using the resolution r, the width w of the captured image, and the overlap ratio r side .

Figure 2018193574
Figure 2018193574

撮影距離Lは、撮像位置間隔d、重複率rside、及び撮像装置の画角FOVを用いて次の数式(3)により算出できる。The shooting distance L can be calculated by the following equation (3) using the imaging position interval d, the overlap ratio r side , and the angle of view FOV of the imaging device.

Figure 2018193574
Figure 2018193574

携帯端末80の処理部81は、ユーザによる操作入力に従い、操作部83によって、解像度rと重複率rsideの情報を入力し、メモリ87に格納する。処理部81は、上記数式(2)によって撮像位置間隔dを算出する。処理部81は、インタフェース部82又は無線通信部85によって、無人飛行体100より撮像装置220の画角FOVの情報を取得し、メモリ87に格納する。処理部81は、上記数式(3)によって撮影距離Lを算出する。これにより、ユーザの指定による撮像画像の解像度と撮像範囲の重複率に基づいて撮像位置間隔を算出し、詳細撮像用の撮像位置を設定できる。The processing unit 81 of the mobile terminal 80 inputs the information of the resolution r and the overlap ratio r side by the operation unit 83 according to the operation input by the user, and stores the information in the memory 87. The processing unit 81 calculates the imaging position interval d using the above equation (2). The processing unit 81 acquires information on the angle of view FOV of the imaging device 220 from the unmanned aerial vehicle 100 by the interface unit 82 or the wireless communication unit 85, and stores the information in the memory 87. The processing unit 81 calculates the shooting distance L by the above equation (3). Thus, the imaging position interval can be calculated based on the resolution of the captured image specified by the user and the overlap ratio of the imaging range, and the imaging position for detailed imaging can be set.

飛行経路処理部811は、撮影平面305において、設定した撮像位置間隔dに基づき、複数の撮像位置306を撮像位置間隔d毎に等間隔に配置し、これらの撮像位置306を通る撮影経路307を決定する。撮影平面305における始点や終点の撮像位置など、撮影平面305の端部の撮像位置は、撮影平面305の側端から1/2d以下の範囲に設定してよい。   The flight path processing unit 811 arranges a plurality of imaging positions 306 at equal intervals on the imaging plane 305 based on the set imaging position intervals d and sets the imaging path 307 passing through these imaging positions 306. decide. The imaging position at the end of the imaging plane 305, such as the imaging position of the start point and the end point on the imaging plane 305, may be set to a range of 1 / 2d or less from the side edge of the imaging plane 305.

図15は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第1動作例の処理手順を示すフローチャートである。処理部81の飛行経路処理部811は、取得した概略形状を用いて、オブジェクトの外形を囲む多面体(立方体301)を算出する(S31)。飛行経路処理部811は、立方体301の多面体において、少なくとも一つ(立方体では4つ)の側面303を順番に抽出する(S32)。飛行経路処理部811は、抽出した1つの側面303に対して、多面体の外向きに法線304を算出する(S33)。飛行経路処理部811は、取得した法線304を用いて、所定の撮影距離L離れた位置にその側面303と平行する撮影平面305を算出する(S34)。   FIG. 15 is a flowchart illustrating a processing procedure of a first operation example of generating a flight path using the schematic shape of an object according to the embodiment. The flight path processing unit 811 of the processing unit 81 calculates a polyhedron (cube 301) surrounding the outer shape of the object using the acquired schematic shape (S31). The flight path processing unit 811 sequentially extracts at least one (four in the cube) side surfaces 303 in the polyhedron of the cube 301 (S32). The flight path processing unit 811 calculates a normal line 304 outward of the polyhedron with respect to the extracted one side surface 303 (S33). Using the acquired normal line 304, the flight path processing unit 811 calculates an imaging plane 305 parallel to the side surface 303 at a position separated by a predetermined imaging distance L (S34).

飛行経路処理部811は、算出した1つの撮影平面305において、所定の撮像位置間隔dを持つ複数の撮像位置(ウェイポイント)306を設定し、これらの各撮像位置からオブジェクトを向く方向に撮影する撮影経路307を生成する(S35)。飛行経路処理部811は、オブジェクトに関して、抽出した全ての側面303の撮影経路307の生成が完了したかを判定する(S36)。全ての側面303の撮影経路生成が完了していない場合、飛行経路処理部811は、ステップS32の処理に戻り、次の側面303を抽出し、撮影経路307の生成まで同様の処理を繰り返す(S32〜S35)。ステップS36において、全ての側面303の撮影経路生成が完了した場合、飛行経路処理部811は、それぞれの撮影平面305の撮影経路307を結合し、飛行経路を生成する(S37)。   The flight path processing unit 811 sets a plurality of imaging positions (waypoints) 306 having a predetermined imaging position interval d on one calculated imaging plane 305, and performs imaging in a direction from each of these imaging positions toward the object. An imaging route 307 is generated (S35). The flight path processing unit 811 determines whether the generation of the imaging paths 307 of all the extracted side surfaces 303 has been completed for the object (S36). If the generation of the imaging paths for all the side surfaces 303 has not been completed, the flight path processing unit 811 returns to the processing in step S32, extracts the next side surface 303, and repeats the same processing until the generation of the imaging paths 307 (S32). ~ S35). In step S36, when the generation of the imaging paths of all the side surfaces 303 is completed, the flight path processing unit 811 combines the imaging paths 307 of the respective imaging planes 305 to generate a flight path (S37).

無人飛行体100の処理部110は、通信インタフェース150によって携帯端末80と通信を行い、飛行経路処理部811により生成された飛行経路の情報を取得し、無人飛行体100の飛行経路を設定する。処理部110は、設定した飛行経路に従ってオブジェクトの周囲を飛行し、複数の撮像位置(ウェイポイント)のそれぞれにおいて撮像装置220、230によってオブジェクトを撮像する。処理部110は、各撮影平面305の撮影経路307を結合した飛行経路によって、撮影平面305毎に順番にそれぞれの撮像位置306にて撮像する。すなわち、処理部110は、被写体に含まれるオブジェクトに対して、概略形状の多面体(立方体301)の1つの側面303に対応する撮影平面305において各撮像位置306にて撮像が完了すると、次の側面に対応する撮影平面、例えば現在の側面に隣接する側面の撮影平面に移動し、この撮影平面の各撮像位置にて撮像を行う。このように、無人飛行体100は、飛行経路に設定された全ての撮影平面の撮像位置において、オブジェクトの側面に向かって撮像した側方の撮像画像を取得する。   The processing unit 110 of the unmanned aerial vehicle 100 communicates with the mobile terminal 80 via the communication interface 150, acquires information on the flight route generated by the flight route processing unit 811 and sets the flight route of the unmanned aerial vehicle 100. The processing unit 110 flies around the object according to the set flight path, and images the object with the imaging devices 220 and 230 at each of a plurality of imaging positions (waypoints). The processing unit 110 sequentially captures images at the respective imaging positions 306 for each of the imaging planes 305 by a flight path obtained by combining the imaging paths 307 of the imaging planes 305. That is, when the imaging of the object included in the subject is completed at each imaging position 306 on the imaging plane 305 corresponding to one side surface 303 of the roughly-shaped polyhedron (cube 301), the processing unit 110 proceeds to the next side surface. Is moved to an imaging plane corresponding to the image plane, for example, an imaging plane on a side surface adjacent to the current side surface, and imaging is performed at each imaging position on this imaging plane. As described above, the unmanned aerial vehicle 100 acquires the captured image of the side captured toward the side surface of the object at the imaging positions of all the imaging planes set in the flight path.

携帯端末80の処理部81は、インタフェース部82又は無線通信部85によって無人飛行体100と通信を行い、無人飛行体100によって撮像された撮像画像を取得する。処理部81の形状データ処理部812は、取得したオブジェクトの側方の撮像画像を用いて、オブジェクト(建物、地面など)の3次元形状データを生成することにより、オブジェクトの側面の形状を含む詳細な3次元形状を推定可能となる。   The processing unit 81 of the mobile terminal 80 communicates with the unmanned aerial vehicle 100 via the interface unit 82 or the wireless communication unit 85, and acquires a captured image captured by the unmanned aerial vehicle 100. The shape data processing unit 812 of the processing unit 81 generates three-dimensional shape data of the object (building, ground, etc.) using the acquired captured image of the side of the object, thereby obtaining details including the shape of the side surface of the object. A three-dimensional shape can be estimated.

なお、撮像画像は、側方の撮像画像とともに、オブジェクトを詳細撮像用の撮像位置間隔で鉛直方向下向きに詳細撮像を行った下方の撮像画像を含んでよい。この場合、飛行経路処理部811は、オブジェクトの上面についても側面と同様に複数の撮像位置を含む撮影経路を設定し、飛行経路を生成する。   In addition, the captured image may include a lower captured image obtained by performing detailed imaging of the object vertically downward at an imaging position interval for detailed imaging together with the laterally captured image. In this case, the flight path processing unit 811 sets an imaging path including a plurality of imaging positions on the upper surface of the object, similarly to the side surface, and generates a flight path.

上記動作例により、オブジェクトの概略形状を囲む多面体を算出し、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出することで、オブジェクトの側方に向かって撮像可能な概略形状の側面を抽出できる。このため、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定できる。   By the above operation example, a polyhedron surrounding the schematic shape of the object is calculated, and a surface along the vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction is extracted as a side surface, so that the surface is directed toward the side of the object. Thus, the side surface of the approximate shape that can be imaged can be extracted. For this reason, it is possible to set an imaging position at which detailed imaging can be performed when the object is viewed from the side, using the schematic shape of the object.

[飛行経路生成の第2動作例]
図16は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第2動作例を説明するための図である。第2動作例は、オブジェクトの概略形状を示すメッシュを簡略化してオブジェクトの側方に向かう撮影平面を生成する例である。
[Second operation example of flight path generation]
FIG. 16 is a diagram illustrating a second operation example of generating a flight path using the schematic shape of an object according to the embodiment. The second operation example is an example in which a mesh indicating a schematic shape of an object is simplified to generate an imaging plane facing the side of the object.

処理部81の飛行経路処理部811は、取得した概略形状を用いて、オブジェクトの概略形状を示すメッシュを簡略化する。メッシュの簡略化手法としては、公知の方法を用いてよい。公知の方法として、例えば、Vertex clustering法、Incremental decimation法などが挙げられる。メッシュ簡略化処理において、ポリゴンデータを簡略化して複雑な形状を単純化し、1つの面を表すポリゴンの数を削減するスムージングを行う。図示例では、飛行経路処理部811は、概略形状311に対して簡略化処理を施し、簡略化した多面体312を算出する。飛行経路処理部811は、簡略化した多面体312において、少なくとも一つの側面313を抽出し、抽出した側面313に対して、多面体の外向きに法線314を算出する。この場合、多面体312の各平面について法線の向きを判定し、正規化した法線の垂直成分Nzの絶対値が0.1より小さい(|Nz|<0.1)場合、その平面を側面313として抽出する。側面313は、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面であってよい。飛行経路処理部811は、取得した法線314を用いて、所定の撮影距離Lを有して側面313と平行する撮影平面315を算出する。飛行経路処理部811は、算出した撮影平面315において、所定の撮像位置間隔dを持つ複数の撮像位置(ウェイポイント)316を設定し、各撮像位置316を通る撮影経路317を決定し、この撮影経路317を含む飛行経路を生成する。この場合、撮影平面は鉛直方向に対し所定範囲以内の切り立った平面となり、撮影方向は略水平方向に側方に向かう方向、すなわちオブジェクトの側面と対向する方向となる。   The flight path processing unit 811 of the processing unit 81 uses the acquired general shape to simplify the mesh indicating the general shape of the object. As a method for simplifying the mesh, a known method may be used. Known methods include, for example, a vertex clustering method and an incremental decimation method. In the mesh simplification process, smoothing is performed to simplify polygonal data to simplify a complicated shape and reduce the number of polygons representing one surface. In the illustrated example, the flight path processing unit 811 performs a simplification process on the schematic shape 311 to calculate a simplified polyhedron 312. The flight path processing unit 811 extracts at least one side surface 313 from the simplified polyhedron 312 and calculates a normal 314 to the extracted side surface 313 outward of the polyhedron. In this case, the direction of the normal to each plane of the polyhedron 312 is determined, and if the absolute value of the normalized normal component Nz is smaller than 0.1 (| Nz | <0.1), the plane is set to the side surface. 313 is extracted. The side surface 313 may be a surface along a vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction. The flight path processing unit 811 calculates an imaging plane 315 having a predetermined imaging distance L and parallel to the side surface 313 using the acquired normal 314. The flight path processing unit 811 sets a plurality of imaging positions (waypoints) 316 having a predetermined imaging position interval d on the calculated imaging plane 315, determines an imaging path 317 passing through each imaging position 316, and performs this imaging. A flight path including the path 317 is generated. In this case, the photographing plane is a steep plane within a predetermined range with respect to the vertical direction, and the photographing direction is a direction that is substantially horizontal toward the side, that is, a direction that faces the side surface of the object.

図17は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第2動作例の処理手順を示すフローチャートである。処理部81の飛行経路処理部811は、取得した概略形状を用いて、オブジェクトの概略形状のメッシュ簡略化を行い、概略形状311を簡略化した多面体312を算出する(S41)。飛行経路処理部811は、多面体312において、少なくとも一つの側面313を抽出する(S42)。飛行経路処理部811は、抽出した1つの側面313に対して、多面体の外向きに法線314を算出する(S43)。飛行経路処理部811は、算出した法線314を用いて、所定の撮影距離L離れた位置にその側面313と平行する撮影平面315を算出する(S44)。   FIG. 17 is a flowchart illustrating a processing procedure of a second operation example of the flight path generation using the schematic shape of the object according to the embodiment. The flight path processing unit 811 of the processing unit 81 uses the acquired schematic shape to simplify the mesh of the schematic shape of the object, and calculates a polyhedron 312 in which the schematic shape 311 is simplified (S41). The flight path processing unit 811 extracts at least one side surface 313 from the polyhedron 312 (S42). The flight path processing unit 811 calculates a normal 314 outward of the polyhedron with respect to the extracted one side surface 313 (S43). Using the calculated normal 314, the flight path processing unit 811 calculates an imaging plane 315 parallel to the side surface 313 at a position separated by a predetermined imaging distance L (S44).

飛行経路処理部811は、生成した1つの撮影平面315において、所定の撮像位置間隔dを持つ複数の撮像位置(ウェイポイント)316を設定し、これらの各撮像位置からオブジェクトを向く方向に撮影する撮影経路317を生成する(S45)。飛行経路処理部811は、オブジェクトに関して、抽出した全ての側面313の撮影経路317の生成が完了したかを判定する(S46)。全ての側面313の撮影経路生成が完了していない場合、飛行経路処理部811は、ステップS42の処理に戻り、現在の側面に隣接している次の側面313を抽出し、撮影経路317の生成まで同様の処理を繰り返す(S42〜S45)。ステップS46において、全ての側面313の撮影経路生成が完了した場合、飛行経路処理部811は、それぞれの撮影平面315の撮影経路317を結合し、飛行経路を生成する(S47)。   The flight path processing unit 811 sets a plurality of imaging positions (waypoints) 316 having a predetermined imaging position interval d in one generated imaging plane 315, and performs imaging in a direction from each of these imaging positions toward the object. An imaging route 317 is generated (S45). The flight path processing unit 811 determines whether the generation of the imaging paths 317 of all the extracted side surfaces 313 has been completed for the object (S46). If the generation of the imaging paths for all the side surfaces 313 has not been completed, the flight path processing unit 811 returns to the processing in step S42, extracts the next side surface 313 adjacent to the current side surface, and generates the imaging path 317. The same processing is repeated until (S42 to S45). In step S46, when the generation of the photographing paths of all the side surfaces 313 is completed, the flight path processing unit 811 combines the photographing paths 317 of the respective photographing planes 315 to generate a flight path (S47).

上記動作例により、オブジェクトの概略形状を簡略化した多面体を算出し、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出することで、オブジェクトの側方を向いて撮像可能な概略形状の側面を抽出できる。このため、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定できる。   By the above operation example, a polyhedron in which the schematic shape of the object is simplified is calculated, and a surface along the vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction is extracted as a side surface, so that the side of the object is extracted. , A side surface of a schematic shape that can be imaged can be extracted. For this reason, it is possible to set an imaging position at which detailed imaging can be performed when the object is viewed from the side, using the schematic shape of the object.

[飛行経路生成の第3動作例]
図18は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第3動作例を説明するための図である。第3動作例は、オブジェクトを囲む複数の立方体等の多面体を結合してオブジェクトの側方に向かう撮影平面を生成する例である。
[Third operation example of flight path generation]
FIG. 18 is a diagram illustrating a third operation example of generating a flight path using the schematic shape of an object according to the embodiment. The third operation example is an example in which a plurality of polyhedrons such as cubes surrounding an object are combined to generate an imaging plane directed to the side of the object.

処理部81の飛行経路処理部811は、取得した概略形状を用いて、建物などの複数のオブジェクトについて、各オブジェクトの概略形状を囲む複数の多面体をそれぞれ算出する。図示例では、複数の多面体の一例として近接して存在する立方体又は直方体の多面体321A、321B、321Cを算出した例を示す。飛行経路処理部811は、複数の多面体321A、321B、321Cを結合し、結合した多面体322を算出する。近接する多面体を結合することにより、側方の詳細撮像時の無人飛行体100のオブジェクトへの衝突を回避する。飛行経路処理部811は、結合した多面体322において、少なくとも一つの側面323を抽出する。側面323は、多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面であってよい。飛行経路処理部811は、抽出した側面323に対して、多面体の外向きに法線324を算出する。飛行経路処理部811は、算出した法線324を用いて、所定の撮影距離Lを有して側面323と平行する撮影平面325を算出する。飛行経路処理部811は、算出した撮影平面325の内部において、所定の撮像位置間隔dを持つ複数の撮像位置(ウェイポイント)326を設定し、各撮像位置326を通る撮影経路327を決定し、この撮影経路327を含む飛行経路を生成する。各撮像位置326における撮影方向は、法線324の方向と逆方向でオブジェクトの側面と対向する方向となる。オブジェクトを囲む多面体が立方体、直方体、或いは柱状体の場合、撮影平面は鉛直方向の平面となり、撮影方向は撮影平面と垂直な水平方向となる。   The flight path processing unit 811 of the processing unit 81 calculates a plurality of polyhedrons surrounding the outline shape of each object, for a plurality of objects such as buildings, using the acquired outline shape. In the illustrated example, an example is shown in which cubic or rectangular parallelepiped polyhedrons 321A, 321B, and 321C are calculated as an example of a plurality of polyhedrons. The flight path processing unit 811 combines the plurality of polyhedrons 321A, 321B, and 321C, and calculates the combined polyhedron 322. By coupling the adjacent polyhedrons, collision of the unmanned aerial vehicle 100 with the object at the time of side detailed imaging is avoided. The flight path processing unit 811 extracts at least one side surface 323 of the combined polyhedron 322. The side surface 323 may be a surface along the vertical direction of the polyhedron, or a surface standing within a predetermined angle range in the vertical direction. The flight path processing unit 811 calculates the normal 324 outward of the polyhedron with respect to the extracted side surface 323. Using the calculated normal 324, the flight path processing unit 811 calculates an imaging plane 325 having a predetermined imaging distance L and being parallel to the side surface 323. The flight path processing unit 811 sets a plurality of imaging positions (waypoints) 326 having a predetermined imaging position interval d within the calculated imaging plane 325, determines an imaging path 327 passing through each imaging position 326, A flight path including the photographing path 327 is generated. The imaging direction at each imaging position 326 is opposite to the direction of the normal 324 and faces the side surface of the object. When the polyhedron surrounding the object is a cube, a rectangular parallelepiped, or a column, the imaging plane is a vertical plane, and the imaging direction is a horizontal direction perpendicular to the imaging plane.

図19は、実施形態におけるオブジェクトの概略形状を用いた飛行経路生成の第3動作例の処理手順を示すフローチャートである。処理部81の飛行経路処理部811は、取得した概略形状を用いて、複数のオブジェクトについて、各オブジェクトの外形を囲む複数の多面体321A、321B、321Cを算出する(S51)。飛行経路処理部811は、各多面体321A、321B、321Cを結合し、結合した多面体322を算出する(S52)。飛行経路処理部811は、結合した多面体322において、少なくとも一つの側面323を順番に抽出する(S32)。飛行経路処理部811における、多面体の側面323の抽出(S32)、法線324の算出(S33)、撮影平面325の算出(S34)、撮像位置326の決定及び撮影経路327の生成(S35)、全撮影経路の生成完了の判定(S36)の各処理は、図15に示した第1動作例と同様であり、ここでは説明を省略する。   FIG. 19 is a flowchart illustrating a processing procedure of a third operation example of generating a flight path using the schematic shape of an object according to the embodiment. The flight path processing unit 811 of the processing unit 81 calculates a plurality of polyhedrons 321A, 321B, and 321C surrounding the outer shape of each of the plurality of objects by using the acquired schematic shape (S51). The flight path processing unit 811 combines the polyhedrons 321A, 321B, and 321C and calculates the combined polyhedron 322 (S52). The flight path processing unit 811 sequentially extracts at least one side surface 323 from the combined polyhedron 322 (S32). The flight path processing unit 811 extracts the side surface 323 of the polyhedron (S32), calculates the normal 324 (S33), calculates the imaging plane 325 (S34), determines the imaging position 326, and generates the imaging path 327 (S35). Each process of the determination (S36) of the completion of generation of all shooting paths is the same as that of the first operation example shown in FIG. 15, and the description is omitted here.

飛行経路処理部811は、ステップS36において、全ての側面323の撮影経路生成が完了していない場合、ステップS32の処理に戻り、現在の側面に隣接している次の側面323を抽出し、撮影経路327の生成まで同様の処理を繰り返す(S32〜S35)。全ての側面323の撮影経路生成が完了した場合、飛行経路処理部811は、結合した多面体322におけるそれぞれの撮影平面325の撮影経路327を結合し、飛行経路を生成する(S57)。   In step S36, when the generation of the imaging routes of all the side surfaces 323 is not completed, the flight path processing unit 811 returns to the process of step S32, extracts the next side surface 323 adjacent to the current side surface, and performs imaging. The same processing is repeated until the path 327 is generated (S32 to S35). When the generation of the imaging paths of all the side surfaces 323 is completed, the flight path processing unit 811 combines the imaging paths 327 of the respective imaging planes 325 in the combined polyhedron 322 to generate a flight path (S57).

なお、上述した第2動作例と第3動作例とを組み合わせて、オブジェクトの概略形状の簡略化と複数の多面体の結合とを行い、側面の抽出、撮影平面及び撮像位置の設定、及び撮影経路の決定を行うことにより、飛行経路を生成してよい。   The above-described second operation example and third operation example are combined to simplify the schematic shape of the object and combine a plurality of polyhedrons, to extract the side surface, set the imaging plane and the imaging position, and set the imaging path. By making the determination, a flight path may be generated.

上記動作例により、オブジェクトの複数の概略形状に対応する多面体をそれぞれ算出し、近接する複数の多面体を結合して、結合した多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出することで、オブジェクトの側方を向いて撮像可能な概略形状の側面を抽出できる。このため、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定できる。複数の多面体を結合して側面を抽出することで、オブジェクトが近接して存在する場合に、側方の詳細撮像時に飛行体がオブジェクトへ衝突することを回避できる。   According to the above operation example, a polyhedron corresponding to a plurality of general shapes of the object is calculated, and a plurality of adjacent polyhedrons are combined, and a surface along the vertical direction of the combined polyhedron or a vertical angle range is set. By extracting the cut surface as a side surface, it is possible to extract a roughly shaped side surface that can be imaged facing the side of the object. For this reason, it is possible to set an imaging position at which detailed imaging can be performed when the object is viewed from the side, using the schematic shape of the object. By combining a plurality of polyhedrons and extracting a side surface, it is possible to prevent the flying object from colliding with the object during detailed imaging of the side when the object exists in close proximity.

上記構成例では、情報処理装置として機能する携帯端末80によって、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定し、撮像位置を通る飛行経路を設定できる。   In the above configuration example, the mobile terminal 80 functioning as an information processing device sets an imaging position at which detailed imaging can be performed when the object is viewed from the side using the schematic shape of the object, and sets a flight path passing through the imaging position. it can.

本実施形態によれば、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定できる。概略形状の側面を抽出することで、オブジェクトの側面に対応する側方の詳細撮像用の撮像位置を設定できる。設定した撮像位置を通過する飛行経路を生成することで、オブジェクトの側方を含む詳細撮像用の飛行経路を設定できる。抽出した側面毎に、側面に対向する撮像位置を設定することで、オブジェクトを側方から見た水平方向の詳細撮像が可能となる。   According to the present embodiment, it is possible to set an imaging position at which a detailed imaging can be performed when the object is viewed from the side, using the schematic shape of the object. By extracting the side surface of the schematic shape, it is possible to set the imaging position for detailed side imaging corresponding to the side surface of the object. By generating a flight path that passes through the set imaging position, a flight path for detailed imaging including the side of the object can be set. By setting an imaging position facing the side surface for each extracted side surface, detailed imaging in the horizontal direction when the object is viewed from the side can be performed.

本実施形態によれば、抽出した側面に対応して、所定の撮像位置間隔を持つ複数の撮像位置を設定することで、適切な解像度、重複率を持つ撮像画像を取得できる。設定した複数の撮像位置を通る撮影経路を決定し、撮影経路を含む飛行経路を生成することで、オブジェクトの側方を含む詳細撮像用の飛行経路を設定できる。抽出した側面に対して所定の撮影距離を有して平行する撮影平面を生成することで、オブジェクトの側面に対向する撮像位置を容易に決定できる。側面に対する法線を算出することで、側面に対して所定の撮影距離において平行する撮影平面を容易に生成できる。所定の撮像位置間隔として、各撮像位置において撮像した撮像画像の一部が他と重複する撮像位置間隔を用いることで、適切な重複率を持つ撮像画像を取得可能な撮像位置を設定できる。一つの側面において撮像位置を通過する飛行経路を生成し、この側面と隣接する次の側面において撮像位置を通過する飛行経路を生成することで、オブジェクトの複数の側面に対応して、側面毎に順番に飛行して効率良く撮像できる。オブジェクトを下向きに撮像した撮像画像を取得し、この撮像画像を用いてオブジェクトの概略形状の3次元形状データを取得することで、所望のオブジェクトの概略形状を取得できる。   According to the present embodiment, by setting a plurality of imaging positions having a predetermined imaging position interval corresponding to the extracted side surface, a captured image having an appropriate resolution and an appropriate overlap rate can be obtained. By determining an imaging route that passes through a plurality of set imaging positions and generating a flight route including the imaging route, a flight route for detailed imaging including the side of the object can be set. By generating a shooting plane parallel to the extracted side surface at a predetermined shooting distance, an imaging position facing the side surface of the object can be easily determined. By calculating the normal to the side surface, a shooting plane parallel to the side surface at a predetermined shooting distance can be easily generated. By using, as the predetermined image capturing position interval, an image capturing position interval at which a part of the image captured at each image capturing position overlaps with another, an image capturing position at which a captured image having an appropriate overlap rate can be obtained can be set. By generating a flight path passing through the imaging position on one side and generating a flight path passing through the imaging position on the next side adjacent to this side, corresponding to a plurality of sides of the object, for each side You can fly in order and take images efficiently. By acquiring a captured image of the object facing downward and acquiring three-dimensional shape data of the schematic shape of the object using the captured image, it is possible to acquire a schematic shape of a desired object.

[飛行経路生成システム、第2構成例]
図20は、実施形態における飛行経路生成システム10Aの第2構成例を示す模式図である。飛行経路生成システム10Aは、無人飛行体100及びPC(Personal Computer)70を含む。無人飛行体100及びPC70は、有線通信又は無線通信(例えば無線LAN、又はBluetooth(登録商標))を用いて、互いに通信可能である。PC70は、デスクトップPC、ノートPC、タブレット端末などのコンピュータでよい。PC70は、ネットワークにより接続されたサーバとクライアント端末によるコンピュータでよい。PC70は、情報処理装置の一例である。
[Flying path generation system, second configuration example]
FIG. 20 is a schematic diagram illustrating a second configuration example of the flight path generation system 10A according to the embodiment. The flight path generation system 10A includes an unmanned aerial vehicle 100 and a PC (Personal Computer) 70. The unmanned aerial vehicle 100 and the PC 70 can communicate with each other using wired communication or wireless communication (for example, wireless LAN or Bluetooth (registered trademark)). The PC 70 may be a computer such as a desktop PC, a notebook PC, and a tablet terminal. The PC 70 may be a computer including a server and a client terminal connected by a network. The PC 70 is an example of an information processing device.

PC70は、処理部の一例としてのプロセッサ(例えばCPU、MPU又はDSP)、記憶部の一例としてのメモリ、通信インタフェース、ディスプレイ、入力デバイス、ストレージを含んでよい。情報処理装置の一例としてのPC70は、図7に示した携帯端末80が備える処理部81、飛行経路処理部811、形状データ処理部812と同様の機能を有する。   The PC 70 may include a processor (for example, a CPU, an MPU or a DSP) as an example of a processing unit, a memory as an example of a storage unit, a communication interface, a display, an input device, and a storage. The PC 70 as an example of the information processing apparatus has the same functions as the processing unit 81, the flight path processing unit 811, and the shape data processing unit 812 included in the mobile terminal 80 illustrated in FIG.

上記構成例では、情報処理装置として機能するPC70によって、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定し、撮像位置を通る飛行経路を設定できる。   In the above configuration example, the PC 70 functioning as an information processing device can set an imaging position at which detailed imaging of the object can be viewed from the side using the schematic shape of the object, and can set a flight path passing through the imaging position.

[飛行経路生成システム、第3構成例]
図21は、実施形態における飛行経路生成システム10Bの第3構成例に係る無人飛行体100Aのハードウェア構成の一例を示すブロック図である。飛行経路生成システム10Bの無人飛行体100Aは、図4に示した無人飛行体100と比較すると、処理部110の代わりに処理部110Aを備える。無人飛行体100Aは、情報処理装置の一例としての機能を有し、無人飛行体100Aの処理部110Aは、情報処理装置の処理部の一例である。図21の無人飛行体100Aにおいて、図4の無人飛行体100と同様の構成については、同一の符号を付し、説明を省略又は簡略化する。
[Flying path generation system, third configuration example]
FIG. 21 is a block diagram illustrating an example of a hardware configuration of an unmanned aerial vehicle 100A according to a third configuration example of the flight path generation system 10B in the embodiment. The unmanned aerial vehicle 100A of the flight path generation system 10B includes a processing unit 110A instead of the processing unit 110 as compared with the unmanned aerial vehicle 100 shown in FIG. The unmanned aerial vehicle 100A has a function as an example of an information processing device, and the processing unit 110A of the unmanned aerial vehicle 100A is an example of a processing unit of the information processing device. In the unmanned aerial vehicle 100A of FIG. 21, the same components as those of the unmanned aerial vehicle 100 of FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted or simplified.

情報処理装置の処理部の一例としての処理部110Aは、飛行経路処理部111、形状データ処理部112を含む。飛行経路処理部111は、図7に示した携帯端末80が備える飛行経路処理部811と同様の機能を有する。形状データ処理部112は、図7に示した携帯端末80が備える形状データ処理部812と同様の機能を有する。   The processing unit 110A as an example of the processing unit of the information processing device includes a flight path processing unit 111 and a shape data processing unit 112. The flight path processing unit 111 has the same function as the flight path processing unit 811 included in the mobile terminal 80 illustrated in FIG. The shape data processing unit 112 has the same function as the shape data processing unit 812 included in the mobile terminal 80 illustrated in FIG.

上記構成例では、情報処理装置として機能する無人飛行体100Aの処理部110Aによって、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定し、撮像位置を通る飛行経路を設定できる。   In the above configuration example, the processing unit 110A of the unmanned aerial vehicle 100A functioning as an information processing device sets an imaging position at which detailed imaging of the object viewed from the side is set using the schematic shape of the object, and sets the imaging position. You can set the flight route that passes.

[飛行経路生成システム、第4構成例]
図22は、実施形態における飛行経路生成システム10Cの第4構成例に係る送信機50Aのハードウェア構成の一例を示すブロック図である。送信機50Aは、図6に示した送信機50と比較すると、処理部61の代わりに処理部61Aを備える。送信機50Aは、情報処理装置の一例としての機能を有し、送信機50Aの処理部61Aは、情報処理装置の処理部の一例である。図22の送信機50Aにおいて、図6の送信機50と同様の構成については、同一の符号を付し、説明を省略又は簡略化する。
[Flight path generation system, fourth configuration example]
FIG. 22 is a block diagram illustrating an example of a hardware configuration of a transmitter 50A according to a fourth configuration example of the flight path generation system 10C in the embodiment. The transmitter 50A includes a processing unit 61A instead of the processing unit 61 as compared with the transmitter 50 shown in FIG. The transmitter 50A has a function as an example of an information processing device, and the processing unit 61A of the transmitter 50A is an example of a processing unit of the information processing device. In the transmitter 50A of FIG. 22, the same components as those of the transmitter 50 of FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted or simplified.

情報処理装置の処理部の一例としての処理部61Aは、飛行経路処理部611、形状データ処理部612を含む。飛行経路処理部611は、図7に示した携帯端末80が備える飛行経路処理部811と同様の機能を有する。形状データ処理部612は、図7に示した携帯端末80が備える形状データ処理部812と同様の機能を有する。   The processing unit 61A as an example of the processing unit of the information processing device includes a flight path processing unit 611 and a shape data processing unit 612. The flight path processing unit 611 has the same function as the flight path processing unit 811 included in the mobile terminal 80 illustrated in FIG. The shape data processing unit 612 has the same function as the shape data processing unit 812 included in the mobile terminal 80 illustrated in FIG.

上記構成例により、情報処理装置として機能する送信機50Aの処理部61Aによって、オブジェクトの概略形状を用いて、オブジェクトを側方から見た詳細撮像が可能な撮像位置を設定し、撮像位置を通る飛行経路を設定できる。   According to the above configuration example, the processing unit 61A of the transmitter 50A functioning as an information processing device sets an imaging position at which detailed imaging of an object can be viewed from the side using the schematic shape of the object, and passes through the imaging position. You can set the flight path.

なお、上記実施形態において、生成した飛行経路を飛行体に設定し、飛行体が飛行経路に従って撮影対象領域を飛行しながら、オブジェクトに対して側方の詳細撮像を含む撮像を行って取得した撮像画像は、撮影対象領域に存在するオブジェクトの3次元形状データの生成に用いてよい。側方の詳細撮像により取得した撮像画像は、オブジェクトの側面の検査に使用してよい。   In the above embodiment, the generated flight path is set to the flying object, and the flying object flies over the imaging target area in accordance with the flight path, and performs imaging including side detailed imaging of the object, and acquires the acquired imaging. The image may be used for generating three-dimensional shape data of the object existing in the shooting target area. The captured image obtained by the side detailed imaging may be used for inspection of the side surface of the object.

なお、上記実施形態において、飛行経路生成方法におけるステップを実行する情報処理装置は、携帯端末80、無人飛行体100A、送信機50Aのいずれかに有する例を示したが、他のプラットフォームにおいて情報処理装置を有し、飛行経路生成方法におけるステップを実行してよい。   In the above embodiment, the example in which the information processing apparatus that executes the steps in the flight route generation method is provided in any of the portable terminal 80, the unmanned aerial vehicle 100A, and the transmitter 50A has been described. The apparatus may include a device and perform steps in a flight path generation method.

以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As described above, the present disclosure has been described using the embodiments, but the technical scope of the invention according to the present disclosure is not limited to the scope described in the above-described embodiments. It will be apparent to those skilled in the art that various modifications or improvements can be made to the embodiments described above. It is apparent from the description of the claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each processing such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before”, “before”. And the like, and can be realized in any order as long as the output of the previous process is not used in the subsequent process. Even if the operation flow in the claims, the specification, and the drawings is described using “first”, “next”, and the like for convenience, it means that it is essential to implement in this order is not.

10、10B、10C 飛行経路生成システム
50、50A 送信機
61、61A 処理部
63 無線通信部
65 インタフェース部
67 メモリ
70 PC
80 携帯端末
81 処理部
82 インタフェース部
83 操作部
85 無線通信部
87 メモリ
88 表示部
89 ストレージ
100、100A 無人飛行体(UAV)
110、110A 処理部
111 飛行経路処理部
112 形状データ処理部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220、230 撮像装置
301 立方体
303、313、323 側面
304、314、324 法線
305、315、325 撮影平面
306、316、326 撮像位置(ウェイポイント)
307、317、327 撮影経路
311 概略形状
312、321A、321B、321C 多面体
322 結合した多面体
611 飛行経路処理部
612 形状データ処理部
811 飛行経路処理部
812 形状データ処理部
OPS 操作部セット
10, 10B, 10C Flight route generation system 50, 50A Transmitter 61, 61A Processing unit 63 Wireless communication unit 65 Interface unit 67 Memory 70 PC
80 Mobile terminal 81 Processing unit 82 Interface unit 83 Operation unit 85 Wireless communication unit 87 Memory 88 Display unit 89 Storage 100, 100A Unmanned aerial vehicle (UAV)
110, 110A processing unit 111 flight path processing unit 112 shape data processing unit 150 communication interface 160 memory 170 storage 200 gimbal 210 rotating wing mechanism 220, 230 imaging device 301 cubes 303, 313, 323 side surfaces 304, 314, 324 normal 305, 315, 325 Image plane 306, 316, 326 Image position (waypoint)
307, 317, 327 Imaging path 311 Schematic shape 312, 321A, 321B, 321C Polyhedron 322 Combined polyhedron 611 Flight path processing unit 612 Shape data processing unit 811 Flight path processing unit 812 Shape data processing unit OPS Operation unit set

Claims (25)

被写体を撮像する飛行体の飛行経路を生成する飛行経路生成方法であって、
前記被写体に含まれるオブジェクトの概略形状を取得するステップと、
前記概略形状における側面を抽出するステップと、
前記側面に対応する撮像位置を設定するステップと、
前記撮像位置を通過する飛行経路を生成するステップと、を有する、
飛行経路生成方法。
A flight path generation method for generating a flight path of a flying object that images a subject,
Obtaining a schematic shape of an object included in the subject;
Extracting a side surface in the general shape;
Setting an imaging position corresponding to the side surface;
Generating a flight path passing through the imaging position.
Flight path generation method.
前記撮像位置を設定するステップは、
前記抽出した側面毎に、前記側面に対向する撮像位置を設定するステップを含む、
請求項1に記載の飛行経路生成方法。
The step of setting the imaging position,
Setting a shooting position facing the side surface for each of the extracted side surfaces,
The flight path generation method according to claim 1.
前記撮像位置を設定するステップは、
前記側面に対応して、所定の撮像位置間隔を持つ複数の撮像位置を設定するステップを含む、
請求項1又は2に記載の飛行経路生成方法。
The step of setting the imaging position,
In accordance with the side surface, including a step of setting a plurality of imaging positions having a predetermined imaging position interval,
The flight path generation method according to claim 1.
前記飛行経路を生成するステップは、
前記複数の撮像位置を通る撮影経路を決定し、前記撮影経路を含む飛行経路を生成するステップを含む、
請求項3に記載の飛行経路生成方法。
Generating the flight path includes:
Determining a shooting path passing through the plurality of imaging positions, and generating a flight path including the shooting path;
The flight path generation method according to claim 3.
前記側面に対して所定の撮影距離を有して平行する撮影平面を生成するステップ、を更に有し、
前記撮像位置を設定するステップは、
前記撮影平面において所定の撮像位置間隔を持つ複数の撮像位置を設定するステップを含む、
請求項1に記載の飛行経路生成方法。
Generating a shooting plane parallel to the side surface at a predetermined shooting distance, further comprising:
The step of setting the imaging position,
Setting a plurality of imaging positions having a predetermined imaging position interval in the imaging plane,
The flight path generation method according to claim 1.
前記撮像位置を設定するステップは、
前記所定の撮像位置間隔として、各撮像位置において撮像した撮像画像の一部が他と重複する撮像位置間隔を用いる、
請求項3又は5に記載の飛行経路生成方法。
The step of setting the imaging position,
As the predetermined imaging position interval, an imaging position interval in which a part of the captured image captured at each imaging position overlaps with another,
The flight path generation method according to claim 3.
前記オブジェクトの概略形状を囲む多面体を算出するステップ、を更に有し、
前記側面を抽出するステップは、
前記多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出するステップを含む、
請求項1に記載の飛行経路生成方法。
Calculating a polyhedron surrounding the general shape of the object,
Extracting the side surface,
A step of extracting a surface along the vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction as a side surface,
The flight path generation method according to claim 1.
前記オブジェクトの概略形状を簡略化した多面体を算出するステップ、を更に有し、
前記側面を抽出するステップは、
前記多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出するステップを含む、
請求項1に記載の飛行経路生成方法。
Calculating a polyhedron in which the schematic shape of the object is simplified,
Extracting the side surface,
A step of extracting a surface along the vertical direction in the polyhedron, or a surface standing within a predetermined angle range in the vertical direction as a side surface,
The flight path generation method according to claim 1.
前記多面体を算出するステップは、
前記オブジェクトの複数の概略形状に対応する多面体をそれぞれ算出し、近接する複数の多面体を結合するステップを含む、
請求項7又は8に記載の飛行経路生成方法。
Calculating the polyhedron,
Calculating a polyhedron corresponding to a plurality of schematic shapes of the object, and combining a plurality of adjacent polyhedrons,
The flight path generation method according to claim 7.
前記飛行経路を生成するステップは、
一つの前記側面において前記撮像位置を通過する飛行経路を生成し、前記側面と隣接する次の側面において前記撮像位置を通過する飛行経路を生成するステップを含む、
請求項1に記載の飛行経路生成方法。
Generating the flight path includes:
Generating a flight path passing the imaging position on one of the side surfaces, and generating a flight path passing the imaging position on the next side surface adjacent to the side surface,
The flight path generation method according to claim 1.
前記オブジェクトを下向きに撮像した撮像画像を取得するステップ、を更に有し、
前記概略形状を取得するステップは、
前記撮像画像を用いて前記オブジェクトの概略形状の3次元形状データを取得するステップを含む、
請求項1に記載の飛行経路生成方法。
Obtaining a captured image obtained by capturing the object downward, further comprising:
The step of obtaining the general shape,
Obtaining a three-dimensional shape data of a schematic shape of the object using the captured image,
The flight path generation method according to claim 1.
被写体を撮像する飛行体の飛行経路を生成する情報処理装置であって、
前記飛行経路に関する処理を実行する処理部を有し、
前記処理部は、
前記被写体に含まれるオブジェクトの概略形状を取得し、
前記概略形状における側面を抽出し、
前記側面に対応する撮像位置を設定し、
前記撮像位置を通過する飛行経路を生成する、
情報処理装置。
An information processing apparatus that generates a flight path of a flying object that images a subject,
A processing unit that performs processing related to the flight path,
The processing unit includes:
Obtain a schematic shape of an object included in the subject,
Extract the side surface in the general shape,
Setting an imaging position corresponding to the side,
Generating a flight path passing through the imaging position;
Information processing device.
前記処理部は、
前記撮像位置の設定において、
前記抽出した側面毎に、前記側面に対向する撮像位置を設定する、
請求項12に記載の情報処理装置。
The processing unit includes:
In setting the imaging position,
For each of the extracted side surfaces, set an imaging position facing the side surface,
The information processing apparatus according to claim 12.
前記処理部は、
前記撮像位置の設定において、
前記側面に対応して、所定の撮像位置間隔を持つ複数の撮像位置を設定する、
請求項12又は13に記載の情報処理装置。
The processing unit includes:
In setting the imaging position,
Corresponding to the side surface, setting a plurality of imaging positions having a predetermined imaging position interval,
An information processing apparatus according to claim 12.
前記処理部は、
前記飛行経路の生成において、
前記複数の撮像位置を通る撮影経路を決定し、前記撮影経路を含む飛行経路を生成する、
請求項14に記載の情報処理装置。
The processing unit includes:
In generating the flight path,
Determine a shooting path passing through the plurality of imaging positions, and generate a flight path including the shooting path,
The information processing device according to claim 14.
前記処理部は、更に、
前記側面に対して所定の撮影距離を有して平行する撮影平面を生成し、
前記撮像位置の設定において、
前記撮影平面において所定の撮像位置間隔を持つ複数の撮像位置を設定する、
請求項12に記載の情報処理装置。
The processing unit further includes:
Generate a shooting plane parallel to the side surface with a predetermined shooting distance,
In setting the imaging position,
Setting a plurality of imaging positions having a predetermined imaging position interval on the imaging plane,
The information processing apparatus according to claim 12.
前記処理部は、
前記撮像位置の設定において、
前記所定の撮像位置間隔として、各撮像位置において撮像した撮像画像の一部が他と重複する撮像位置間隔を用いる、
請求項14又は16に記載の情報処理装置。
The processing unit includes:
In setting the imaging position,
As the predetermined imaging position interval, an imaging position interval in which a part of the captured image captured at each imaging position overlaps with another,
The information processing device according to claim 14.
前記処理部は、更に、
前記オブジェクトの概略形状を囲む多面体を算出し、
前記側面の抽出において、
前記多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出する、
請求項12に記載の情報処理装置。
The processing unit further includes:
Calculating a polyhedron surrounding the general shape of the object,
In the extraction of the side surface,
A surface along the vertical direction in the polyhedron, or a surface standing within a predetermined vertical angle range is extracted as a side surface,
The information processing apparatus according to claim 12.
前記処理部は、更に、
前記オブジェクトの概略形状を簡略化した多面体を算出し、
前記側面の抽出において、
前記多面体における鉛直方向に沿う面、又は鉛直方向の所定角度範囲内に立った面を側面として抽出する、
請求項12に記載の情報処理装置。
The processing unit further includes:
Calculating a polyhedron that simplifies the schematic shape of the object,
In the extraction of the side surface,
A surface along the vertical direction in the polyhedron, or a surface standing within a predetermined vertical angle range is extracted as a side surface,
The information processing apparatus according to claim 12.
前記処理部は、
前記多面体の算出において、
前記オブジェクトの複数の概略形状に対応する多面体をそれぞれ算出し、近接する複数の多面体を結合する、
請求項18又は19に記載の情報処理装置。
The processing unit includes:
In calculating the polyhedron,
Calculating respective polyhedrons corresponding to a plurality of schematic shapes of the object, and combining a plurality of adjacent polyhedrons;
The information processing device according to claim 18.
前記処理部は、
前記飛行経路の生成において、
一つの前記側面において前記撮像位置を通過する飛行経路を生成し、前記側面と隣接する次の側面において前記撮像位置を通過する飛行経路を生成する、
請求項12に記載の情報処理装置。
The processing unit includes:
In generating the flight path,
Generate a flight path passing the imaging position on one of the side surfaces, and generate a flight path passing the imaging position on the next side surface adjacent to the side surface,
The information processing apparatus according to claim 12.
前記処理部は、更に、
前記オブジェクトを下向きに撮像した撮像画像を取得し、
前記概略形状の取得において、
前記撮像画像を用いて前記オブジェクトの概略形状の3次元形状データを取得する、
請求項12に記載の情報処理装置。
The processing unit further includes:
Obtain a captured image of the object taken downward,
In obtaining the general shape,
Acquiring three-dimensional shape data of a schematic shape of the object using the captured image;
The information processing apparatus according to claim 12.
被写体を撮像する飛行体と、前記飛行体の飛行経路を生成する処理部と、を有する飛行経路生成システムであって、
前記処理部は、
前記被写体に含まれるオブジェクトの概略形状を取得し、
前記概略形状における側面を抽出し、
前記側面に対応する撮像位置を設定し、
前記撮像位置を通過する飛行経路を生成し、
前記飛行体は、
前記飛行経路を取得して設定する、
飛行経路生成システム。
A flying object that captures an image of a subject, and a processing unit that generates a flight route of the flying object,
The processing unit includes:
Obtain a schematic shape of an object included in the subject,
Extract the side surface in the general shape,
Setting an imaging position corresponding to the side,
Generating a flight path passing through the imaging position,
The flying object is
Obtaining and setting the flight path,
Flight path generation system.
被写体を撮像する飛行体の飛行経路を生成するコンピュータに、
前記被写体に含まれるオブジェクトの概略形状を取得するステップと、
前記概略形状における側面を抽出するステップと、
前記側面に対応する撮像位置を設定するステップと、
前記撮像位置を通過する飛行経路を生成するステップと、を実行させるための、
プログラム。
A computer that generates the flight path of the flying object that images the subject,
Obtaining a schematic shape of an object included in the subject;
Extracting a side surface in the general shape;
Setting an imaging position corresponding to the side surface;
Generating a flight path passing through the imaging position; and
program.
被写体を撮像する飛行体の飛行経路を生成するコンピュータに、
前記被写体に含まれるオブジェクトの概略形状を取得するステップと、
前記概略形状における側面を抽出するステップと、
前記側面に対応する撮像位置を設定するステップと、
前記撮像位置を通過する飛行経路を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
記録媒体。
A computer that generates the flight path of the flying object that images the subject,
Obtaining a schematic shape of an object included in the subject;
Extracting a side surface in the general shape;
Setting an imaging position corresponding to the side surface;
Generating a flight path passing through the imaging position, and a computer-readable recording program for executing
recoding media.
JP2019513156A 2017-04-20 2017-04-20 Flight path generation method, information processing device, flight path generation system, program and recording medium Active JP6765512B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/015876 WO2018193574A1 (en) 2017-04-20 2017-04-20 Flight path generation method, information processing device, flight path generation system, program and recording medium

Publications (2)

Publication Number Publication Date
JPWO2018193574A1 true JPWO2018193574A1 (en) 2020-02-27
JP6765512B2 JP6765512B2 (en) 2020-10-07

Family

ID=63856531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019513156A Active JP6765512B2 (en) 2017-04-20 2017-04-20 Flight path generation method, information processing device, flight path generation system, program and recording medium

Country Status (2)

Country Link
JP (1) JP6765512B2 (en)
WO (1) WO2018193574A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109564434B (en) * 2016-08-05 2023-07-25 深圳市大疆创新科技有限公司 System and method for positioning a movable object
US10962650B2 (en) 2017-10-31 2021-03-30 United States Of America As Represented By The Administrator Of Nasa Polyhedral geofences
CN111179413B (en) * 2019-12-19 2023-10-31 中建科技有限公司深圳分公司 Three-dimensional reconstruction method, device, terminal equipment and readable storage medium
JPWO2021177139A1 (en) * 2020-03-06 2021-09-10
JP6949417B1 (en) * 2020-05-18 2021-10-13 防衛装備庁長官 Vehicle maneuvering system and vehicle maneuvering method
JP6905772B2 (en) * 2020-06-02 2021-07-21 株式会社センシンロボティクス Aircraft, inspection method and inspection system
JP6905771B2 (en) * 2020-06-02 2021-07-21 株式会社センシンロボティクス Aircraft, inspection method and inspection system
JP6832598B1 (en) * 2020-07-30 2021-02-24 株式会社センシンロボティクス Aircraft, inspection method and inspection system
JP7420047B2 (en) 2020-10-21 2024-01-23 トヨタ自動車株式会社 robot system
JP7094432B1 (en) * 2021-12-03 2022-07-01 ソフトバンク株式会社 Information processing system, information processing device, program, and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
US20160253808A1 (en) * 2015-02-26 2016-09-01 Hexagon Technology Center Gmbh Determination of object data by template-based uav control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
US20160253808A1 (en) * 2015-02-26 2016-09-01 Hexagon Technology Center Gmbh Determination of object data by template-based uav control

Also Published As

Publication number Publication date
JP6765512B2 (en) 2020-10-07
WO2018193574A1 (en) 2018-10-25

Similar Documents

Publication Publication Date Title
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
JP6803919B2 (en) Flight path generation methods, flight path generation systems, flying objects, programs, and recording media
JP6878567B2 (en) 3D shape estimation methods, flying objects, mobile platforms, programs and recording media
US20190318636A1 (en) Flight route display method, mobile platform, flight system, recording medium and program
US11513514B2 (en) Location processing device, flight vehicle, location processing system, flight system, location processing method, flight control method, program and recording medium
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
US11082639B2 (en) Image display method, image display system, flying object, program, and recording medium
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
JP6329219B2 (en) Operation terminal and moving body
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
WO2019061859A1 (en) Mobile platform, image capture path generation method, program, and recording medium
WO2020119572A1 (en) Shape inferring device, shape inferring method, program, and recording medium
WO2021130980A1 (en) Aircraft flight path display method and information processing device
JP2020071154A (en) Position estimation device, position estimation method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200915

R150 Certificate of patent or registration of utility model

Ref document number: 6765512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250