JP7017998B2 - Information processing equipment, flight path generation methods, programs, and recording media - Google Patents

Information processing equipment, flight path generation methods, programs, and recording media Download PDF

Info

Publication number
JP7017998B2
JP7017998B2 JP2018171672A JP2018171672A JP7017998B2 JP 7017998 B2 JP7017998 B2 JP 7017998B2 JP 2018171672 A JP2018171672 A JP 2018171672A JP 2018171672 A JP2018171672 A JP 2018171672A JP 7017998 B2 JP7017998 B2 JP 7017998B2
Authority
JP
Japan
Prior art keywords
imaging
angle
flight
flight path
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018171672A
Other languages
Japanese (ja)
Other versions
JP2020043543A (en
Inventor
磊 顧
思傑 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018171672A priority Critical patent/JP7017998B2/en
Priority to PCT/CN2019/105125 priority patent/WO2020052549A1/en
Priority to CN201980005546.7A priority patent/CN111344650B/en
Publication of JP2020043543A publication Critical patent/JP2020043543A/en
Application granted granted Critical
Publication of JP7017998B2 publication Critical patent/JP7017998B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Studio Devices (AREA)

Description

本開示は、飛行体が飛行するための飛行経路を生成する情報処理装置、飛行経路生成方法、プログラム、及び記録媒体に関する。 The present disclosure relates to an information processing device for generating a flight path for an air vehicle to fly, a flight path generation method, a program, and a recording medium.

従来、予め設定された固定経路を通りながら撮像を行うプラットフォーム(無人機)が知られている(特許文献1参照)。このプラットフォームは、地上基地から撮像指示を受け、撮像対象を撮像する。このプラットフォームは、撮像対象を撮像する場合、固定経路を飛行しながら、プラットフォームと撮像対象との位置関係により、プラットフォームの撮像機器を傾けて撮像する。 Conventionally, a platform (unmanned aerial vehicle) that performs imaging while passing through a preset fixed path is known (see Patent Document 1). This platform receives imaging instructions from ground bases and captures imaging targets. When an image pickup target is imaged, the platform tilts the image pickup device of the platform according to the positional relationship between the platform and the image pickup target while flying on a fixed path.

特開2010-61216号公報Japanese Unexamined Patent Publication No. 2010-61216

特許文献1では、撮像対象が撮像範囲に入るように、プラットフォームから撮像対象を撮像するための撮像角度を決定している。しかし、地形正面の撮像を行うために撮像角度を決定しているわけではなく、地形正面の撮像が困難な箇所が存在し得るので、地形における各点の情報量が低下し得る。一方、地形における各点の情報量を十分にするために様々な撮像角度で地形を撮像すると、不要な撮像角度での画像の撮像も含まれる可能性があり、撮像効率が低下し得る。したがって、飛行体による撮像効率の低下を抑制して、飛行体により地形正面の情報を多く取得できることが望ましい。 In Patent Document 1, the imaging angle for imaging the imaging target from the platform is determined so that the imaging target falls within the imaging range. However, the imaging angle is not determined in order to image the front of the terrain, and there may be places where it is difficult to image the front of the terrain, so that the amount of information at each point in the terrain may decrease. On the other hand, if the terrain is imaged at various imaging angles in order to sufficiently obtain the amount of information of each point in the terrain, the imaging of the image at an unnecessary imaging angle may be included, and the imaging efficiency may decrease. Therefore, it is desirable that the flying object can acquire a large amount of information on the front of the terrain by suppressing the decrease in the imaging efficiency due to the flying object.

一態様において、情報処理装置は、飛行体が飛行するための飛行経路を生成する情報処理装置であって、処理部を備え、処理部は、飛行体が飛行する飛行範囲の地形情報を取得し、飛行範囲の地形情報に基づいて、飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成し、飛行範囲の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に撮像角度を導出する、情報処理装置である。 In one aspect, the information processing device is an information processing device that generates a flight path for the flying object to fly, and includes a processing unit, and the processing unit acquires topographical information of the flight range in which the flying object flies. , Based on the terrain information of the flight range, generate a flight path including the imaging position in the three-dimensional space for imaging the terrain of the flight range, and image the flight path based on the terrain information of the flight range and the flight path. It is an information processing device that derives the imaging angle for each position.

処理部は、飛行範囲の地形を撮像するための撮像角度の候補である候補角度を取得し、撮像位置において候補角度で撮像した場合の撮像コストである第1の撮像コストを、候補角度毎に算出し、撮像位置における第1の撮像コストが第1の閾値以上となる候補角度を、撮像位置における撮像角度に決定してよい。 The processing unit acquires a candidate angle that is a candidate for an imaging angle for imaging the terrain in the flight range, and sets the first imaging cost, which is the imaging cost when imaging at the candidate angle at the imaging position, for each candidate angle. A candidate angle for which the first imaging cost at the imaging position is calculated and equal to or greater than the first threshold value may be determined as the imaging angle at the imaging position.

処理部は、飛行範囲の地形をサンプリングして、飛行体により撮像される複数のサンプリング位置を取得し、撮像位置において候補角度でサンプリング位置を撮像した場合の撮像コストである第2の撮像コストを、サンプリング位置毎に算出し、各サンプリング位置における第2の撮像コストを合計して、第1の撮像コストを算出してよい。 The processing unit samples the terrain of the flight range, acquires a plurality of sampling positions to be imaged by the flying object, and obtains a second imaging cost, which is an imaging cost when the sampling position is imaged at a candidate angle at the imaging position. , The first imaging cost may be calculated by calculating for each sampling position and summing up the second imaging costs at each sampling position.

撮像位置とサンプリング位置との距離が短い程、第2の撮像コストが大きくてよい。 The shorter the distance between the imaging position and the sampling position, the higher the second imaging cost may be.

サンプリング位置における地表面に対する法線ベクトルと候補角度が示す撮像方向に沿うベクトルである撮像ベクトルとの内積値が大きい程、第2の撮像コストが大きくてよい。 The larger the internal product value of the normal vector with respect to the ground surface at the sampling position and the imaging vector which is a vector along the imaging direction indicated by the candidate angle, the larger the second imaging cost may be.

処理部は、内積値が負の値となる第2の撮像コストを、第1の撮像コストの算出対象から除外してよい。 The processing unit may exclude the second imaging cost whose inner product value is a negative value from the calculation target of the first imaging cost.

処理部は、飛行範囲に含まれ、撮像対象の位置を含む関心領域を取得し、関心領域の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に撮像角度を導出してよい。 The processing unit may acquire an area of interest included in the flight range and include a position to be imaged, and derive an imaging angle for each imaged position of the flight path based on the topographical information of the area of interest and the flight path.

処理部は、飛行範囲の地形を撮像するための撮像角度の候補である候補角度を取得し、撮像位置において候補角度で関心領域を撮像した場合の撮像コストである第3の撮像コストを、候補角度毎に算出し、撮像位置における第3の撮像コストが第2の閾値以上となる候補角度を、撮像位置における撮像角度に決定してよい。 The processing unit acquires a candidate angle that is a candidate for an imaging angle for imaging the terrain of the flight range, and obtains a third imaging cost, which is an imaging cost when the region of interest is imaged at the candidate angle at the imaging position. A candidate angle calculated for each angle and at which the third imaging cost at the imaging position is equal to or greater than the second threshold value may be determined as the imaging angle at the imaging position.

処理部は、複数の撮像位置のうち第1の撮像位置において撮像角度で撮像された場合の第3の撮像コストが第3の閾値以下である場合、複数の撮像位置から第1の撮像位置を除外して飛行経路を生成してよい。 When the third imaging cost when the third imaging cost is captured at the imaging angle at the first imaging position among the plurality of imaging positions is equal to or less than the third threshold value, the processing unit obtains the first imaging position from the plurality of imaging positions. It may be excluded to generate a flight path.

処理部は、複数の撮像位置を、撮像位置から撮像する撮像対象毎に分類して複数の撮像位置グループを生成し、複数の撮像位置グループを接続して飛行経路を生成してよい。 The processing unit may classify a plurality of imaging positions for each imaging target to be imaged from the imaging position to generate a plurality of imaging position groups, and connect the plurality of imaging position groups to generate a flight path.

情報処理装置は、通信部を備える端末であり、処理部は、通信部を介して、撮像位置と飛行経路と撮像角度との情報を飛行体へ送信してよい。 The information processing device is a terminal provided with a communication unit, and the processing unit may transmit information on an imaging position, a flight path, and an imaging angle to an air vehicle via the communication unit.

情報処理装置は、撮像部を備える飛行体であり、処理部は、飛行経路に従って飛行を制御し、撮像部を介して、飛行経路の撮像位置において撮像角度で画像を撮像してよい。 The information processing apparatus is a flying object including an image pickup unit, and the processing unit may control flight according to a flight path and capture an image at an imaging position at an imaging position of the flight path via the imaging unit.

一態様において、飛行経路生成方法は、飛行体が飛行するための飛行経路を生成する情報処理装置における飛行経路生成方法であって、飛行体が飛行する飛行範囲の地形情報を取得するステップと、飛行範囲の地形情報に基づいて、飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、飛行範囲の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に、飛行範囲の地形を撮像するための撮像角度を導出するステップと、を含む飛行経路生成方法である。 In one aspect, the flight path generation method is a flight path generation method in an information processing device that generates a flight path for a flight object to fly, and is a step of acquiring topographical information of a flight range in which the flight object flies. Based on the terrain information of the flight range, the step of generating the flight path including the imaging position in the three-dimensional space for imaging the terrain of the flight range, and the terrain information of the flight range and the flight path of the flight path. This is a flight path generation method including a step of deriving an imaging angle for imaging the terrain of the flight range for each imaging position.

撮像角度を導出するステップは、飛行範囲の地形を撮像するための撮像角度の候補である候補角度を取得するステップと、撮像位置において候補角度で撮像した場合の撮像コストである第1の撮像コストを、候補角度毎に算出するステップと、撮像位置における第1の撮像コストが第1の閾値以上となる候補角度を、撮像位置における撮像角度に決定するステップと、を含んでよい。 The steps for deriving the imaging angle are a step of acquiring a candidate angle that is a candidate for an imaging angle for imaging the terrain in the flight range, and a first imaging cost that is an imaging cost when imaging at the candidate angle at the imaging position. May include a step of calculating each candidate angle and a step of determining a candidate angle at which the first imaging cost at the imaging position is equal to or greater than the first threshold value as the imaging angle at the imaging position.

第1の撮像コストを算出するステップは、飛行範囲の地形をサンプリングして、飛行体により撮像される複数のサンプリング位置を取得するステップと、撮像位置において候補角度でサンプリング位置を撮像した場合の撮像コストである第2の撮像コストを、サンプリング位置毎に算出するステップと、各サンプリング位置における第2の撮像コストを合計して、第1の撮像コストを算出するステップと、を含んでよい。 The first step of calculating the imaging cost is a step of sampling the terrain of the flight range to acquire a plurality of sampling positions imaged by the flying object, and imaging when the sampling position is imaged at a candidate angle at the imaging position. It may include a step of calculating the second imaging cost, which is a cost, for each sampling position, and a step of summing up the second imaging costs at each sampling position to calculate the first imaging cost.

撮像位置とサンプリング位置との距離が短い程、第2の撮像コストが大きくてよい。 The shorter the distance between the imaging position and the sampling position, the higher the second imaging cost may be.

サンプリング位置における地表面に対する法線ベクトルと候補角度が示す撮像方向に沿うベクトルである撮像ベクトルとの内積値が大きい程、第2の撮像コストが大きくてよい。 The larger the internal product value of the normal vector with respect to the ground surface at the sampling position and the imaging vector which is a vector along the imaging direction indicated by the candidate angle, the larger the second imaging cost may be.

第1の撮像コストを算出するステップは、内積値が負の値となる第2の撮像コストを、第1の撮像コストの算出対象から除外するステップ、を含んでよい。 The step of calculating the first imaging cost may include a step of excluding the second imaging cost having a negative inner product value from the calculation target of the first imaging cost.

撮像角度を導出するステップは、飛行範囲に含まれ、撮像対象の位置を含む関心領域を取得するステップと、関心領域の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に撮像角度を導出してよい。 The step of deriving the imaging angle is included in the flight range, and the imaging angle is taken for each imaging position of the flight path based on the step of acquiring the region of interest including the position of the imaging target and the topographical information and the flight path of the region of interest. May be derived.

撮像角度を導出するステップは、飛行範囲の地形を撮像するための撮像角度の候補である候補角度を取得するステップと、撮像位置において候補角度で関心領域を撮像した場合の撮像コストである第3の撮像コストを、候補角度毎に算出するステップと、撮像位置における第3の撮像コストが第2の閾値以上となる候補角度を、撮像位置における撮像角度に決定するステップと、を含んでよい。 The step of deriving the imaging angle is a step of acquiring a candidate angle that is a candidate for an imaging angle for imaging the terrain of the flight range, and a third imaging cost when the region of interest is imaged at the candidate angle at the imaging position. It may include a step of calculating the imaging cost for each candidate angle and a step of determining a candidate angle at which the third imaging cost at the imaging position is equal to or higher than the second threshold value as the imaging angle at the imaging position.

飛行経路を生成するステップは、複数の撮像位置のうち第1の撮像位置において撮像角度で撮像された場合の第3の撮像コストが第3の閾値以下である場合、複数の撮像位置から第1の撮像位置を除外して飛行経路を生成するステップ、を含んでよい。 The step of generating the flight path is the first from the plurality of imaging positions when the third imaging cost when the image is captured at the imaging angle at the first imaging position among the plurality of imaging positions is equal to or less than the third threshold value. It may include a step of generating a flight path, excluding the imaging position of.

飛行経路を生成するステップは、複数の撮像位置を、撮像位置から撮像する撮像対象毎に分類して複数の撮像位置グループを生成するステップと、複数の撮像位置グループを接続して飛行経路を生成するステップと、を含んでよい。 The step of generating a flight path is a step of classifying a plurality of imaging positions for each imaging target to be imaged from the imaging position to generate a plurality of imaging position groups, and a step of connecting a plurality of imaging position groups to generate a flight path. And may include.

情報処理装置は、端末であり、撮像位置と飛行経路と撮像角度との情報を飛行体へ送信するステップ、を更に含んでよい。 The information processing apparatus is a terminal and may further include a step of transmitting information of an imaging position, a flight path, and an imaging angle to the flying object.

情報処理装置は、飛行体であり、飛行経路に従って飛行を制御するステップと、飛行経路の撮像位置において撮像角度で画像を撮像するステップと、を更に含んでよい。 The information processing apparatus is a flying object, and may further include a step of controlling flight according to a flight path and a step of capturing an image at an imaging angle at an imaging position of the flight path.

一態様において、プログラムは、飛行体が飛行するための飛行経路を生成する情報処理装置に、飛行体が飛行する飛行範囲の地形情報を取得するステップと、飛行範囲の地形情報に基づいて、飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、飛行範囲の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に、飛行範囲の地形を撮像するための撮像角度を導出するステップと、を実行させるためのプログラムである。 In one aspect, the program flies based on a step of acquiring topographical information of the flight range in which the flying object flies and the topographical information of the flight range in an information processing device that generates a flight path for the flying object to fly. Based on the step of generating a flight path including the imaged position in the three-dimensional space for imaging the terrain of the range, and the terrain information of the flight range and the flight path, the terrain of the flight range is determined for each imaged position of the flight path. It is a program for executing a step of deriving an imaging angle for imaging.

一態様において、記録媒体は、飛行体が飛行するための飛行経路を生成する情報処理装置に、飛行体が飛行する飛行範囲の地形情報を取得するステップと、飛行範囲の地形情報に基づいて、飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、飛行範囲の地形情報と飛行経路とに基づいて、飛行経路の撮像位置毎に、飛行範囲の地形を撮像するための撮像角度を導出するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。 In one embodiment, the recording medium is based on a step of acquiring topographical information of the flight range in which the flying object flies and the topographical information of the flight range in an information processing device that generates a flight path for the flying object to fly. The terrain of the flight range for each imaged position of the flight path based on the step of generating the flight path including the imaging position in the three-dimensional space for imaging the terrain of the flight range, and the terrain information of the flight range and the flight path. It is a computer-readable recording medium in which a step for deriving an imaging angle for imaging a flight and a program for executing the flight are recorded.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the features of the present disclosure. A subcombination of these feature groups can also be an invention.

第1の実施形態における飛行体システムの第1構成例を示す模式図Schematic diagram showing a first configuration example of the flying object system in the first embodiment 第1の実施形態における飛行体システムの第2構成例を示す模式図Schematic diagram showing a second configuration example of the flying object system in the first embodiment 無人航空機の具体的な外観の一例を示す図A diagram showing an example of the concrete appearance of an unmanned aerial vehicle 無人航空機のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of an unmanned aerial vehicle 端末のハードウェア構成の一例を示すブロック図Block diagram showing an example of terminal hardware configuration 飛行範囲、飛行経路および撮像位置の一例を示す図Figure showing an example of flight range, flight path and imaging position 撮像角度の候補を示すテーブルの一例を示す図The figure which shows an example of the table which shows the candidate of the imaging angle. 起伏のある地表面に設定されたサンプリング位置の一例を示す図A diagram showing an example of sampling positions set on an undulating ground surface 候補角度に応じた撮像コストの算出例を説明する図A diagram illustrating an example of calculating the imaging cost according to the candidate angle. 第1の実施形態の飛行体システムにおける飛行経路生成手順の一例を示すシーケンス図A sequence diagram showing an example of a flight path generation procedure in the flight object system of the first embodiment. 第2の実施形態の飛行体システムにおける飛行経路生成手順の一例を示すシーケンス図A sequence diagram showing an example of a flight path generation procedure in the flight object system of the second embodiment. 関心領域の指定の一例を示す図Diagram showing an example of specifying the region of interest 関心領域を撮像するための飛行経路の再生成手順を説明する図A diagram illustrating a procedure for regenerating a flight path for imaging a region of interest. 第3の実施形態の飛行体システムにおける飛行経路生成手順の一例を示すシーケンス図A sequence diagram showing an example of a flight path generation procedure in the flight object system of the third embodiment. 第4の実施形態の飛行体システムにおける飛行経路生成手順の一例を示すシーケンス図A sequence diagram showing an example of a flight path generation procedure in the flight object system of the fourth embodiment. 無人航空機が地形に沿って飛行しながら真下にある地形を撮像する状況を示す図A diagram showing the situation where an unmanned aerial vehicle flies along the terrain and images the terrain beneath it. 無人航空機が地形に沿って飛行しながら一定の角度で地形を撮像する状況を示す図A diagram showing a situation where an unmanned aerial vehicle flies along the terrain and images the terrain at a certain angle. 無人航空機が地形に沿って飛行しながら様々な角度から地形を撮像する状況を示す図A diagram showing the situation where an unmanned aerial vehicle flies along the terrain and images the terrain from various angles.

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, description, drawings, and abstracts include matters subject to copyright protection. The copyright holder will not object to any reproduction of these documents by any person, as shown in the Patent Office files or records. However, in other cases, all copyrights are reserved.

(本発明の一形態を得るに至った経緯)
地形(地上の様子)を撮像する場合、無人航空機から真下の向きや真下に対して一定の角度で撮像することが考えられる。この場合、起伏のある地形において地形正面の撮像が困難な箇所が存在し得るので、地形における各点の情報量が低下し得る(図16、図17参照)。図16は、飛行体としての無人航空機100Rが地形msに沿って飛行しながら真下にある地形msを撮像する状況を示す図である。真下にある地形msが山の斜面ms1である場合、地形正面の情報を十分に撮像できない場合がある。図17は、無人航空機100Rが地形msに沿って飛行しながら一定の角度で地形msを撮像する状況を示す図である。無人航空機100Rが一定の角度で撮像する場合、山の裏面ms2を撮像することが困難な場合がある。つまり、地形正面の情報が取得され難い。
(Background to Obtaining One Form of the Present Invention)
When imaging the terrain (state on the ground), it is conceivable to image from an unmanned aerial vehicle in a direction directly below or at a certain angle. In this case, since there may be places where it is difficult to image the front of the terrain in the undulating terrain, the amount of information at each point in the terrain may decrease (see FIGS. 16 and 17). FIG. 16 is a diagram showing a situation in which an unmanned aerial vehicle 100R as an air vehicle captures an image of the terrain ms directly below while flying along the terrain ms. When the terrain ms directly below is the mountain slope ms1, it may not be possible to sufficiently capture the information in front of the terrain. FIG. 17 is a diagram showing a situation in which the unmanned aerial vehicle 100R captures the terrain ms at a constant angle while flying along the terrain ms. When the unmanned aerial vehicle 100R images at a constant angle, it may be difficult to image the back surface ms2 of the mountain. That is, it is difficult to obtain information on the front of the terrain.

また、各撮像位置(Waypoint)において複数の角度で地形を撮像することが考えられる(図18参照)。図18は、無人航空機100Rが地形msに沿って飛行しながら様々な角度から地形msを撮像する状況を示す図である。この場合、例えば地形形状の復元(3次元復元)やオルソ画像生成のために必要な画像以外にも不要な画像が撮像され得る。つまり、地形形状を撮像する際の撮像効率が低下し得る。 Further, it is conceivable to image the terrain at a plurality of angles at each imaging position (Waypoint) (see FIG. 18). FIG. 18 is a diagram showing a situation in which the unmanned aerial vehicle 100R captures the terrain ms from various angles while flying along the terrain ms. In this case, for example, an unnecessary image other than the image necessary for the restoration of the terrain shape (three-dimensional restoration) and the generation of the ortho image can be captured. That is, the imaging efficiency when imaging the topographical shape may decrease.

また、特許文献1では、撮像対象が撮像範囲に入るように、プラットフォームから撮像対象を撮像するための撮像角度を決定している。つまり、地形正面の撮像を行うために撮像角度を決定しているわけではなく、地形正面の撮像が困難な箇所が存在し得るので、地形における各点の情報量が低下し得る。 Further, in Patent Document 1, the imaging angle for imaging the imaging target from the platform is determined so that the imaging target falls within the imaging range. That is, the imaging angle is not determined in order to image the front of the terrain, and there may be places where it is difficult to image the front of the terrain, so that the amount of information at each point in the terrain may decrease.

したがって、無人航空機による撮像効率の低下を抑制して、無人航空機により地形正面の情報を多く取得できることが望ましい。 Therefore, it is desirable that the unmanned aerial vehicle can acquire a large amount of information on the front of the terrain by suppressing the deterioration of the imaging efficiency due to the unmanned aerial vehicle.

以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。情報処理装置として、例えば端末を例示するが、他の装置(例えば送信機、PC(Personal Computer)、無人航空機、その他の情報処理装置)でもよい。飛行経路生成方法は、情報処理装置の動作が規定されたものである。また、記録媒体は、プログラム(例えば情報処理装置に各種の処理を実行させるプログラム)が記録されたものである。 In the following embodiment, an unmanned aerial vehicle (UAV) is exemplified as an air vehicle. Unmanned aerial vehicles include aircraft that move in the air. In the drawings attached to this specification, the unmanned aerial vehicle is also referred to as "UAV". As the information processing device, for example, a terminal is exemplified, but other devices (for example, a transmitter, a PC (Personal Computer), an unmanned aerial vehicle, and other information processing devices) may be used. The flight path generation method defines the operation of the information processing device. Further, the recording medium is one in which a program (for example, a program for causing an information processing apparatus to execute various processes) is recorded.

(第1の実施形態)
図1は、第1の実施形態における飛行体システム10の第1構成例を示す図である。飛行体システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。端末80は、情報処理装置の一例である。
(First Embodiment)
FIG. 1 is a diagram showing a first configuration example of the flying object system 10 according to the first embodiment. The aircraft system 10 includes an unmanned aerial vehicle 100 and a terminal 80. The unmanned aerial vehicle 100 and the terminal 80 can communicate with each other by wired communication or wireless communication (for example, wireless LAN (Local Area Network)). FIG. 1 illustrates that the terminal 80 is a mobile terminal (for example, a smartphone or a tablet terminal). The terminal 80 is an example of an information processing device.

なお、飛行体システム10は、無人航空機100、送信機(プロポ)、及び端末80を備えた構成であってもよい。送信機を備える場合、送信機の前面に配置された左右の制御棒を使って、ユーザは、無人航空機の飛行の制御を指示可能である。また、この場合、無人航空機100、送信機、及び端末80は、相互に有線通信又は無線通信により通信可能である。 The flying object system 10 may be configured to include an unmanned aerial vehicle 100, a transmitter (propo), and a terminal 80. If the transmitter is provided, the user can instruct the control of the flight of the unmanned aerial vehicle by using the left and right control rods arranged in front of the transmitter. Further, in this case, the unmanned aerial vehicle 100, the transmitter, and the terminal 80 can communicate with each other by wire communication or wireless communication.

図2は、第1の実施形態における飛行体システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。 FIG. 2 is a schematic diagram showing a second configuration example of the flying object system 10 in the first embodiment. FIG. 2 illustrates that the terminal 80 is a PC. In any of FIGS. 1 and 2, the function of the terminal 80 may be the same.

図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は移動体の一例である。 FIG. 3 is a diagram showing an example of a specific appearance of the unmanned aerial vehicle 100. FIG. 3 shows a perspective view of the unmanned aerial vehicle 100 flying in the moving direction STV0. The unmanned aerial vehicle 100 is an example of a moving body.

図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定されてよい。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定されよい。 As shown in FIG. 3, the roll axis (see x-axis) may be set in a direction parallel to the ground and along the moving direction STV0. In this case, the pitch axis (see y-axis) is set in a direction parallel to the ground and perpendicular to the roll axis, and further, a yaw axis (z-axis) is set in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. See) may be set.

無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。 The unmanned aerial vehicle 100 includes a UAV main body 102, a gimbal 200, an image pickup unit 220, and a plurality of image pickup units 230.

UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The UAV main body 102 includes a plurality of rotary wings (propellers). The UAV main body 102 flies the unmanned aerial vehicle 100 by controlling the rotation of a plurality of rotor blades. The UAV body 102 flies the unmanned aerial vehicle 100 using, for example, four rotor blades. The number of rotor blades is not limited to four. Further, the unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wings.

撮像部220は、所望の撮像範囲に含まれる被写体(例えば、撮像対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラである。 The imaging unit 220 is a camera for imaging that captures a subject included in a desired imaging range (for example, a state of the sky to be imaged, a landscape such as a mountain or a river, a building on the ground).

複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラである。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データが生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。 The plurality of image pickup units 230 are sensing cameras that image the surroundings of the unmanned aerial vehicle 100 in order to control the flight of the unmanned aerial vehicle 100. Two image pickup units 230 may be provided in front of the nose of the unmanned aerial vehicle 100. Further, two other imaging units 230 may be provided on the bottom surface of the unmanned aerial vehicle 100. The two image pickup units 230 on the front side are paired and may function as a so-called stereo camera. The two image pickup units 230 on the bottom surface side may also be paired and function as a stereo camera. Three-dimensional spatial data around the unmanned aerial vehicle 100 may be generated based on the images captured by the plurality of imaging units 230. The number of image pickup units 230 included in the unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one image pickup unit 230. The unmanned aerial vehicle 100 may include at least one image pickup unit 230 on each of the nose, aft, side surface, bottom surface, and ceiling surface of the unmanned aerial vehicle 100. The angle of view that can be set by the image pickup unit 230 may be wider than the angle of view that can be set by the image pickup unit 220. The image pickup unit 230 may have a single focus lens or a fisheye lens.

図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。 FIG. 4 is a block diagram showing an example of the hardware configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a gimbal 200, a rotary wing mechanism 210, an image pickup unit 220, an image pickup unit 230, a GPS receiver 240, and the like. The configuration includes an inertial measurement unit (IMU) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring instrument 290.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The UAV control unit 110 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The UAV control unit 110 performs signal processing for controlling the operation of each unit of the unmanned aerial vehicle 100, data input / output processing with and from other units, data calculation processing, and data storage processing.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を撮像(例えば空撮)してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 according to the program stored in the memory 160. The UAV control unit 110 may control the flight. The UAV control unit 110 may capture an image (for example, aerial photography).

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。 The UAV control unit 110 acquires position information indicating the position of the unmanned aerial vehicle 100. The UAV control unit 110 may acquire position information indicating the latitude, longitude, and altitude in which the unmanned aerial vehicle 100 exists from the GPS receiver 240. The UAV control unit 110 acquires latitude / longitude information indicating the latitude and longitude of the unmanned aerial vehicle 100 from the GPS receiver 240 and altitude information indicating the altitude at which the unmanned aerial vehicle 100 exists from the barometric altitude meter 270 as position information. good. The UAV control unit 110 may acquire the distance between the emission point of the ultrasonic wave and the reflection point of the ultrasonic wave by the ultrasonic sensor 280 as altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。 The UAV control unit 110 may acquire orientation information indicating the orientation of the unmanned aerial vehicle 100 from the magnetic compass 260. The orientation information may be shown, for example, in the orientation corresponding to the orientation of the nose of the unmanned aerial vehicle 100.

UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。 The UAV control unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 should exist when the image pickup unit 220 captures an image pickup range to be imaged. The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist from the memory 160. The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist from another device via the communication interface 150. The UAV control unit 110 may refer to the three-dimensional map database to specify a position where the unmanned aerial vehicle 100 can exist, and acquire the position as position information indicating the position where the unmanned aerial vehicle 100 should exist.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。 The UAV control unit 110 may acquire image pickup range information indicating the respective image pickup ranges of the image pickup unit 220 and the image pickup unit 230. The UAV control unit 110 may acquire the angle of view information indicating the angle of view of the image pickup unit 220 and the image pickup unit 230 from the image pickup unit 220 and the image pickup unit 230 as a parameter for specifying the image pickup range. The UAV control unit 110 may acquire information indicating the imaging direction of the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 may acquire posture information indicating the posture state of the imaging unit 220 from the gimbal 200, for example, as information indicating the imaging direction of the imaging unit 220. The posture information of the image pickup unit 220 may indicate the rotation angle of the gimbal 200 from the reference rotation angle of the pitch axis and the yaw axis.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an image pickup range indicating a geographical range imaged by the image pickup unit 220 based on the image angle and image pickup direction of the image pickup unit 220 and the image pickup unit 230, and the position where the unmanned aerial vehicle 100 exists. The imaging range information may be acquired by generating the imaging range information.

UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire image pickup range information from the memory 160. The UAV control unit 110 may acquire image pickup range information via the communication interface 150.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。 The UAV control unit 110 controls the gimbal 200, the rotor blade mechanism 210, the image pickup unit 220, and the image pickup section 230. The UAV control unit 110 may control the image pickup range of the image pickup unit 220 by changing the image pickup direction or the angle of view of the image pickup unit 220. The UAV control unit 110 may control the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。 The image pickup range refers to a geographical range imaged by the image pickup unit 220 or the image pickup unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in 3D spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in two-dimensional spatial data defined by latitude and longitude. The imaging range may be specified based on the angle of view and imaging direction of the imaging unit 220 or the imaging unit 230, and the position where the unmanned aerial vehicle 100 is present. The imaging direction of the image pickup unit 220 and the image pickup unit 230 may be defined from the direction and depression angle at which the front surface of the image pickup unit 220 and the image pickup unit 230 provided with the image pickup lens faces. The imaging direction of the imaging unit 220 may be a direction specified from the orientation of the nose of the unmanned aerial vehicle 100 and the posture of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 may be a direction specified from the orientation of the nose of the unmanned aerial vehicle 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。 The UAV control unit 110 may identify the environment around the unmanned aerial vehicle 100 by analyzing a plurality of images captured by the plurality of image pickup units 230. The UAV control unit 110 may control the flight, for example, avoiding obstacles, based on the environment around the unmanned aerial vehicle 100.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。 The UAV control unit 110 may acquire three-dimensional information (three-dimensional information) indicating the three-dimensional shape (three-dimensional shape) of an object existing around the unmanned aerial vehicle 100. The object may be, for example, a part of a landscape such as a building, a road, a car, a tree, or the like. The three-dimensional information is, for example, three-dimensional spatial data. The UAV control unit 110 may acquire the three-dimensional information by generating the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aerial vehicle 100 from each image obtained from the plurality of image pickup units 230. The UAV control unit 110 may acquire three-dimensional information indicating the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire three-dimensional information regarding the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to a three-dimensional map database managed by a server existing on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the position including the latitude, longitude, and altitude of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. The UAV control unit 110 may control the image pickup range of the image pickup unit 220 by controlling the flight of the unmanned aerial vehicle 100. The UAV control unit 110 may control the angle of view of the image pickup unit 220 by controlling the zoom lens included in the image pickup unit 220. The UAV control unit 110 may control the angle of view of the image pickup unit 220 by digital zoom using the digital zoom function of the image pickup unit 220.

撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。 When the image pickup unit 220 is fixed to the unmanned aerial vehicle 100 and the image pickup unit 220 cannot be moved, the UAV control unit 110 moves the unmanned aerial vehicle 100 to a specific position at a specific date and time to obtain a desired image in a desired environment. The range may be imaged by the image pickup unit 220. Alternatively, even if the image pickup unit 220 does not have a zoom function and the angle of view of the image pickup unit 220 cannot be changed, the UAV control unit 110 desired by moving the unmanned aerial vehicle 100 to a specific position at a specified date and time. The image pickup unit 220 may image a desired imaging range under the above environment.

通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、撮像画像や撮像画像に関する付加情報(メタデータ)を、端末80に送信してよい。 The communication interface 150 communicates with the terminal 80. The communication interface 150 may perform wireless communication by any wireless communication method. The communication interface 150 may perform wired communication by any wired communication method. The communication interface 150 may transmit the captured image and additional information (metadata) related to the captured image to the terminal 80.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。 The UAV control unit 110 has a gimbal 200, a rotary wing mechanism 210, an image pickup unit 220, an image pickup unit 230, a GPS receiver 240, an inertial measurement unit 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. Stores programs and the like required to control the measuring instrument 290. The memory 160 may be a computer-readable recording medium, and may be SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of flash memories such as USB (Universal Serial Bus) memory. The memory 160 may be removable from the unmanned aerial vehicle 100. The memory 160 may operate as a working memory.

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、撮像画像を記録してよい。 The storage 170 may include at least one of an HDD (Hard Disk Drive), an SSD (Solid State Drive), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. The storage 170 may be removable from the unmanned aerial vehicle 100. The storage 170 may record a captured image.

メモリ160又はストレージ170は、端末80又は無人航空機100により生成された撮像位置や撮像経路の情報を保持してよい。撮像位置や撮像経路の情報は、無人航空機100により予定された撮像に係る撮像パラメータ、又は、無人航空機100により予定された飛行に係る飛行パラメータ、の1つとして、UAV制御部110により設定されてよい。この設定情報は、メモリ160又はストレージ170に保持されてよい。また、撮像パラメータは、撮像部220による撮像角度の情報を含んでよい。 The memory 160 or the storage 170 may hold information on the imaging position and imaging path generated by the terminal 80 or the unmanned aerial vehicle 100. Information on the imaging position and the imaging path is set by the UAV control unit 110 as one of the imaging parameters related to the imaging scheduled by the unmanned aerial vehicle 100 or the flight parameters related to the flight scheduled by the unmanned aerial vehicle 100. good. This setting information may be held in the memory 160 or the storage 170. Further, the imaging parameter may include information on the imaging angle by the imaging unit 220.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。 The gimbal 200 may rotatably support the imaging unit 220 about the yaw axis, the pitch axis, and the roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでよいし、その他の数でよい。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades. The rotary wing mechanism 210 flies the unmanned aerial vehicle 100 by controlling the rotation by the UAV control unit 110. The number of rotary blades 211 may be, for example, four or any other number. Further, the unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wings.

撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。 The image pickup unit 220 captures a subject in a desired imaging range and generates data of the captured image. The image data (for example, an aerial image) obtained by the image pickup of the image pickup unit 220 may be stored in the memory of the image pickup unit 220 or the storage 170.

撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。 The image pickup unit 230 captures the surroundings of the unmanned aerial vehicle 100 and generates data of the captured image. The image data of the image pickup unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。 The GPS receiver 240 receives a plurality of signals indicating the time and the position (coordinates) of each GPS satellite transmitted from the plurality of navigation satellites (that is, GPS satellites). The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the UAV control unit 110. The position information of the GPS receiver 240 may be calculated by the UAV control unit 110 instead of the GPS receiver 240. In this case, information indicating the time included in the plurality of signals received by the GPS receiver 240 and the position of each GPS satellite is input to the UAV control unit 110.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。 The inertial measurement unit 250 detects the attitude of the unmanned aerial vehicle 100 and outputs the detection result to the UAV control unit 110. The inertial measurement unit 250 detects, as the posture of the unmanned aerial vehicle 100, the acceleration in the three axial directions of the front-back, left-right, and up-down of the unmanned aerial vehicle 100, and the angular velocity in the three-axis directions of the pitch axis, the roll axis, and the yaw axis. It's okay.

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。 The magnetic compass 260 detects the direction of the nose of the unmanned aerial vehicle 100 and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。 The barometric altimeter 270 detects the altitude at which the unmanned aerial vehicle 100 flies, and outputs the detection result to the UAV control unit 110.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。 The ultrasonic sensor 280 emits ultrasonic waves, detects ultrasonic waves reflected by the ground or an object, and outputs the detection result to the UAV control unit 110. The detection result may indicate the distance or altitude from the unmanned aerial vehicle 100 to the ground. The detection result may indicate the distance from the unmanned aerial vehicle 100 to the object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。 The laser measuring instrument 290 irradiates an object with laser light, receives the reflected light reflected by the object, and measures the distance between the unmanned aircraft 100 and the object (subject) by the reflected light. As an example, the time-of-flight method may be used as the method for measuring the distance by the laser beam.

図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御を希望するユーザに所持され得る。 FIG. 5 is a block diagram showing an example of the hardware configuration of the terminal 80. The terminal 80 includes a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89. The terminal 80 may be possessed by a user who desires flight control of the unmanned aerial vehicle 100.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The terminal control unit 81 is configured by using, for example, a CPU, an MPU, or a DSP. The terminal control unit 81 performs signal processing for controlling the operation of each unit of the terminal 80 in a unified manner, data input / output processing with each other unit, data calculation processing, and data storage processing.

端末制御部81は、通信部85を介して、無人航空機100からのデータや情報(各種計測データ、撮像画像、その付加情報、等)を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報(例えば各種パラメータ)を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報(例えば撮像位置、撮像角度、飛行経路の情報)を送信させてよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。 The terminal control unit 81 may acquire data and information (various measurement data, captured images, additional information thereof, etc.) from the unmanned aerial vehicle 100 via the communication unit 85. The terminal control unit 81 may acquire data and information (for example, various parameters) input via the operation unit 83. The terminal control unit 81 may acquire data and information held in the memory 87. The terminal control unit 81 may transmit data and information (for example, image pickup position, image pickup angle, flight path information) to the unmanned aerial vehicle 100 via the communication unit 85. The terminal control unit 81 may send data or information to the display unit 88 and display the display information based on the data or information on the display unit 88.

端末制御部81は、無人航空機100に対する、飛行制御を行うためのアプリケーションを実行してよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。 The terminal control unit 81 may execute an application for performing flight control on the unmanned aerial vehicle 100. The terminal control unit 81 may generate various data used in the application.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100へ送信されてよい。各種パラメータは、飛行制御に関するパラメータを含んでよい。 The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include an input device such as a button, a key, a touch screen, a microphone, and the like. Here, it is illustrated that the operation unit 83 and the display unit 88 are mainly composed of a touch panel. In this case, the operation unit 83 can receive a touch operation, a tap operation, a drag operation, and the like. The operation unit 83 may receive information on various parameters. The information input by the operation unit 83 may be transmitted to the unmanned aerial vehicle 100. Various parameters may include parameters related to flight control.

通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。 The communication unit 85 wirelessly communicates with the unmanned aerial vehicle 100 by various wireless communication methods. The wireless communication method of this wireless communication may include communication via, for example, a wireless LAN, Bluetooth®, or a public wireless line. The communication unit 85 may perform wired communication by any wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。 The memory 87 has, for example, a ROM in which data of a program or set value that defines the operation of the terminal 80 is stored, and a RAM in which various information and data used during processing of the terminal control unit 81 are temporarily stored. It's okay. The memory 87 may include a memory other than the ROM and the RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be provided so as to be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。 The display unit 88 is configured by using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81. The display unit 88 may display various data and information related to the execution of the application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100から取得された撮像画像や付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。 The storage 89 stores and holds various data and information. The storage 89 may be an HDD, SSD, SD card, USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be provided so as to be removable from the terminal 80. The storage 89 may hold the captured image and additional information acquired from the unmanned aerial vehicle 100. The additional information may be held in the memory 87.

なお、飛行体システム10が送信機(プロポ)を備える場合、端末80が実行する処理は、送信機が実行してもよい。送信機は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機は、制御部、操作部、通信部、表示部、メモリ、等を有する。飛行体システム10が送信機を有する場合、端末80が設けられなくてもよい。 When the flying object system 10 includes a transmitter (propo), the transmitter may execute the process executed by the terminal 80. Since the transmitter has the same components as the terminal 80, detailed description thereof will be omitted. The transmitter has a control unit, an operation unit, a communication unit, a display unit, a memory, and the like. If the flying object system 10 has a transmitter, the terminal 80 may not be provided.

図6は、飛行範囲AR、飛行経路rt及び撮像位置wpを示す図である。飛行範囲ARは、無人航空機100が飛行する範囲を示す。飛行範囲ARは、無人航空機100の撮像部220が撮像する撮像範囲と一致してよい。飛行経路rtは、無人航空機100が飛行する際の経路を示す。撮像位置wpは、無人航空機100の撮像部220が画像を撮像する位置である。飛行経路rtは、撮像位置wpを通過するように生成される。端末制御部81が、飛行範囲ARの取得、飛行経路rtの生成、撮像位置wpの決定を行う。 FIG. 6 is a diagram showing a flight range AR, a flight path rt, and an imaging position wp. The flight range AR indicates the range in which the unmanned aerial vehicle 100 flies. The flight range AR may coincide with the imaging range captured by the imaging unit 220 of the unmanned aerial vehicle 100. The flight path rt indicates the route when the unmanned aerial vehicle 100 flies. The image pickup position wp is a position where the image pickup unit 220 of the unmanned aerial vehicle 100 captures an image. The flight path rt is generated so as to pass through the imaging position wp. The terminal control unit 81 acquires the flight range AR, generates the flight path rt, and determines the imaging position wp.

無人航空機100は、飛行範囲AR内の飛行経路rtに沿って飛行しながら撮像位置wpで空撮を行う。図6では、飛行経路rtは、左下隅から入り、方形波状に移動し、右上隅から抜けるように設定されたルートである。この場合の飛行経路rtは、飛行範囲ARを均一に撮像するためのスキャン方式に従った飛行経路である。また、飛行経路rtは、方形波状のルートの他、ジクザク状、渦巻き状に設定されたルートでよく、その他の形状の飛行経路であってもよい。 The unmanned aerial vehicle 100 performs aerial photography at the imaging position wp while flying along the flight path rt within the flight range AR. In FIG. 6, the flight path rt is a route set to enter from the lower left corner, move in a rectangular wave shape, and exit from the upper right corner. The flight path rt in this case is a flight path according to a scanning method for uniformly imaging the flight range AR. Further, the flight path rt may be a route set in a zigzag shape or a spiral shape in addition to a square wavy route, or may be a flight path having another shape.

図7は、撮像角度の候補(候補角度とも称する)を示すテーブルを示す図である。撮像角度は、無人航空機100の撮像部220が飛行範囲ARの地形を撮像するための撮像角度である。撮像角度の候補は、様々な撮像角度のうち、実際に撮像の際に採用される撮像角度の候補である。候補角度を示すテーブルは、端末80のメモリ87又はストレージ89に登録されてよい。候補角度を示すテーブルは、外部サーバに保持されていてもよい。 FIG. 7 is a diagram showing a table showing candidates for imaging angles (also referred to as candidate angles). The image pickup angle is an image pickup angle for the image pickup unit 220 of the unmanned aerial vehicle 100 to image the terrain of the flight range AR. The candidate for the imaging angle is a candidate for the imaging angle that is actually adopted at the time of imaging among various imaging angles. The table showing the candidate angles may be registered in the memory 87 or the storage 89 of the terminal 80. The table showing the candidate angles may be held in the external server.

撮像角度は、撮像部220を支持するジンバル200のピッチ角とヨー角とで規定されてよい。よって、候補角度も、撮像部220を支持するジンバル200のピッチ角とヨー角とで規定されてよい。図7に示すテーブルでは、候補角度として9つのピッチ角とヨー角の組み合わせ(ポイント)が示されている。例えば、9つのポイントには、ピッチ角:0°,ヨー角:0°のポイント、ピッチ角:0°,ヨー角:270°のポイント、およびピッチ角:-45°,ヨー角:270°のポイントが含まれる。 The imaging angle may be defined by the pitch angle and yaw angle of the gimbal 200 that supports the imaging unit 220. Therefore, the candidate angle may also be defined by the pitch angle and yaw angle of the gimbal 200 that supports the imaging unit 220. In the table shown in FIG. 7, combinations (points) of nine pitch angles and yaw angles are shown as candidate angles. For example, the nine points include pitch angle: 0 °, yaw angle: 0 °, pitch angle: 0 °, yaw angle: 270 °, and pitch angle: -45 °, yaw angle: 270 °. Points are included.

なお、図7は一例であり、ピッチ角とヨー角が更に細かく定められていてもよい。また、図7では、候補角度のピッチ角とヨー角とが均一の間隔で定められていたが、不均一の間隔で定められていてもよい。例えば、撮像部220による撮像角度として選択され易い(想定され易い)角度の範囲において、候補角度が多く定められ、撮像部220による撮像角度として選択され難い(想定され難い)角度の範囲において、候補角度が少なく定められていてもよい。 Note that FIG. 7 is an example, and the pitch angle and the yaw angle may be defined in more detail. Further, in FIG. 7, the pitch angle and the yaw angle of the candidate angles are defined at uniform intervals, but may be defined at non-uniform intervals. For example, many candidate angles are defined in the range of angles that are easily selected (easily assumed) as the imaging angle by the imaging unit 220, and candidates are determined in the range of angles that are difficult to be selected (difficult to assume) as the imaging angle by the imaging unit 220. The angle may be small.

図7では、上空から無人航空機100が空撮を行う場合を想定し、ピッチ角がマイナス角度、つまり水平方向に対し撮像方向が水平面よりも下向きとなるように設定されている。水平方向に沿う向きがピッチ角:0°であり、真下の向きがピッチ角:90°である。なお、無人航空機100の高度が低く、撮像部220が仰ぐように下から空撮を行う場合、ピッチ角がプラス角度に設定されてもよい。これにより、被写体の状況に適した撮像が可能となる。 In FIG. 7, assuming a case where the unmanned aerial vehicle 100 takes an aerial photograph from the sky, the pitch angle is set to be a minus angle, that is, the imaging direction is set to be downward from the horizontal plane with respect to the horizontal direction. The direction along the horizontal direction is the pitch angle: 0 °, and the direction directly below is the pitch angle: 90 °. When the altitude of the unmanned aerial vehicle 100 is low and aerial photography is performed from below so that the image pickup unit 220 looks up, the pitch angle may be set to a plus angle. This makes it possible to take an image suitable for the situation of the subject.

端末制御部81は、飛行範囲ARの地形を撮像するための候補角度を取得してよい。端末制御部81は、候補角度をメモリ87又はストレージ89から取得してよい。端末制御部81は、通信部85を介して候補角度を外部サーバから取得してよい。 The terminal control unit 81 may acquire a candidate angle for capturing the terrain of the flight range AR. The terminal control unit 81 may acquire the candidate angle from the memory 87 or the storage 89. The terminal control unit 81 may acquire the candidate angle from the external server via the communication unit 85.

図8は、起伏のある地表面hmに設定されたサンプリング位置kの一例を示す図である。サンプリング位置kは、無人航空機100により撮像される、飛行範囲ARの地形を抽出したサンプリング位置でよい。サンプリング位置は、3次元位置(緯度、経度、高度)で規定されてよい。複数のサンプリング位置に基づいて地形情報が定まってよい。 FIG. 8 is a diagram showing an example of the sampling position k set on the undulating ground surface hm. The sampling position k may be a sampling position obtained by extracting the terrain of the flight range AR, which is imaged by the unmanned aerial vehicle 100. The sampling position may be defined by a three-dimensional position (latitude, longitude, altitude). Topographical information may be determined based on multiple sampling positions.

図8では、飛行範囲AR内の一方向にサンプリング位置kが設定されているが、飛行範囲AR内の二次元方向に、サンプリング位置kが設定されてよい。つまり、飛行範囲AR内における格子状(グリッド状)に、つまり所定間隔で、サンプリング位置kが設定されてよい。また、サンプリング位置kは、等間隔でなく不定間隔で配置されてもよい。 In FIG. 8, the sampling position k is set in one direction within the flight range AR, but the sampling position k may be set in the two-dimensional direction within the flight range AR. That is, the sampling position k may be set in a grid pattern (grid shape) within the flight range AR, that is, at predetermined intervals. Further, the sampling positions k may be arranged at irregular intervals instead of equal intervals.

また、地表面hmにおけるサンプリング位置kから無人航空機100の撮像部220に向かう矢印は、地表面hmに対する法線ベクトル(法線方向)を示す。サンプリング位置kにおける法線ベクトル上に撮像部220が存在する場合、撮像部220からサンプリング位置を撮像すると、サンプリング位置kを正面からサンプリング位置k周辺の多くの情報が撮像画像から得られる。一方、撮像部220による撮像範囲には、正面に存在するサンプリング位置kだけでなく、正面でない他のサンプリング位置kも含まれ得る。そのため、撮像範囲に含まれるサンプリング位置kの全体をなるべく正面に近い方向から、各サンプリング位置kが撮像されることが望ましい。撮像部220により各サンプリング位置kを撮像することがどの程度好適であるかを、撮像コストとして数値化してよい。 Further, the arrow from the sampling position k on the ground surface hm toward the image pickup unit 220 of the unmanned aerial vehicle 100 indicates a normal vector (normal direction) with respect to the ground surface hm. When the imaging unit 220 is present on the normal vector at the sampling position k, when the sampling position is imaged from the imaging unit 220, a lot of information around the sampling position k can be obtained from the front of the sampling position k. On the other hand, the imaging range by the imaging unit 220 may include not only the sampling position k existing in the front surface but also other sampling positions k not in the front surface. Therefore, it is desirable that each sampling position k is imaged from the direction as close to the front as possible to the entire sampling position k included in the imaging range. The degree to which it is preferable to image each sampling position k by the image pickup unit 220 may be quantified as an image pickup cost.

なお、図8では、グラフの縦軸は、3次元空間における高度(例えば無人航空機100の撮像部220、地表面hmの高度)を表し、横軸は3次元空間における位置(緯度,軽度)(例えば、サンプリング位置k、撮像部220を備える無人航空機100の位置)を表す。 In FIG. 8, the vertical axis of the graph represents the altitude in the three-dimensional space (for example, the image pickup unit 220 of the unmanned aerial vehicle 100, the altitude of the ground surface hm), and the horizontal axis represents the position (latitude, mild) in the three-dimensional space. For example, the sampling position k, the position of the unmanned aerial vehicle 100 provided with the image pickup unit 220) is represented.

サンプリング位置の情報は、メモリ87又はストレージ89や外部サーバに保持されていてよい。端末制御部81は、メモリ87又はストレージ89からサンプリング位置kの情報を取得してよい。端末制御部81は、通信部85を介して、サンプリング位置kの情報を取得してよい。端末制御部81自身が、地形情報に対してサンプリングし、サンプリング位置kを決定してもよい。 The sampling position information may be held in the memory 87, the storage 89, or an external server. The terminal control unit 81 may acquire information on the sampling position k from the memory 87 or the storage 89. The terminal control unit 81 may acquire information on the sampling position k via the communication unit 85. The terminal control unit 81 itself may sample the topographical information and determine the sampling position k.

図9は、候補角度に応じた撮像コストの算出例を説明する図である。撮像コストは、無人航空機100の撮像部220が撮像に適しているか否かを数値化したものである。撮像コストは、例えば候補角度毎に算出される。 FIG. 9 is a diagram illustrating an example of calculating an imaging cost according to a candidate angle. The imaging cost is a numerical value of whether or not the imaging unit 220 of the unmanned aerial vehicle 100 is suitable for imaging. The imaging cost is calculated for each candidate angle, for example.

端末制御部81が、以下の具体例の処理(例えば数式の計算)を行い、候補角度に応じた撮像コストを算出する。端末制御部81は、撮像コストに基づいて、撮像角度θを決定する。撮像角度θは、撮像位置i毎に算出されるので、撮像角度θiとも称する。 The terminal control unit 81 performs the following specific example processing (for example, calculation of a mathematical formula) to calculate the imaging cost according to the candidate angle. The terminal control unit 81 determines the imaging angle θ based on the imaging cost. Since the imaging angle θ is calculated for each imaging position i, it is also referred to as an imaging angle θi.

例えば、撮像対象である地表面hmの位置を、サンプリング位置k(k=1、2、・・・、K)で表す。無人航空機100の撮像部220が撮像する撮像位置wpを、撮像位置i(i=1、2、・・・、I)で表す。撮像部220の候補角度を、候補角度j(j=1、2、・・・、J)で表す。 For example, the position of the ground surface hm to be imaged is represented by the sampling position k (k = 1, 2, ..., K). The image pickup position wp imaged by the image pickup unit 220 of the unmanned aerial vehicle 100 is represented by the image pickup position i (i = 1, 2, ..., I). The candidate angle of the image pickup unit 220 is represented by the candidate angle j (j = 1, 2, ..., J).

この場合、端末制御部81は、撮像位置iにおける候補角度jの撮像コストCijを、式(1)に従って算出してよい。

Figure 0007017998000001
In this case, the terminal control unit 81 may calculate the imaging cost Cij of the candidate angle j at the imaging position i according to the equation (1).
Figure 0007017998000001

また、例えば、撮像部220から地表面hmまでの距離、つまり撮像位置iとサンプリング位置kとの間の距離を、距離dで表す。撮像部220の候補角度jに応じた撮像方向を、撮像ベクトルnで表す。サンプリング位置kにおける地表面hmの法線方向を、法線ベクトルlで表す。端末制御部81は、撮像対象のサンプリング位置kに対する撮像コストCijkを、式(2)に従って算出してよい。

Figure 0007017998000002
Further, for example, the distance from the image pickup unit 220 to the ground surface hm, that is, the distance between the image pickup position i and the sampling position k is represented by the distance d. The imaging direction corresponding to the candidate angle j of the imaging unit 220 is represented by the imaging vector n. The normal direction of the ground surface hm at the sampling position k is represented by the normal vector l. The terminal control unit 81 may calculate the imaging cost Cijk for the sampling position k of the imaging target according to the equation (2).
Figure 0007017998000002

式(2)より、距離dが短い程、サンプリング位置の撮像コストCijkが大きな値となる。また、n*(-l)は、撮像ベクトルnと法線ベクトルlの内積(内積値)を表す。式(2)より、内積n*(-l)が大きい程、サンプリング位置の撮像コストCijkが大きな値となる。 From the equation (2), the shorter the distance d, the larger the imaging cost Cijk of the sampling position. Further, n * (−l) represents the inner product (inner product value) of the image pickup vector n and the normal vector l. From the equation (2), the larger the inner product n * (−l), the larger the imaging cost Cijk of the sampling position.

また、max(n*(-l),0)は、内積n*(-l)と値0のうち、大きい方の値を表す。これは、端末制御部81が、内積n*(-l)が負となるようなサンプリング位置kの撮像コストCijkを、撮像位置iにおける撮像コストCijの算出対象から除外することを意味する。 Further, max (n * (−l), 0) represents the larger value of the inner product n * (−l) and the value 0. This means that the terminal control unit 81 excludes the imaging cost Cijk at the sampling position k such that the inner product n * (−l) is negative from the calculation target of the imaging cost Cij at the imaging position i.

式(1)及び式(2)に示すように、端末制御部81は、各サンプリング位置kでの撮像コストCijkを合計することで、撮像コストCijを得る。撮像位置iにおける撮像コストCijが最大となる候補角度jが、最適撮像角度θimとなる。端末制御部81は、最適撮像角度θimを、式(3)に従って算出してよい。

Figure 0007017998000003
なお、argmax(Cij)は、撮像コストCijが最大(max)となる場合の候補角度jであり、この角度が最適撮像角度θimとなる。 As shown in the equations (1) and (2), the terminal control unit 81 obtains the imaging cost Cij by summing the imaging cost Cijk at each sampling position k. The candidate angle j at which the imaging cost Cij at the imaging position i is maximized is the optimum imaging angle θim. The terminal control unit 81 may calculate the optimum imaging angle θim according to the equation (3).
Figure 0007017998000003
The argmax (Cij) is a candidate angle j when the imaging cost Cij is the maximum (max), and this angle is the optimum imaging angle θim.

なお、最適撮像角度θimは、撮像角度θiの一例である。つまり、撮像角度θiは、撮像コストCijが最大となる角度に限らず、所定基準を満たす角度でよい。例えば、候補角度から決定(選定)される撮像角度θiは、閾値th1以上となる角度のうち、2番目や3番目に撮像コストCijが大きい角度であってもよい。また、撮像角度θiは、各撮像コストCijを平均した平均値以上となる撮像コストCijに対応する撮像角度でもよい。 The optimum imaging angle θim is an example of the imaging angle θi. That is, the imaging angle θi is not limited to the angle at which the imaging cost Cij is maximized, and may be an angle that satisfies a predetermined reference. For example, the imaging angle θi determined (selected) from the candidate angles may be an angle having the second or third largest imaging cost Cij among the angles having the threshold value th1 or more. Further, the imaging angle θi may be an imaging angle corresponding to the imaging cost Cij, which is equal to or higher than the average value obtained by averaging each imaging cost Cij.

また、撮像位置iでの撮像コストCijがいずれも閾値th1未満である場合、候補角度jから撮像角度θiが決定されず、この撮像位置での撮像が省略されてもよい。この場合、例えば、撮像角度θiによらず撮像画像の画質が所定基準以下となる撮像位置iを撮像位置としないことで、端末80は、不要な撮像を省略でき、撮像効率を向上できる。また、端末80は、撮像位置iを通過しない飛行経路rtに従って無人航空機100を飛行させることもできる。 Further, when the imaging cost Cij at the imaging position i is less than the threshold value th1, the imaging angle θi is not determined from the candidate angle j, and imaging at this imaging position may be omitted. In this case, for example, by not setting the imaging position i at which the image quality of the captured image is equal to or less than a predetermined reference regardless of the imaging angle θi, the terminal 80 can omit unnecessary imaging and can improve the imaging efficiency. Further, the terminal 80 can also fly the unmanned aerial vehicle 100 according to the flight path rt that does not pass through the imaging position i.

このように、端末制御部81は、飛行範囲ARの地形をサンプリングし、無人航空機100により撮像される複数のサンプリング位置kを取得してよい。端末制御部81は、撮像位置iにおいて候補角度jでサンプリング位置kを撮像した場合の撮像コストCijk(第2の撮像コストの一例)を、サンプリング位置k毎に算出してよい。端末制御部81は、各サンプリング位置kの撮像コストCijkを合計し、撮像位置iの撮像コストCij(第1の撮像コストの一例)を算出してよい。 In this way, the terminal control unit 81 may sample the terrain of the flight range AR and acquire a plurality of sampling positions k imaged by the unmanned aerial vehicle 100. The terminal control unit 81 may calculate the imaging cost Cijk (an example of the second imaging cost) when the sampling position k is imaged at the candidate angle j at the imaging position i for each sampling position k. The terminal control unit 81 may total the imaging cost Cijk of each sampling position k and calculate the imaging cost Cij (an example of the first imaging cost) of the imaging position i.

これにより、端末80は、各サンプリング位置kの撮像コストCijkを加味して、各撮像位置iにおける撮像角度θiを決定できる。例えば、端末80は、1つのサンプリング位置kにおける撮像コストCijkが小さい場合でも、他のサンプリング位置kの撮像コストCijkが大きい場合には、複数のサンプリング位置k全体の撮像コストCijが大きくなり、この場合の候補角度jが撮像角度θiとして採用され得る。したがって、端末80は、複数のサンプリング位置kでの撮像の良好さを総合的に加味して、撮像角度θiを決定できる。 As a result, the terminal 80 can determine the imaging angle θi at each imaging position i in consideration of the imaging cost Cijk of each sampling position k. For example, in the terminal 80, even if the imaging cost Cijk at one sampling position k is small, if the imaging cost Cijk at another sampling position k is large, the imaging cost Cij of the entire plurality of sampling positions k becomes large. The candidate angle j in the case can be adopted as the imaging angle θi. Therefore, the terminal 80 can determine the imaging angle θi by comprehensively considering the goodness of imaging at a plurality of sampling positions k.

また、式(2)のように、距離dが短い程、サンプリング位置の撮像コストCijkが大きな値となってよい。 Further, as in the equation (2), the shorter the distance d, the larger the imaging cost Cijk of the sampling position may be.

これにより、撮像位置iとサンプリング位置kとの間の距離dが短い程、サンプリング位置kの撮像コストCijkが大きいので、サンプリング位置kが無人航空機100から近い方が、サンプリング位置kでの撮像コストCijkが大きくなり、撮像位置iの撮像コストCijが大きくなり易い。よって、端末80は、撮像角度θiを決定する際、無人航空機100から近いサンプリング位置kの撮像コストCijkの影響度を大きくできる。また、サンプリング位置kが無人航空機100から近い場合、無人航空機100により撮像される撮像範囲(撮像画像に含まれる範囲)が狭くなり、撮像範囲におけるサンプリング位置kの画像情報が相対的に増大する。したがって、オルソ画像や3次元復元のための地表面上の情報が増えるので、端末80は、オルソ画像の生成精度や3次元復元精度を向上できる。 As a result, the shorter the distance d between the imaging position i and the sampling position k, the larger the imaging cost Cijk at the sampling position k. Therefore, the closer the sampling position k is to the unmanned aerial vehicle 100, the higher the imaging cost at the sampling position k. The Cijk becomes large, and the imaging cost Cij at the imaging position i tends to increase. Therefore, the terminal 80 can increase the influence of the imaging cost Cijk at the sampling position k close to the unmanned aerial vehicle 100 when determining the imaging angle θi. Further, when the sampling position k is close to the unmanned aerial vehicle 100, the imaging range (range included in the captured image) imaged by the unmanned aerial vehicle 100 is narrowed, and the image information of the sampling position k in the imaging range is relatively increased. Therefore, since the information on the ground surface for the ortho image and the three-dimensional restoration is increased, the terminal 80 can improve the generation accuracy and the three-dimensional restoration accuracy of the ortho image.

また、式(2)のように、内積n*(-l)が大きい程、サンプリング位置kの撮像コストCijkが大きな値となってよい。 Further, as in the equation (2), the larger the inner product n * (−l), the larger the imaging cost Cijk at the sampling position k may be.

これにより、サンプリング位置kにおける地表面hmに対する法線ベクトルlと候補角度が示す撮像方向に沿うベクトルである撮像ベクトルnとの内積値が大きい程、サンプリング位置の撮像コストCijkが大きくなる。したがって、法線ベクトルlと撮像ベクトルnとの成す角度が小さい方が、サンプリング位置kでの撮像コストCijkが大きくなり、撮像位置iでの撮像コストCijが大きくなり易い。よって、端末80は、撮像角度θiを決定する際、法線ベクトルlとの成す角度が小さくなる撮像ベクトルnの影響度を大きくできる。また、法線ベクトルlと撮像ベクトルnとの成す角度が小さい場合、サンプリング位置kを正面に近い位置から撮像でき、サンプリング位置kの画像情報が増大する。したがって、オルソ画像や3次元復元のための地表面上の情報が増えるので、端末80は、オルソ画像の生成精度や3次元復元精度を向上できる。 As a result, the larger the internal product value of the normal vector l with respect to the ground surface hm at the sampling position k and the imaging vector n which is a vector along the imaging direction indicated by the candidate angle, the larger the imaging cost Cijk at the sampling position. Therefore, the smaller the angle formed by the normal vector l and the image pickup vector n, the larger the image pickup cost Cijk at the sampling position k, and the larger the image pickup cost Cij at the image pickup position i. Therefore, when determining the image pickup angle θi, the terminal 80 can increase the degree of influence of the image pickup vector n, which makes the angle formed with the normal vector l smaller. Further, when the angle formed by the normal vector l and the image pickup vector n is small, the sampling position k can be imaged from a position close to the front, and the image information of the sampling position k increases. Therefore, since the information on the ground surface for the ortho image and the three-dimensional restoration is increased, the terminal 80 can improve the generation accuracy and the three-dimensional restoration accuracy of the ortho image.

また、端末制御部81は、内積n*(-l)の値(内積値)が負の値となるサンプリング位置kでの撮像コストCijkを、撮像位置iでの撮像コストCijの算出対象から除外してよい。 Further, the terminal control unit 81 excludes the imaging cost Cijk at the sampling position k where the value (inner product value) of the inner product n * (−l) is a negative value from the calculation target of the imaging cost Cij at the imaging position i. You can do it.

これにより、端末80は、例えば内積n*(-l)の値が負の値となるようなサンプリング位置の撮像コストCijkを値0とすることで、内積値が負となる1つの極端な値によって撮像位置iにおける撮像コストCijが大きく影響を受けることを抑制できる。 As a result, the terminal 80 sets the imaging cost Cijk of the sampling position such that the value of the inner product n * (−l) becomes a negative value to 0, so that the terminal 80 has one extreme value in which the inner product value becomes negative. Therefore, it is possible to prevent the imaging cost Cij at the imaging position i from being significantly affected.

次に、飛行体システム10の動作例について説明する。 Next, an operation example of the flying object system 10 will be described.

図10は、飛行体システム10における飛行経路生成手順の一例を示すシーケンス図である。図10では、飛行経路生成の処理は、主に端末80によって行われることを例示する。 FIG. 10 is a sequence diagram showing an example of a flight path generation procedure in the flight body system 10. In FIG. 10, it is illustrated that the flight path generation process is mainly performed by the terminal 80.

端末制御部81は、飛行範囲ARの情報を取得する(T1)。端末制御部81は、操作部83を介してユーザ入力を受け、飛行範囲ARを取得してよい。この場合、端末制御部81は、通信部85を介して、外部サーバから地図情報を取得してよい。飛行範囲ARの情報は、例えば、飛行範囲ARを矩形の範囲に設定する場合、ユーザが地図情報における矩形の四隅の位置(緯度,経度)を入力することで得られてよい。また、飛行範囲ARの情報は、飛行範囲ARを円形の範囲に設定する場合、ユーザが飛行位置を中心とする円の半径を入力することで得られてよい。また、飛行範囲ARの情報は、ユーザが地域や特定の地名(例えば東京)等の情報を入力することで、地図情報を基に得られてよい。また、端末制御部81は、メモリ87やストレージ89に保持された飛行範囲ARを、メモリ87やストレージ89から取得してよい。端末制御部81は、通信部85を介して外部サーバから飛行範囲ARを取得してよい。 The terminal control unit 81 acquires the information of the flight range AR (T1). The terminal control unit 81 may receive user input via the operation unit 83 and acquire the flight range AR. In this case, the terminal control unit 81 may acquire map information from an external server via the communication unit 85. The flight range AR information may be obtained, for example, when the flight range AR is set to a rectangular range, by the user inputting the positions (latitude, longitude) of the four corners of the rectangle in the map information. Further, the information of the flight range AR may be obtained by the user inputting the radius of the circle centered on the flight position when the flight range AR is set to the circular range. Further, the flight range AR information may be obtained based on the map information by the user inputting information such as a region or a specific place name (for example, Tokyo). Further, the terminal control unit 81 may acquire the flight range AR held in the memory 87 or the storage 89 from the memory 87 or the storage 89. The terminal control unit 81 may acquire the flight range AR from an external server via the communication unit 85.

端末制御部81は、各種パラメータを取得する(T2)。パラメータは、撮像部220による撮像や無人航空機100の飛行に関するパラメータでよい。このパラメータは、例えば、撮像位置、撮像日時、被写体までの距離、撮像画角、撮像条件、カメラパラメータ(シャッタスピード、露出値、撮像モード、等)を含んでよい。端末制御部81は、操作部83を介してユーザにより入力されるパラメータを取得してよい。端末制御部81は、
メモリ87やストレージ89に保持された各種パラメータを、メモリ87やストレージ89から取得してよい。端末制御部81は、通信部85を介して無人航空機100や外部サーバから各種パラメータを取得してよい。
The terminal control unit 81 acquires various parameters (T2). The parameters may be parameters related to imaging by the imaging unit 220 and flight of the unmanned aerial vehicle 100. This parameter may include, for example, an imaging position, an imaging date and time, a distance to a subject, an imaging angle of view, an imaging condition, and camera parameters (shutter speed, exposure value, imaging mode, etc.). The terminal control unit 81 may acquire parameters input by the user via the operation unit 83. The terminal control unit 81
Various parameters held in the memory 87 and the storage 89 may be acquired from the memory 87 and the storage 89. The terminal control unit 81 may acquire various parameters from the unmanned aerial vehicle 100 or an external server via the communication unit 85.

端末制御部81は、飛行範囲ARの情報を基に、地形情報を取得する(T3)。例えば、端末制御部81は、通信部85を介して接続されたネットワーク上の地図サーバと連動し、飛行範囲ARの地形情報を取得してよい。地形情報は、飛行範囲ARの各位置の位置情報(緯度、経度、高度)を含んでよい。各位置の位置情報を集約することで、飛行範囲ARの3次元形状を示してよい。また、地形情報は、建物、山、森林、鉄塔等の地表面の形状の情報やオブジェクトの情報を含んでよい。 The terminal control unit 81 acquires terrain information based on the information of the flight range AR (T3). For example, the terminal control unit 81 may interlock with a map server on the network connected via the communication unit 85 to acquire topographical information of the flight range AR. The terrain information may include position information (latitude, longitude, altitude) of each position in the flight range AR. By aggregating the position information of each position, the three-dimensional shape of the flight range AR may be shown. In addition, the topographical information may include information on the shape of the ground surface such as buildings, mountains, forests, and steel towers, and information on objects.

端末制御部81は、飛行範囲ARの地形情報や、取得されたパラメータに含まれる被写体までの距離等の情報を基に、飛行高度を算出する(T4)。例えば、端末制御部81は、地形情報が示す地表面hmの起伏に合わせて、被写体までの距離が確保されるように、無人航空機100の飛行高度を算出してよい。 The terminal control unit 81 calculates the flight altitude based on the topographical information of the flight range AR and the information such as the distance to the subject included in the acquired parameters (T4). For example, the terminal control unit 81 may calculate the flight altitude of the unmanned aerial vehicle 100 so that the distance to the subject is secured according to the undulations of the ground surface hm indicated by the topographical information.

端末制御部81は、飛行経路rtを生成する(T5)。この場合、端末制御部81は、飛行範囲AR、地形情報及び飛行高度を基に、飛行経路rtを生成してよい。生成される飛行経路rtは、飛行範囲ARにおける各位置で、導出された飛行高度を維持し、飛行範囲AR内の地形を撮像するための3次元空間における撮像位置wpを通る。なお、端末制御部81は、飛行範囲ARにおける二次元平面(緯度、経度)のどの位置を通る飛行経路とするか、飛行経路がどのサンプリング位置k(撮像位置wp)を通るかについては、公知の方法に従って決定してよい。 The terminal control unit 81 generates a flight path rt (T5). In this case, the terminal control unit 81 may generate a flight path rt based on the flight range AR, topographical information, and flight altitude. The generated flight path rt passes through the imaging position wp in three-dimensional space for maintaining the derived flight altitude and imaging the terrain within the flight range AR at each position in the flight range AR. The terminal control unit 81 is known about which position in the two-dimensional plane (latitude, longitude) in the flight range AR the flight path passes through, and which sampling position k (imaging position wp) the flight path passes through. It may be decided according to the method of.

端末制御部81は、地形情報及び飛行高度を基に、飛行経路rtに沿って撮像位置i毎に撮像角度θiを導出(例えば算出)する(T6)。この撮像角度θiの導出では、端末制御部81は、撮像位置iでの撮像コストCijを、候補角度j毎に算出する。端末制御部81は、撮像位置iの撮像コストCijが閾値th1以上(例えば最大)となる候補角度(例えば最適撮像角度θim)を、撮像位置iにおける撮像角度θiに決定する。この撮像角度θiの導出では、地形情報と飛行経路rtの情報を基に、最適撮像角度θimが算出されてよい。 The terminal control unit 81 derives (for example, calculates) an imaging angle θi for each imaging position i along the flight path rt based on the topographical information and the flight altitude (T6). In deriving the imaging angle θi, the terminal control unit 81 calculates the imaging cost Cij at the imaging position i for each candidate angle j. The terminal control unit 81 determines a candidate angle (for example, the optimum imaging angle θim) at which the imaging cost Cij of the imaging position i becomes the threshold value th1 or more (for example, the maximum) as the imaging angle θi at the imaging position i. In the derivation of the imaging angle θi, the optimum imaging angle θim may be calculated based on the topographical information and the flight path rt information.

端末制御部81は、通信部85を介して、撮像位置wp、飛行経路rt、及び撮像角度θiを含む通知パラメータを、無人航空機100に送信する(T7)。通知パラメータは、撮像時のカメラ(撮像部220)に関する撮像パラメータや撮像時の飛行に関する飛行パラメータを含んでよい。 The terminal control unit 81 transmits the notification parameters including the image pickup position wp, the flight path rt, and the image pickup angle θi to the unmanned aerial vehicle 100 via the communication unit 85 (T7). The notification parameter may include an imaging parameter relating to the camera (imaging unit 220) at the time of imaging and a flight parameter relating to flight at the time of imaging.

無人航空機100では、UAV制御部110は、通信インタフェース150を介して、端末80からの通知パラメータを受信する(T8)。UAV制御部110は、受信した通知パラメータをメモリ160に保持することで、無人航空機100が用いる各パラメータを設定する(T9)。UAV制御部110は、設定されたパラメータを基に、飛行経路rtに沿って飛行しながら撮像部220を駆動し、撮像角度θiで空撮を行う(T10)。 In the unmanned aerial vehicle 100, the UAV control unit 110 receives the notification parameter from the terminal 80 via the communication interface 150 (T8). The UAV control unit 110 sets each parameter used by the unmanned aerial vehicle 100 by holding the received notification parameter in the memory 160 (T9). The UAV control unit 110 drives the image pickup unit 220 while flying along the flight path rt based on the set parameters, and performs aerial photography at the image pickup angle θi (T10).

このように、端末80は、無人航空機100が飛行するための飛行経路rtを生成してよい。端末制御部81は、無人航空機100が飛行する飛行範囲ARの地形情報を取得してよい。端末制御部81は、飛行範囲ARの地形情報に基づいて、飛行範囲ARの地形を撮像するための3次元空間における撮像位置wpを含む飛行経路rtを生成してよい。端末制御部81は、飛行範囲ARの地形情報と飛行経路rtとに基づいて、飛行経路rtの撮像位置毎に撮像角度θiを導出(例えば算出)してよい。 In this way, the terminal 80 may generate a flight path rt for the unmanned aerial vehicle 100 to fly. The terminal control unit 81 may acquire topographical information of the flight range AR in which the unmanned aerial vehicle 100 flies. The terminal control unit 81 may generate a flight path rt including an imaging position wp in a three-dimensional space for imaging the terrain of the flight range AR based on the terrain information of the flight range AR. The terminal control unit 81 may derive (for example, calculate) an imaging angle θi for each imaging position of the flight path rt based on the topographical information of the flight range AR and the flight path rt.

これにより、端末80は、地形の起伏を加味して、撮像角度θiを決定するので、地形の起伏により撮像することが困難な地表面hmの箇所を低減できる。よって、無人航空機100は、撮像位置i毎に、地表面hmの各点を撮像する際に可能な限り正面側から撮像できる。よって、端末80は、決定された撮像角度θiで撮像された撮像画像が用いられることで、オルソ画像の生成精度や3次元復元精度(3次元の形状推定の精度)を向上させることができる。また、端末80は、オルソ画像の生成精度や3次元復元精度を向上させるために、各撮像位置iにおいて様々な角度から画像を撮像することを不要にでき、無人航空機100による撮像効率を向上できる。したがって、端末80は、無人航空機100による撮像効率の低下を抑制して、無人航空機100により起伏のある地形の各点の情報をなるべく多く取得させることができる。なお、端末80が主として実行する飛行経路生成処理は、無人航空機100の飛行中又は飛行開始前のいずれにおいて行われてもよい。 As a result, the terminal 80 determines the imaging angle θi in consideration of the undulations of the terrain, so that it is possible to reduce the portion of the ground surface hm that is difficult to image due to the undulations of the terrain. Therefore, the unmanned aerial vehicle 100 can take an image from the front side as much as possible when taking an image of each point on the ground surface hm for each image pickup position i. Therefore, the terminal 80 can improve the generation accuracy of the ortho image and the three-dimensional restoration accuracy (accuracy of three-dimensional shape estimation) by using the captured image captured at the determined imaging angle θi. Further, the terminal 80 can eliminate the need to capture an image from various angles at each imaging position i in order to improve the ortho image generation accuracy and the three-dimensional restoration accuracy, and can improve the imaging efficiency by the unmanned aerial vehicle 100. .. Therefore, the terminal 80 can suppress the deterioration of the imaging efficiency by the unmanned aerial vehicle 100 and allow the unmanned aerial vehicle 100 to acquire as much information as possible at each point of the undulating terrain. The flight path generation process mainly executed by the terminal 80 may be performed during the flight of the unmanned aerial vehicle 100 or before the start of the flight.

また、端末制御部81は、飛行範囲ARの地形を撮像するための撮像角度θiの候補である候補角度jを取得してよい。端末制御部81は、撮像位置iでの撮像コストCij(撮像位置において候補角度jで撮像した場合の撮像コストである第1の撮像コストの一例)を、候補角度j毎に算出してよい。端末制御部81は、撮像位置iでの撮像コストCijに基づいて、撮像位置における撮像角度θiに決定してよい。この場合、端末制御部81は、撮像位置iでの撮像コストCijが閾値th1以上となる候補角度jを、撮像位置における撮像角度θiに決定してよい。 Further, the terminal control unit 81 may acquire a candidate angle j which is a candidate for an imaging angle θi for imaging the terrain of the flight range AR. The terminal control unit 81 may calculate the imaging cost Cij at the imaging position i (an example of the first imaging cost which is the imaging cost when imaging at the candidate angle j at the imaging position) for each candidate angle j. The terminal control unit 81 may determine the imaging angle θi at the imaging position based on the imaging cost Cij at the imaging position i. In this case, the terminal control unit 81 may determine the candidate angle j at which the imaging cost Cij at the imaging position i is the threshold value th1 or more as the imaging angle θi at the imaging position.

これにより、端末80は、撮像に適しているか否かを撮像コストとして数値化でき、撮像位置i且つ候補角度jでの撮像がどの程度適しているかを容易に判断できる。ここでは、閾値th1以上となる撮像位置iの撮像コストCijのうち、n番目に大きい(例えば最大の)撮像コストCijの候補角度jが撮像角度θiに決定されてよい。 Thereby, the terminal 80 can quantify whether or not it is suitable for imaging as an imaging cost, and can easily determine how suitable the imaging at the imaging position i and the candidate angle j is. Here, among the imaging cost Cij of the imaging position i having the threshold value th1 or more, the candidate angle j of the nth largest (for example, the maximum) imaging cost Cij may be determined as the imaging angle θi.

また、端末制御部81は、通信部85を介して、撮像位置iと飛行経路rtと撮像角度θiとの情報を無人航空機100へ送信してよい。 Further, the terminal control unit 81 may transmit information on the image pickup position i, the flight path rt, and the image pickup angle θi to the unmanned aerial vehicle 100 via the communication unit 85.

これにより、飛行経路rtを生成するための多くの処理を端末80側で行うことができ、端末80は、無人航空機100の処理の負荷を軽減しつつ、無人航空機100による撮像効率の低下を抑制して、無人航空機100により地形正面の情報を多く取得させることができる。 As a result, many processes for generating the flight path rt can be performed on the terminal 80 side, and the terminal 80 suppresses a decrease in imaging efficiency due to the unmanned aerial vehicle 100 while reducing the processing load of the unmanned aerial vehicle 100. Then, the unmanned aerial vehicle 100 can acquire a lot of information on the front of the terrain.

(第2の実施形態)
第2の実施形態では、飛行経路生成の処理が、主に無人航空機100によって行われることを例示する。第2の実施形態の飛行体システムは、第1の実施形態とほぼ同一の構成を有する。第1の実施形態と同一の構成要素については、同一の符号を用いることで、その説明を省略又は簡略化する。
(Second embodiment)
In the second embodiment, it is illustrated that the processing of flight path generation is mainly performed by the unmanned aerial vehicle 100. The flying object system of the second embodiment has substantially the same configuration as that of the first embodiment. For the same components as those in the first embodiment, the same reference numerals are used to omit or simplify the description.

図11は、第2の実施形態の飛行体システム10における飛行経路生成手順を示すシーケンス図である。図11では、この飛行経路生成の処理は、主に無人航空機100によって行われることを例示する。 FIG. 11 is a sequence diagram showing a flight path generation procedure in the flight body system 10 of the second embodiment. In FIG. 11, it is illustrated that this flight path generation process is mainly performed by the unmanned aerial vehicle 100.

手順T21~T23の処理は、第1の実施形態の手順T1~T3と同じである。端末制御部81は、通信部85を介して、手順T21~T23で取得した飛行範囲AR、パラメータ及び地形情報を無人航空機100に送信する(T24)。 The processing of the procedures T21 to T23 is the same as the procedures T1 to T3 of the first embodiment. The terminal control unit 81 transmits the flight range AR, parameters, and terrain information acquired in the procedures T21 to T23 to the unmanned aerial vehicle 100 via the communication unit 85 (T24).

無人航空機100では、UAV制御部110は、通信インタフェース150を介して、飛行範囲AR、パラメータ及び地形情報を受信する(T25)。UAV制御部110は、受信した飛行範囲AR、パラメータ及び地形情報をメモリ160に記憶する。 In the unmanned aerial vehicle 100, the UAV control unit 110 receives flight range AR, parameters and terrain information via the communication interface 150 (T25). The UAV control unit 110 stores the received flight range AR, parameters, and terrain information in the memory 160.

UAV制御部110は、飛行高度を算出する(T26)。飛行高度の算出方法は、T4と同様でよい。UAV制御部110は、飛行経路rtを生成する(T27)。飛行経路rtの生成方法は、T5と同様でよい。UAV制御部110は、飛行経路rtに沿って撮像位置毎に撮像角度θiを導出する(T28)。撮像角度θiの導出方法は、T6と同様でよい。UAV制御部110は、撮像位置、飛行経路rt及び撮像角度θiを含むパラメータを、メモリ160に保持させ設定する(T29)。UAV制御部110は、設定されたパラメータを基に、飛行経路rtに沿って飛行しながら、撮像位置において、撮像部220を駆動して撮像角度θiで空撮を行う(T30)。 The UAV control unit 110 calculates the flight altitude (T26). The method of calculating the flight altitude may be the same as that of T4. The UAV control unit 110 generates a flight path rt (T27). The method of generating the flight path rt may be the same as that of T5. The UAV control unit 110 derives an imaging angle θi for each imaging position along the flight path rt (T28). The method for deriving the imaging angle θi may be the same as that for T6. The UAV control unit 110 holds and sets the parameters including the image pickup position, the flight path rt, and the image pickup angle θi in the memory 160 (T29). The UAV control unit 110 drives the image pickup unit 220 at the image pickup position and performs aerial photography at the image pickup angle θi while flying along the flight path rt based on the set parameters (T30).

なお、T23の処理は、無人航空機100で行われてもよい。この場合、端末制御部81は、通信部85を介して、手順T21,T22で取得した飛行範囲AR及びパラメータを無人航空機100に送信してよい。UAV制御部110は、飛行範囲AR及びパラメータを受信し、地形情報及び飛行高度を算出してよい。 The processing of T23 may be performed by the unmanned aerial vehicle 100. In this case, the terminal control unit 81 may transmit the flight range AR and parameters acquired in the procedures T21 and T22 to the unmanned aerial vehicle 100 via the communication unit 85. The UAV control unit 110 may receive the flight range AR and parameters, and calculate the terrain information and the flight altitude.

このように、無人航空機100は、無人航空機100が飛行するための飛行経路rtを生成してよい。UAV制御部110は、無人航空機100が飛行する飛行範囲ARの地形情報を取得してよい。UAV制御部110は、飛行範囲ARの地形情報に基づいて、飛行範囲ARの地形を撮像するための3次元空間における撮像位置wpを含む飛行経路rtを生成してよい。UAV制御部110は、飛行範囲ARの地形情報と飛行経路rtとに基づいて、飛行経路rtの撮像位置毎に撮像角度θiを導出(例えば算出)してよい。 In this way, the unmanned aerial vehicle 100 may generate a flight path rt for the unmanned aerial vehicle 100 to fly. The UAV control unit 110 may acquire topographical information of the flight range AR in which the unmanned aerial vehicle 100 flies. The UAV control unit 110 may generate a flight path rt including an imaging position wp in a three-dimensional space for imaging the terrain of the flight range AR based on the terrain information of the flight range AR. The UAV control unit 110 may derive (for example, calculate) an imaging angle θi for each imaging position of the flight path rt based on the topographical information of the flight range AR and the flight path rt.

これにより、無人航空機100は、地形の起伏を加味して、撮像角度θを決定するので、地形の起伏により撮像することが困難な地表面hmの箇所を低減できる。よって、無人航空機100は、撮像位置毎に、地表面hmの各点を撮像する際に可能な限り正面側から撮像できる。よって、無人航空機100は、決定された撮像角度θiで撮像された撮像画像を用いることで、オルソ画像の生成精度や3次元復元精度(3次元の形状推定の精度)を向上させることができる。また、無人航空機100は、オルソ画像の生成精度や3次元復元精度を向上させるために、各撮像位置において様々な角度から画像を撮像することを不要にでき、撮像効率を向上できる。したがって、無人航空機100は、撮像効率の低下を抑制して、起伏のある地形の各点の情報をなるべく多く取得できる。なお、無人航空機100が主として実行する飛行経路生成処理は、無人航空機100の飛行中又は飛行開始前のいずれにおいて行われてもよい。 As a result, the unmanned aerial vehicle 100 determines the imaging angle θ in consideration of the undulations of the terrain, so that it is possible to reduce the portion of the ground surface hm that is difficult to image due to the undulations of the terrain. Therefore, the unmanned aerial vehicle 100 can take an image from the front side as much as possible when taking an image of each point of the ground surface hm at each image pickup position. Therefore, the unmanned aerial vehicle 100 can improve the generation accuracy of the ortho image and the three-dimensional restoration accuracy (accuracy of three-dimensional shape estimation) by using the captured image captured at the determined imaging angle θi. Further, the unmanned aerial vehicle 100 can improve the imaging efficiency by eliminating the need to capture images from various angles at each imaging position in order to improve the ortho image generation accuracy and the three-dimensional restoration accuracy. Therefore, the unmanned aerial vehicle 100 can suppress a decrease in imaging efficiency and acquire as much information as possible at each point of the undulating terrain. The flight path generation process mainly executed by the unmanned aerial vehicle 100 may be performed during the flight of the unmanned aerial vehicle 100 or before the start of the flight.

また、UAV制御部110は、飛行経路rtに従って飛行を制御し、撮像部220を介して、飛行経路rtの撮像位置iにおいて撮像角度θiで地形表面を空撮(画像の撮像の一例)してよい。これにより、飛行経路rtを生成するための多くの処理を無人航空機100側で行うことができ、無人航空機100は、端末80の処理の負荷を軽減しつつ、撮像部220による撮像効率の低下を抑制して、地形正面の情報を多く取得できる。また、撮像部220による撮像効率の低下を抑制して地形正面の情報を多く取得できる飛行経路rtの生成から、生成された飛行経路rtに沿った撮像まで、無人航空機100が集中的に実施できる。 Further, the UAV control unit 110 controls the flight according to the flight path rt, and aerial photographs (an example of image capture) of the terrain surface at the image pickup position i of the flight path rt at the image pickup angle θi via the image pickup unit 220. good. As a result, many processes for generating the flight path rt can be performed on the unmanned aerial vehicle 100 side, and the unmanned aerial vehicle 100 reduces the processing load of the terminal 80 while reducing the imaging efficiency by the image pickup unit 220. You can suppress it and get a lot of information on the front of the terrain. Further, the unmanned aerial vehicle 100 can intensively perform from the generation of the flight path rt capable of acquiring a large amount of information on the front surface of the terrain by suppressing the decrease in the imaging efficiency by the imaging unit 220 to the imaging along the generated flight path rt. ..

(第3の実施形態)
第1及び第2の実施形態では、飛行範囲AR全体を空撮する場合を示した。第3の実施形態では、飛行範囲ARのうち、関心領域RIを主に空撮する場合を示す。関心領域RIは、ユーザが関心のある領域やユーザが関心のある対象物が存在する位置を含む領域でよい。関心領域RIは、例えば操作部83を介して、ユーザが関心のある領域や対象を入力操作することで設定されてよい。
(Third embodiment)
In the first and second embodiments, the case where the entire flight range AR is aerial photographed is shown. The third embodiment shows a case where the area of interest RI is mainly aerial photographed in the flight range AR. The region of interest RI may be an region including an region of interest to the user or a position where an object of interest to the user exists. The region of interest RI may be set by inputting and operating the region or target of interest by the user, for example, via the operation unit 83.

第3の実施形態の飛行体システム10は、第1,第2の実施形態とほぼ同一の構成を有する。第1,第2の実施形態と同一の構成要素については同一の符号を用いることで、その説明を省略又は簡略化する。 The flying object system 10 of the third embodiment has substantially the same configuration as that of the first and second embodiments. By using the same reference numerals for the same components as those of the first and second embodiments, the description thereof will be omitted or simplified.

図12は、関心領域RIの指定の一例を示す図である。ここでは、関心領域RIが建物を含む領域である場合を示す。 FIG. 12 is a diagram showing an example of designation of the region of interest RI. Here, the case where the region of interest RI is an region including a building is shown.

端末制御部81は、例えば取得された飛行範囲ARを、表示部88に表示する。表示部88及び操作部83は、例えばタッチパネルで構成されてよい。ユーザが、表示部88に表示された、飛行範囲AR内の建物501,502を指でタッチ操作すると、端末制御部81は、操作部83を介して、建物501,502の位置を受け付ける。端末制御部81は、2つの建物501,502の位置を含む領域を関心領域RIとして設定する。 The terminal control unit 81 displays, for example, the acquired flight range AR on the display unit 88. The display unit 88 and the operation unit 83 may be composed of, for example, a touch panel. When the user touch-operates the buildings 501 and 502 in the flight range AR displayed on the display unit 88 with a finger, the terminal control unit 81 receives the positions of the buildings 501 and 502 via the operation unit 83. The terminal control unit 81 sets the area including the positions of the two buildings 501 and 502 as the area of interest RI.

また、端末制御部81は、関心領域RIに、複数の初期撮像点gpを設定する。初期撮像点gpとは、初期設定として設定される撮像位置wpである。端末制御部81は、初期撮像点gpの情報を、例えば、メモリ87又はストレージ89から取得してもよいし、操作部83を介してユーザ操作により取得してもよいし、通信部85を介して外部サーバから取得してもよい。図12では、二次元平面において格子状に初期撮像点gpが配置されている。また、隣り合う初期撮像点gpは、等間隔で配置されている。なお、初期撮像点gpは、格子状以外の形状で配置されてもよいし、隣り合う初期撮像点gp同士が等間隔で配置されなくてよい。 Further, the terminal control unit 81 sets a plurality of initial imaging points gp in the region of interest RI. The initial image pickup point gp is an image pickup position wp set as an initial setting. The terminal control unit 81 may acquire the information of the initial imaging point gp from, for example, the memory 87 or the storage 89, may be acquired by user operation via the operation unit 83, or may be acquired by user operation via the communication unit 85. It may be obtained from an external server. In FIG. 12, the initial imaging points gp are arranged in a grid pattern on a two-dimensional plane. Further, the adjacent initial imaging points gp are arranged at equal intervals. The initial imaging points gp may be arranged in a shape other than a grid pattern, or adjacent initial imaging points gp may not be arranged at equal intervals.

図13は、無人航空機100が関心領域RIを撮像するための飛行経路rtの再生成手順を説明する図である。この場合、第1の実施形態と同様、端末制御部81は、複数の初期撮像点gpについての候補角度jでの撮像コストCijを導出する。端末制御部81は、複数の初期撮像点gpのうち、候補角度jでの撮像コストCijが閾値th3以下である撮像コストCijが低い撮像点gplを、撮像位置wpから削除する。つまり、端末制御部81は、撮像コストCijが閾値th3以下である撮像位置(撮像点)では、画像を撮像しない。そして、端末制御部81は、複数の初期撮像点gpのうち、候補角度jでの撮像コストCijが閾値th3を超える撮像コストCijが高い撮像点gphを、撮像位置wpとして残す。 FIG. 13 is a diagram illustrating a procedure for regenerating the flight path rt for the unmanned aerial vehicle 100 to image the region of interest RI. In this case, as in the first embodiment, the terminal control unit 81 derives the imaging cost Cij at the candidate angles j for the plurality of initial imaging points gp. Of the plurality of initial imaging points gp, the terminal control unit 81 deletes the imaging point gpl having the imaging cost Cij having the imaging cost Cij at the candidate angle j of the threshold value th3 or less and having a low imaging cost Cij from the imaging position wp. That is, the terminal control unit 81 does not capture an image at the imaging position (imaging point) where the imaging cost Cij is equal to or less than the threshold value th3. Then, the terminal control unit 81 leaves the imaging point gp having a high imaging cost Cij whose imaging cost Cij at the candidate angle j exceeds the threshold value th3 among the plurality of initial imaging points gp as the imaging position wp.

端末制御部81は、撮像角度θiの撮像コストCijの高い複数の撮像点gphに対し、関心領域RI毎に(ここでは関心対象である建物毎に)、クラスタリング(分類)を行ってよい。クラスタリングには、K-means(k-平均法)やDBSCAN(Density-based spatial clustering of applications with noise)等の周知の方法が用いられてよい。 The terminal control unit 81 may perform clustering (classification) for each region of interest RI (here, for each building of interest) for a plurality of imaging points gp having a high imaging cost Cij at the imaging angle θi. For clustering, well-known methods such as K-means (k-means method) and DBSCAN (Density-based spatial clustering of applications with noise) may be used.

図13では、端末制御部81は、クラスタリングによって、撮像コストCijが閾値th3以上となる4つの撮像点gphを含む撮像位置グループsg1,sg2を算出する。端末制御部81は、撮像位置グループsg1,sg2に含まれる各撮像点gphを撮像位置wpとして繋ぎ、飛行経路rtnを再生成する。 In FIG. 13, the terminal control unit 81 calculates the imaging position groups sg1 and sg2 including the four imaging point gps whose imaging cost Cij is the threshold value th3 or more by clustering. The terminal control unit 81 connects each image pickup point gp included in the image pickup position groups sg1 and sg2 as the image pickup position wp, and regenerates the flight path rtn.

このように、端末制御部81は、撮像角度θiでの撮像コストCijの高い複数の撮像点gph(撮像位置)を、撮像点gphから撮像する関心領域RI毎に分類して、複数の撮像位置グループsg1,sg2を生成してよい。端末制御部81は、複数の撮像位置グループsg1,sg2を繋いで(接続して)、飛行経路rtnを再生成(飛行経路の生成の一例)してよい。 In this way, the terminal control unit 81 classifies a plurality of imaging points gp (imaging positions) having a high imaging cost Cij at the imaging angle θi into each of the region of interest RI to be imaged from the imaging point gp, and a plurality of imaging positions. Groups sg1 and sg2 may be generated. The terminal control unit 81 may connect (connect) a plurality of image pickup position groups sg1 and sg2 to regenerate the flight path rtn (an example of flight path generation).

これにより、無人航空機100は、撮像位置グループsg1,sg2に含まれる複数の撮像点gph(撮像位置)毎にまとめて撮像できる。よって、各関心領域RIを撮像するための無人航空機100の飛行距離が短くなるので、無人航空機100は、撮像効率を向上できる。 As a result, the unmanned aerial vehicle 100 can collectively image each of a plurality of imaging points gp (imaging position) included in the imaging position groups sg1 and sg2. Therefore, since the flight distance of the unmanned aerial vehicle 100 for imaging each region of interest RI is shortened, the unmanned aerial vehicle 100 can improve the imaging efficiency.

次に、飛行体システム10の動作例について説明する。 Next, an operation example of the flying object system 10 will be described.

図14は、第3の実施形態の飛行体システム10における飛行経路生成手順の一例を示すシーケンス図である。図14では、この飛行経路生成の処理は、主に端末80によって行われることを例示する。 FIG. 14 is a sequence diagram showing an example of a flight path generation procedure in the flight body system 10 of the third embodiment. FIG. 14 illustrates that this flight path generation process is mainly performed by the terminal 80.

手順T41~T43は、第1の実施形態における手順T1~T3と同じである。 Procedures T41 to T43 are the same as procedures T1 to T3 in the first embodiment.

端末制御部81は、関心領域RIの情報を取得する。端末制御部81は、操作部83を介してユーザ入力を受け、関心領域RIを取得してよい(T44)。例えば、ユーザが、操作部83を介して、地名を入力することで関心領域RIを直接指定し、又は、地図情報における一部の領域を囲むことで関心領域RIを指定してよい。この場合、端末制御部81は、通信部85を介して地図情報を取得しておいてよい。また、端末制御部81は、操作部83を介してユーザ入力を受け、撮像対象の種類の情報を取得してよい。端末制御部81は、撮像対象の種類に基づいて、画像処理技術を用いて、飛行範囲ARに含まれる撮像対象の種類に該当する関心領域RI(例えば建物を含む領域)を検出してもよい。 The terminal control unit 81 acquires the information of the region of interest RI. The terminal control unit 81 may receive user input via the operation unit 83 and acquire the region of interest RI (T44). For example, the user may directly specify the area of interest RI by inputting a place name via the operation unit 83, or may specify the area of interest RI by surrounding a part of the area in the map information. In this case, the terminal control unit 81 may acquire the map information via the communication unit 85. Further, the terminal control unit 81 may receive user input via the operation unit 83 and acquire information on the type of image pickup target. The terminal control unit 81 may detect the region of interest RI (for example, the region including a building) corresponding to the type of the imaging target included in the flight range AR by using the image processing technique based on the type of the imaging target. ..

手順T45,T46は、前記第1の実施形態における手順T4,T5と同じである。端末制御部81は、関心領域RIの地形情報及び飛行高度を基に、飛行経路rtに沿って初期撮像点gp(撮像位置)毎に、関心領域RIを撮像するための撮像角度θiを導出(例えば算出)する(T47)。 Procedures T45 and T46 are the same as procedures T4 and T5 in the first embodiment. The terminal control unit 81 derives an imaging angle θi for imaging the region of interest RI at each initial imaging point gp (imaging position) along the flight path rt based on the topographical information of the region of interest RI and the flight altitude ( For example, calculate) (T47).

端末制御部81は、関心領域RIを撮像するための撮像角度θiの導出において、式(4),(5),(6)に従って、候補角度jでの撮像コストCijを算出してよい。候補角度jでの撮像コストCijは、候補角度j毎に算出される。 The terminal control unit 81 may calculate the imaging cost Cij at the candidate angle j according to the equations (4), (5), and (6) in deriving the imaging angle θi for imaging the region of interest RI. The imaging cost Cij at the candidate angle j is calculated for each candidate angle j.

Figure 0007017998000004
Figure 0007017998000004
Figure 0007017998000005
Figure 0007017998000005
Figure 0007017998000006
Figure 0007017998000006

ここで、式(5)における(Pk In ROI)は、撮像コストCijkの算出対象となるサンプリング位置kを、関心領域RI内に含まれる位置に限定することを意味する。つまり、端末制御部81は、初期撮像点gp(撮像位置)から関心領域RI内のサンプリング位置kを候補角度jで撮像する場合の撮像コストCijkを、式(5)に従って算出してよい。その他の点については、式(4),(5),(6)は、式(1),(2),(3)と同様でよい。 Here, (Pk In ROI) in the equation (5) means that the sampling position k for which the imaging cost Cijk is calculated is limited to the position included in the region of interest RI. That is, the terminal control unit 81 may calculate the imaging cost Cijk when imaging the sampling position k in the region of interest RI at the candidate angle j from the initial imaging point gp (imaging position) according to the equation (5). In other respects, equations (4), (5), and (6) may be the same as equations (1), (2), and (3).

端末制御部81は、例えば式(4),(5),(6)に従って算出された撮像コストCijに基づいて、関心領域を撮像するための撮像角度θiを算出する。この撮像角度θiは、関心領域を撮像するための撮像角度θimでよい。 The terminal control unit 81 calculates the imaging angle θi for imaging the region of interest based on, for example, the imaging cost Cij calculated according to the equations (4), (5), and (6). The imaging angle θi may be an imaging angle θim for imaging the region of interest.

端末制御部81は、複数の初期撮像点gpにおける撮像角度θiでの撮像コストCijが、閾値th3以下である場合、該当する(撮像コストCijの低い)撮像点gplを削除する(T48)。一方、端末制御部81は、複数の初期撮像点gpにおける撮像角度θiでの撮像コストCijが閾値th3を超える場合、該当する(撮像コストCijの高い)撮像点gphを削除せず、撮像位置wpとして維持する。 When the imaging cost Cij at the imaging angle θi at the plurality of initial imaging points gp is equal to or less than the threshold value th3, the terminal control unit 81 deletes the corresponding imaging point gpl (low imaging cost Cij) (T48). On the other hand, when the imaging cost Cij at the imaging angle θi at the plurality of initial imaging points gp exceeds the threshold value th3, the terminal control unit 81 does not delete the corresponding imaging point gp (high imaging cost Cij), and the imaging position wp. Maintain as.

端末制御部81は、撮像コストCijの高い複数の撮像点gphに対し、クラスタリング(撮像点のグループ化)を行い、撮像位置グループsg1,sg2を算出する(T49)。端末制御部81は、撮像位置グループsg1,sg2に含まれる各撮像点gphを撮像位置として繋ぐように、つまり、撮像角度の撮像コストCijが閾値th3以下である撮像位置wpを除外して、飛行経路rtnを再生成する(T50)。 The terminal control unit 81 performs clustering (grouping of imaging points) for a plurality of imaging points gp having a high imaging cost Cij, and calculates imaging position groups sg1 and sg2 (T49). The terminal control unit 81 flies so as to connect each imaging point gp included in the imaging position groups sg1 and sg2 as an imaging position, that is, excluding the imaging position wp in which the imaging cost Cij of the imaging angle is the threshold value th3 or less. Regenerate the path rtn (T50).

なお、撮像位置グループの生成は必須ではなく、撮像位置グループsg1に含まれる全撮像位置wpを通った後に、撮像位置グループsg2に含まれる全撮像位置wpを通ることは必須ではない。例えば、撮像位置グループsg1に含まれる撮像位置、撮像位置グループsg2に含まれる撮像位置、撮像位置グループsg1に含まれる撮像位置、の順に飛行するように、異なる関心領域RIを撮像するための撮像位置wpが順不同となって各飛行経路rtnが再生成されてもよい。 It should be noted that the generation of the imaging position group is not essential, and it is not essential to pass through all the imaging positions wp included in the imaging position group sg2 after passing through all the imaging positions wp included in the imaging position group sg1. For example, an imaging position for imaging different regions of interest RI so as to fly in the order of an imaging position included in the imaging position group sg1, an imaging position included in the imaging position group sg2, and an imaging position included in the imaging position group sg1. Each flight path rtn may be regenerated in random order of wp.

端末制御部81は、通信部85を介して、撮像位置wp(撮像コストCijの高い複数の撮像点gphに相当)、再生成された飛行経路rtn、及び撮像角度θiを含む通知パラメータを、無人航空機100に送信する(T51)。 The terminal control unit 81 unmanned the notification parameters including the image pickup position wp (corresponding to a plurality of image pickup points gp having a high image pickup cost Cij), the regenerated flight path rtn, and the image pickup angle θi via the communication unit 85. It is transmitted to the aircraft 100 (T51).

無人航空機100では、UAV制御部110は、通信インタフェース50を介して、通知パラメータを受信する(T52)。UAV制御部110は、受信した通知パラメータをメモリ160に保持することで、無人航空機100が用いる各パラメータを設定する(T53)。UAV制御部110は、設定されたパラメータを基に、飛行経路rtnに沿って飛行しながら撮像部220を駆動し、撮像角度θiで関心領域RIの空撮を行う(T54)。 In the unmanned aerial vehicle 100, the UAV control unit 110 receives the notification parameter via the communication interface 50 (T52). The UAV control unit 110 sets each parameter used by the unmanned aerial vehicle 100 by holding the received notification parameter in the memory 160 (T53). The UAV control unit 110 drives the image pickup unit 220 while flying along the flight path rtn based on the set parameters, and performs aerial photography of the region of interest RI at the image pickup angle θi (T54).

このように、端末制御部81は、飛行範囲ARに含まれる、例えば2つの建物501,502の位置を含む関心領域RIを取得してよい。端末制御部81は、関心領域RIの地形情報と飛行経路rtとに基づいて、撮像位置毎に撮像角度θiを導出してよい。 In this way, the terminal control unit 81 may acquire the region of interest RI including the positions of, for example, two buildings 501 and 502 included in the flight range AR. The terminal control unit 81 may derive an imaging angle θi for each imaging position based on the topographical information of the region of interest RI and the flight path rt.

これにより、端末80は、無人航空機100が関心領域RIを空撮する際、撮像効率の低下を抑制させて、起伏のある地形の各点の情報をなるべく多く取得させることができる。また、端末80は、関心領域RIのオルソ画像の生成精度や3次元復元精度を向上できる撮像角度θiを導出できる。 As a result, when the unmanned aerial vehicle 100 aerial photographs of the region of interest RI, the terminal 80 can suppress a decrease in imaging efficiency and acquire as much information as possible at each point of the undulating terrain. Further, the terminal 80 can derive an imaging angle θi that can improve the generation accuracy and the three-dimensional restoration accuracy of the ortho image of the region of interest RI.

また、端末制御部81は、飛行範囲ARの地形を撮像するための撮像角度θiの候補である候補角度jを取得してよい。端末制御部81は、撮像位置iにおいて候補角度jで関心領域RIを撮像する場合の撮像コストCij(第3の撮像コストの一例)を、候補角度j毎に算出してよい。端末制御部81は、撮像位置iにおける撮像コストCijに基づいて、撮像位置iにおける撮像角度θiに決定してよい。この場合、端末制御部81は、撮像位置iにおける撮像コストCijが閾値th2(第2の閾値の一例)以上となる候補角度jを、撮像位置iにおける撮像角度θiに決定してよい。 Further, the terminal control unit 81 may acquire a candidate angle j which is a candidate for an imaging angle θi for imaging the terrain of the flight range AR. The terminal control unit 81 may calculate the imaging cost Cij (an example of the third imaging cost) when the region of interest RI is imaged at the candidate angle j at the imaging position i for each candidate angle j. The terminal control unit 81 may determine the imaging angle θi at the imaging position i based on the imaging cost Cij at the imaging position i. In this case, the terminal control unit 81 may determine the candidate angle j at which the imaging cost Cj at the imaging position i is equal to or higher than the threshold value th2 (an example of the second threshold value) as the imaging angle θi at the imaging position i.

これにより、端末80は、関心領域RIの撮像に適しているか否かを撮像コストとして数値化でき、どの程度撮像に適しているかを容易に判断できる。ここでは、閾値th2以上となる撮像位置iの撮像コストCijのうち、n番目に大きい(例えば最大の)撮像コストCijの候補角度が最適撮像角度θimに決定されてよい。 As a result, the terminal 80 can quantify whether or not it is suitable for imaging the region of interest RI as an imaging cost, and can easily determine to what extent it is suitable for imaging. Here, the candidate angle of the nth largest (for example, the maximum) imaging cost Cij among the imaging cost Cij of the imaging position i having the threshold value th2 or more may be determined as the optimum imaging angle θim.

また、端末制御部81は、複数の撮像位置iのうち、撮像位置において撮像角度θiで撮像された場合の撮像コストCijが閾値th3以下となる撮像点gpl(第1の撮像位置の一例)を、複数の撮像位置wpから除外して、飛行経路rtnを再生成してよい。つまり、端末制御部81は、生成済みの飛行経路rtnから撮像点gplを除いて、飛行経路rtnを再生成してよい。 Further, the terminal control unit 81 sets an imaging point gpl (an example of the first imaging position) in which the imaging cost Cij is equal to or less than the threshold th3 when the imaging is performed at the imaging position θi among the plurality of imaging positions i. , The flight path rtn may be regenerated by excluding it from a plurality of imaging positions wp. That is, the terminal control unit 81 may regenerate the flight path rtn by removing the imaging point gpl from the generated flight path rtn.

これにより、撮像角度θiでの撮像コストCijへの影響の少ない撮像位置が飛行経路rtnの生成(再生成)に含まれないので、端末80は、関心領域RIのオルソ画像の生成精度や3次元復元精度の低下を抑制して、無人航空機100により関心領域RIを撮像する際の撮像効率を高くできる。 As a result, since the imaging position having little influence on the imaging cost Cij at the imaging angle θi is not included in the generation (regeneration) of the flight path rtn, the terminal 80 can generate the ortho image of the region of interest RI and three-dimensionally. It is possible to suppress a decrease in restoration accuracy and increase the imaging efficiency when imaging the region of interest RI by the unmanned aerial vehicle 100.

(第4の実施形態)
第4の実施形態では、関心領域を加味した飛行経路生成の処理が、主に無人航空機100によって行われることを例示する。第4の実施形態の飛行体システムは、第1~第3の実施形態とほぼ同一の構成を有する。第1~第3の実施形態と同一の構成要素については、同一の符号を用いることで、その説明を省略又は簡略化する。
(Fourth Embodiment)
In the fourth embodiment, it is illustrated that the process of generating the flight path in consideration of the region of interest is mainly performed by the unmanned aerial vehicle 100. The flying object system of the fourth embodiment has substantially the same configuration as that of the first to third embodiments. For the same components as those of the first to third embodiments, the same reference numerals are used to omit or simplify the description.

図15は、第4の実施形態の飛行体システム10における飛行経路生成手順の一例を示すシーケンス図である。図15では、この飛行経路生成の処理は、主に無人航空機100によって行われることを例示する。 FIG. 15 is a sequence diagram showing an example of a flight path generation procedure in the flight body system 10 of the fourth embodiment. In FIG. 15, it is illustrated that this flight path generation process is mainly performed by the unmanned aerial vehicle 100.

手順T61~T64の処理は、第3の実施形態の手順T41~T44と同じである。端末制御部81は、通信部85を介して、手順T61~T64で取得した飛行範囲AR、パラメータ、地形情報及び関心領域RIを含む通知パラメータを無人航空機100に送信する(T65)。 The processing of procedures T61 to T64 is the same as that of procedures T41 to T44 of the third embodiment. The terminal control unit 81 transmits the notification parameters including the flight range AR, parameters, terrain information, and region of interest RI acquired in the procedures T61 to T64 to the unmanned aerial vehicle 100 via the communication unit 85 (T65).

無人航空機100では、UAV制御部110は、通信インタフェース150を介して、通知パラメータを受信する(T66)。UAV制御部110は、飛行高度を算出する(T67)。飛行高度の算出方法は、手順T4,手順T45と同様でよい。UAV制御部110は、飛行経路を生成する(T68)。飛行経路rtの生成方法は、手順T5,T46と同様でよい。 In the unmanned aerial vehicle 100, the UAV control unit 110 receives the notification parameter via the communication interface 150 (T66). The UAV control unit 110 calculates the flight altitude (T67). The method for calculating the flight altitude may be the same as in procedure T4 and procedure T45. The UAV control unit 110 generates a flight path (T68). The method of generating the flight path rt may be the same as in steps T5 and T46.

UAV制御部110は、関心領域RIを撮像するための撮像角度θiを導出する(T69)。撮像角度θiの導出方法は、手順T47と同様でよい。UAV制御部110は、不要な撮像点gplを削除する(T70)。不要な撮像点gplの削除方法は、手順T48と同様でよい。UAV制御部110は、クラスタリングを行い、撮像位置グループsg1,sg2を算出する(T71)。クラスタリングの方法及び撮像位置グループsg1,sg2の算出方法は、手順T49と同様でよい。UAV制御部110は、飛行経路rtnを再生成する(T72)。飛行経路rtnを再生成方法は、手順T50と同様でよい。 The UAV control unit 110 derives an imaging angle θi for imaging the region of interest RI (T69). The method for deriving the imaging angle θi may be the same as in the procedure T47. The UAV control unit 110 deletes unnecessary imaging point gpl (T70). The method of deleting the unnecessary imaging point gpl may be the same as in the procedure T48. The UAV control unit 110 performs clustering and calculates the imaging position groups sg1 and sg2 (T71). The clustering method and the calculation method of the imaging position groups sg1 and sg2 may be the same as in the procedure T49. The UAV control unit 110 regenerates the flight path rtn (T72). The method for regenerating the flight path rtn may be the same as in the procedure T50.

UAV制御部110は、撮像位置wp(撮像コストCijの高い撮像点gphに相当)、再生成された飛行経路rtn、撮像角度θiを含むパラメータを、メモリ160に保持することで、無人航空機100が用いる各パラメータを設定する(T73)。UAV制御部110は、設定されたパラメータを基に、飛行経路rtnに沿って飛行しながら撮像部220を駆動し、撮像角度θiで関心領域RIの空撮を行う(T74)。 The UAV control unit 110 holds parameters including the imaging position wp (corresponding to the imaging point gp having a high imaging cost Cij), the regenerated flight path rtn, and the imaging angle θi in the memory 160, so that the unmanned aerial vehicle 100 can use the unmanned aerial vehicle 100. Each parameter to be used is set (T73). The UAV control unit 110 drives the image pickup unit 220 while flying along the flight path rtn based on the set parameters, and performs aerial photography of the region of interest RI at the image pickup angle θi (T74).

これにより、無人航空機100は、関心領域RIを加味した飛行経路rtnを生成するための多くの処理を無人航空機100側で実施でき、端末80の処理の負荷を軽減できる。 As a result, the unmanned aerial vehicle 100 can perform many processes for generating the flight path rtn in consideration of the region of interest RI on the unmanned aerial vehicle 100 side, and can reduce the processing load of the terminal 80.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described above using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above-described embodiments. It will be apparent to those skilled in the art to make various changes or improvements to the embodiments described above. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, the specification, and the drawing is particularly "before" and "prior to". , Etc., and can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. is not it.

10 飛行体システム
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100,100R 無人航空機(UAV)
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
501,502 建物
AR 飛行範囲
gp 初期撮像点
gph,gpl 撮像点
hm 地表面
k サンプリング位置
ms 地形
ms1 斜面
ms2 裏面
rt 飛行経路
sg1,sg2 撮像位置グループ
wp 撮像位置
10 Aircraft system 80 Terminal 81 Terminal control unit 83 Operation unit 85 Communication unit 87 Memory 88 Display unit 89 Storage 100, 100R Unmanned aerial vehicle (UAV)
110 UAV control unit 150 Communication interface 160 Memory 170 Storage 200 Gimbal 210 Rotating wing mechanism 220, 230 Imaging unit 240 GPS receiver 250 Inertial measurement unit 260 Magnetic compass 270 Atmospheric altimeter 280 Ultrasonic sensor 290 Laser measuring instrument 501,502 Building AR flight Range gp Initial imaging point gp, gpl Imaging point hm Ground surface k Sampling position ms Topography ms1 Slope ms2 Back surface rt Flight path sg1, sg2 Imaging position group wp Imaging position

Claims (24)

飛行体が飛行するための飛行経路を生成する情報処理装置であって、
処理部を備え、
前記処理部は、
前記飛行体が飛行する飛行範囲の地形情報を取得し、
前記飛行範囲の地形情報に基づいて、前記飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成し、
前記飛行範囲の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に撮像角度を導出し、
前記処理部は、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得し、
前記撮像位置において前記候補角度で撮像した場合の撮像コストである第1の撮像コストを、前記候補角度毎に算出し、
前記撮像位置における前記第1の撮像コストが第1の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定する、
情報処理装置。
An information processing device that generates a flight path for an aircraft to fly.
Equipped with a processing unit
The processing unit
Obtain the terrain information of the flight range in which the flying object flies,
Based on the terrain information of the flight range, a flight path including the imaging position in the three-dimensional space for imaging the terrain of the flight range is generated.
Based on the topographical information of the flight range and the flight path, an imaging angle is derived for each imaging position of the flight path.
The processing unit
Obtaining a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range,
The first imaging cost, which is the imaging cost when imaging at the candidate angle at the imaging position, is calculated for each candidate angle.
A candidate angle at which the first imaging cost at the imaging position is equal to or greater than the first threshold value is determined by the imaging angle at the imaging position.
Information processing equipment.
前記処理部は、
前記飛行範囲の地形をサンプリングして、前記飛行体により撮像される複数のサンプリング位置を取得し、
前記撮像位置において前記候補角度で前記サンプリング位置を撮像した場合の撮像コストである第2の撮像コストを、前記サンプリング位置毎に算出し、
各サンプリング位置における前記第2の撮像コストを合計して、前記第1の撮像コストを算出する、
請求項に記載の情報処理装置。
The processing unit
The terrain of the flight range is sampled to obtain a plurality of sampling positions imaged by the flying object.
A second imaging cost, which is an imaging cost when the sampling position is imaged at the candidate angle at the imaging position, is calculated for each sampling position.
The first imaging cost is calculated by summing up the second imaging costs at each sampling position.
The information processing apparatus according to claim 1 .
前記撮像位置と前記サンプリング位置との距離が短い程、前記第2の撮像コストが大きい、
請求項に記載の情報処理装置。
The shorter the distance between the imaging position and the sampling position, the higher the second imaging cost.
The information processing apparatus according to claim 2 .
前記サンプリング位置における地表面に対する法線ベクトルと前記候補角度が示す撮像方向に沿うベクトルである撮像ベクトルとの内積値が大きい程、前記第2の撮像コストが大きい、
請求項に記載の情報処理装置。
The larger the internal product value of the normal vector with respect to the ground surface at the sampling position and the imaging vector which is a vector along the imaging direction indicated by the candidate angle, the larger the second imaging cost.
The information processing apparatus according to claim 2 .
前記処理部は、前記内積値が負の値となる前記第2の撮像コストを、前記第1の撮像コストの算出対象から除外する、
請求項に記載の情報処理装置。
The processing unit excludes the second imaging cost whose inner product value is a negative value from the calculation target of the first imaging cost.
The information processing apparatus according to claim 4 .
前記処理部は、
前記飛行範囲に含まれ、撮像対象の位置を含む関心領域を取得し、
前記関心領域の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に撮像角度を導出する、
請求項1~のいずれか1項に記載の情報処理装置。
The processing unit
Acquire the region of interest included in the flight range and including the position of the image target,
Based on the topographical information of the region of interest and the flight path, an imaging angle is derived for each imaging position of the flight path.
The information processing apparatus according to any one of claims 1 to 5 .
前記処理部は、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得し、
前記撮像位置において前記候補角度で前記関心領域を撮像した場合の撮像コストである第3の撮像コストを、前記候補角度毎に算出し、
前記撮像位置における前記第3の撮像コストが第2の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定する、
請求項に記載の情報処理装置。
The processing unit
Obtaining a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range,
A third imaging cost, which is an imaging cost when the region of interest is imaged at the candidate angle at the imaging position, is calculated for each candidate angle.
A candidate angle at which the third imaging cost at the imaging position is equal to or greater than the second threshold value is determined by the imaging angle at the imaging position.
The information processing apparatus according to claim 6 .
前記処理部は、複数の前記撮像位置のうち第1の撮像位置において前記撮像角度で撮像された場合の前記第3の撮像コストが第3の閾値以下である場合、複数の撮像位置から前記第1の撮像位置を除外して前記飛行経路を生成する、
請求項に記載の情報処理装置。
When the third imaging cost when the third imaging cost is captured at the imaging angle at the first imaging position among the plurality of imaging positions, the processing unit can use the plurality of imaging positions from the plurality of imaging positions. The flight path is generated by excluding the imaging position of 1.
The information processing apparatus according to claim 7 .
前記処理部は、
複数の前記撮像位置を、前記撮像位置から撮像する撮像対象毎に分類して複数の撮像位置グループを生成し、
前記複数の撮像位置グループを接続して前記飛行経路を生成する、
請求項のいずれか1項に記載の情報処理装置。
The processing unit
A plurality of the imaging positions are classified for each imaging target to be imaged from the imaging position to generate a plurality of imaging position groups.
The plurality of imaging position groups are connected to generate the flight path.
The information processing apparatus according to any one of claims 6 to 8 .
前記情報処理装置は、通信部を備える端末であり、
前記処理部は、前記通信部を介して、前記撮像位置と前記飛行経路と前記撮像角度との情報を前記飛行体へ送信する、
請求項1~のいずれか1項に記載の情報処理装置。
The information processing device is a terminal provided with a communication unit, and is a terminal.
The processing unit transmits information on the imaging position, the flight path, and the imaging angle to the flying object via the communication unit.
The information processing apparatus according to any one of claims 1 to 9 .
前記情報処理装置は、撮像部を備える飛行体であり、
前記処理部は、
前記飛行経路に従って飛行を制御し、
前記撮像部を介して、前記飛行経路の前記撮像位置において前記撮像角度で画像を撮像する、
請求項1~のいずれか1項に記載の情報処理装置。
The information processing device is a flying object including an image pickup unit.
The processing unit
Control the flight according to the flight path,
An image is imaged at the image pickup angle at the image pickup position of the flight path via the image pickup unit.
The information processing apparatus according to any one of claims 1 to 9 .
飛行体が飛行するための飛行経路を生成する情報処理装置における飛行経路生成方法であって、
前記飛行体が飛行する飛行範囲の地形情報を取得するステップと、
前記飛行範囲の地形情報に基づいて、前記飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、
前記飛行範囲の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に、前記飛行範囲の地形を撮像するための撮像角度を導出するステップと、
を含み、
前記撮像角度を導出するステップは、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得するステップと、
前記撮像位置において前記候補角度で撮像した場合の撮像コストである第1の撮像コストを、前記候補角度毎に算出するステップと、
前記撮像位置における前記第1の撮像コストが第1の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定するステップと、を含む、
飛行経路生成方法。
It is a flight path generation method in an information processing device that generates a flight path for an air vehicle to fly.
The step of acquiring the terrain information of the flight range in which the flying object flies, and
Based on the terrain information of the flight range, a step of generating a flight path including an imaging position in a three-dimensional space for imaging the terrain of the flight range, and
A step of deriving an imaging angle for imaging the terrain of the flight range for each imaging position of the flight path based on the terrain information of the flight range and the flight path.
Including
The step of deriving the imaging angle is
A step of acquiring a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range, and
A step of calculating a first imaging cost, which is an imaging cost when imaging at the candidate angle at the imaging position, for each candidate angle, and
The step includes a step of determining a candidate angle at which the first imaging cost at the imaging position is equal to or higher than the first threshold value to the imaging angle at the imaging position.
Flight route generation method.
前記第1の撮像コストを算出するステップは、
前記飛行範囲の地形をサンプリングして、前記飛行体により撮像される複数のサンプリング位置を取得するステップと、
前記撮像位置において前記候補角度で前記サンプリング位置を撮像した場合の撮像コストである第2の撮像コストを、前記サンプリング位置毎に算出するステップと、
各サンプリング位置における前記第2の撮像コストを合計して、前記第1の撮像コストを算出するステップと、を含む、
請求項12に記載の飛行経路生成方法。
The step of calculating the first imaging cost is
A step of sampling the terrain of the flight range and acquiring a plurality of sampling positions imaged by the flying object.
A step of calculating a second imaging cost, which is an imaging cost when the sampling position is imaged at the candidate angle at the imaging position, for each sampling position.
Includes a step of summing up the second imaging costs at each sampling position to calculate the first imaging costs.
The flight path generation method according to claim 12 .
前記撮像位置と前記サンプリング位置との距離が短い程、前記第2の撮像コストが大きい、
請求項13に記載の飛行経路生成方法。
The shorter the distance between the imaging position and the sampling position, the higher the second imaging cost.
The flight path generation method according to claim 13 .
前記サンプリング位置における地表面に対する法線ベクトルと前記候補角度が示す撮像方向に沿うベクトルである撮像ベクトルとの内積値が大きい程、前記第2の撮像コストが大きい、
請求項14に記載の飛行経路生成方法。
The larger the internal product value of the normal vector with respect to the ground surface at the sampling position and the imaging vector which is a vector along the imaging direction indicated by the candidate angle, the larger the second imaging cost.
The flight path generation method according to claim 14 .
前記第1の撮像コストを算出するステップは、前記内積値が負の値となる前記第2の撮像コストを、前記第1の撮像コストの算出対象から除外するステップ、を含む、
請求項15に記載の飛行経路生成方法。
The step of calculating the first imaging cost includes a step of excluding the second imaging cost whose inner product value is a negative value from the calculation target of the first imaging cost.
The flight path generation method according to claim 15 .
前記撮像角度を導出するステップは、
前記飛行範囲に含まれ、撮像対象の位置を含む関心領域を取得するステップと、
前記関心領域の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に前記撮像角度を導出する、
請求項1216のいずれか1項に記載の飛行経路生成方法。
The step of deriving the imaging angle is
The step of acquiring the region of interest included in the flight range and including the position of the image target,
Based on the topographical information of the region of interest and the flight path, the imaging angle is derived for each imaging position of the flight path.
The flight path generation method according to any one of claims 12 to 16 .
前記撮像角度を導出するステップは、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得するステップと、
前記撮像位置において前記候補角度で前記関心領域を撮像した場合の撮像コストである第3の撮像コストを、前記候補角度毎に算出するステップと、
前記撮像位置における前記第3の撮像コストが第2の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定するステップと、を含む、
請求項17に記載の飛行経路生成方法。
The step of deriving the imaging angle is
A step of acquiring a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range, and
A step of calculating a third imaging cost, which is an imaging cost when the region of interest is imaged at the candidate angle at the imaging position, for each candidate angle.
The step includes a step of determining a candidate angle at which the third imaging cost at the imaging position is equal to or greater than the second threshold value to the imaging angle at the imaging position.
The flight path generation method according to claim 17 .
前記飛行経路を生成するステップは、複数の前記撮像位置のうち第1の撮像位置において前記撮像角度で撮像された場合の前記第3の撮像コストが第3の閾値以下である場合、複数の撮像位置から前記第1の撮像位置を除外して前記飛行経路を生成するステップ、を含む、
請求項18に記載の飛行経路生成方法。
The step of generating the flight path is a plurality of imaging when the third imaging cost when imaging at the imaging angle at the first imaging position among the plurality of imaging positions is equal to or less than the third threshold value. A step of excluding the first imaging position from the position to generate the flight path, comprising.
The flight path generation method according to claim 18 .
前記飛行経路を生成するステップは、
複数の前記撮像位置を、前記撮像位置から撮像する撮像対象毎に分類して複数の撮像位置グループを生成するステップと、
前記複数の撮像位置グループを接続して前記飛行経路を生成するステップと、を含む、
請求項1719のいずれか1項に記載の飛行経路生成方法。
The step of generating the flight path is
A step of classifying a plurality of the imaging positions for each imaging target to be imaged from the imaging position to generate a plurality of imaging position groups, and a step of generating a plurality of imaging position groups.
A step of connecting the plurality of imaging position groups to generate the flight path, and the like.
The flight path generation method according to any one of claims 17 to 19 .
前記情報処理装置は、端末であり、
前記撮像位置と前記飛行経路と前記撮像角度との情報を前記飛行体へ送信するステップ、を更に含む、
請求項1220のいずれか1項に記載の飛行経路生成方法。
The information processing device is a terminal.
Further including a step of transmitting information of the imaging position, the flight path, and the imaging angle to the flying object.
The flight path generation method according to any one of claims 12 to 20 .
前記情報処理装置は、飛行体であり、
前記飛行経路に従って飛行を制御するステップと、
前記飛行経路の前記撮像位置において前記撮像角度で画像を撮像するステップと、を更に含む、
請求項1220のいずれか1項に記載の飛行経路生成方法。
The information processing device is a flying object and is
Steps to control flight according to the flight path,
A step of capturing an image at the imaging angle at the imaging position of the flight path further comprises.
The flight path generation method according to any one of claims 12 to 20 .
飛行体が飛行するための飛行経路を生成する情報処理装置に、
前記飛行体が飛行する飛行範囲の地形情報を取得するステップと、
前記飛行範囲の地形情報に基づいて、前記飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、
前記飛行範囲の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に、前記飛行範囲の地形を撮像するための撮像角度を導出するステップと、
を実行させるためのプログラムであって、
前記撮像角度を導出するステップは、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得するステップと、
前記撮像位置において前記候補角度で撮像した場合の撮像コストである第1の撮像コストを、前記候補角度毎に算出するステップと、
前記撮像位置における前記第1の撮像コストが第1の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定するステップと、を含む、
プログラム
For information processing devices that generate flight paths for flying objects to fly,
The step of acquiring the terrain information of the flight range in which the flying object flies, and
Based on the terrain information of the flight range, a step of generating a flight path including an imaging position in a three-dimensional space for imaging the terrain of the flight range, and
A step of deriving an imaging angle for imaging the terrain of the flight range for each imaging position of the flight path based on the terrain information of the flight range and the flight path.
It is a program to execute
The step of deriving the imaging angle is
A step of acquiring a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range, and
A step of calculating a first imaging cost, which is an imaging cost when imaging at the candidate angle at the imaging position, for each candidate angle, and
The step includes a step of determining a candidate angle at which the first imaging cost at the imaging position is equal to or higher than the first threshold value to the imaging angle at the imaging position.
Program .
飛行体が飛行するための飛行経路を生成する情報処理装置に、
前記飛行体が飛行する飛行範囲の地形情報を取得するステップと、
前記飛行範囲の地形情報に基づいて、前記飛行範囲の地形を撮像するための3次元空間における撮像位置を含む飛行経路を生成するステップと、
前記飛行範囲の地形情報と前記飛行経路とに基づいて、前記飛行経路の前記撮像位置毎に、前記飛行範囲の地形を撮像するための撮像角度を導出するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体であって、
前記撮像角度を導出するステップは、
前記飛行範囲の地形を撮像するための前記撮像角度の候補である候補角度を取得するステップと、
前記撮像位置において前記候補角度で撮像した場合の撮像コストである第1の撮像コストを、前記候補角度毎に算出するステップと、
前記撮像位置における前記第1の撮像コストが第1の閾値以上となる候補角度を、前記撮像位置における前記撮像角度に決定するステップと、を含む、
記録媒体
For information processing devices that generate flight paths for flying objects to fly,
The step of acquiring the terrain information of the flight range in which the flying object flies, and
Based on the terrain information of the flight range, a step of generating a flight path including an imaging position in a three-dimensional space for imaging the terrain of the flight range, and
A step of deriving an imaging angle for imaging the terrain of the flight range for each imaging position of the flight path based on the terrain information of the flight range and the flight path.
A computer-readable recording medium on which a program for executing a program is recorded.
The step of deriving the imaging angle is
A step of acquiring a candidate angle that is a candidate for the imaging angle for imaging the terrain of the flight range, and
A step of calculating a first imaging cost, which is an imaging cost when imaging at the candidate angle at the imaging position, for each candidate angle, and
The step includes a step of determining a candidate angle at which the first imaging cost at the imaging position is equal to or higher than the first threshold value to the imaging angle at the imaging position.
Recording medium .
JP2018171672A 2018-09-13 2018-09-13 Information processing equipment, flight path generation methods, programs, and recording media Active JP7017998B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018171672A JP7017998B2 (en) 2018-09-13 2018-09-13 Information processing equipment, flight path generation methods, programs, and recording media
PCT/CN2019/105125 WO2020052549A1 (en) 2018-09-13 2019-09-10 Information processing apparatus, flight path generation method, and program and recording medium
CN201980005546.7A CN111344650B (en) 2018-09-13 2019-09-10 Information processing device, flight path generation method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018171672A JP7017998B2 (en) 2018-09-13 2018-09-13 Information processing equipment, flight path generation methods, programs, and recording media

Publications (2)

Publication Number Publication Date
JP2020043543A JP2020043543A (en) 2020-03-19
JP7017998B2 true JP7017998B2 (en) 2022-02-09

Family

ID=69777310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018171672A Active JP7017998B2 (en) 2018-09-13 2018-09-13 Information processing equipment, flight path generation methods, programs, and recording media

Country Status (3)

Country Link
JP (1) JP7017998B2 (en)
CN (1) CN111344650B (en)
WO (1) WO2020052549A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6902763B1 (en) * 2020-06-16 2021-07-14 九州電力株式会社 Drone flight planning system and program
CN114185360B (en) * 2021-11-24 2024-04-26 北京思湃德信息技术有限公司 House census method and device based on unmanned aerial vehicle
WO2023182089A1 (en) * 2022-03-24 2023-09-28 ソニーセミコンダクタソリューションズ株式会社 Control device and control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012140101A (en) 2011-01-04 2012-07-26 Topcon Corp Flight control system for flying object
JP2016213808A (en) 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 Camera selecting method and video distribution system
JP2017504875A (en) 2014-05-30 2017-02-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and system for creating traveling direction of drone
WO2018158927A1 (en) 2017-03-02 2018-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Method for estimating three-dimensional shape, flying vehicle, mobile platform, program, and recording medium

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110056089A (en) * 2009-11-20 2011-05-26 삼성전자주식회사 Method for receiving a location information in digital photographing apparatus
CN111399488B (en) * 2014-04-25 2023-08-01 索尼公司 Information processing apparatus, information processing method, program, and imaging system
CN106200693B (en) * 2016-08-12 2019-05-21 东南大学 The holder real-time control system and control method of land investigation small drone
US10402675B2 (en) * 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
JP6688901B2 (en) * 2016-10-17 2020-04-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program, and recording medium
JP6803919B2 (en) * 2016-10-17 2020-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight path generation methods, flight path generation systems, flying objects, programs, and recording media
CN106547276B (en) * 2016-10-19 2019-07-26 上海圣尧智能科技有限公司 Automatic spraying rectangular-ambulatory-plane paths planning method and fog machine spraying operation method
KR20180051996A (en) * 2016-11-09 2018-05-17 삼성전자주식회사 An unmanned aerialvehicles and method for pthotographing a subject using the same
CN107450573B (en) * 2016-11-17 2020-09-04 广州亿航智能技术有限公司 Flight shooting control system and method, intelligent mobile communication terminal and aircraft
CN107504957B (en) * 2017-07-12 2020-04-03 天津大学 Method for rapidly constructing three-dimensional terrain model by using unmanned aerial vehicle multi-view camera shooting
CN109871027B (en) * 2017-12-05 2022-07-01 深圳市九天创新科技有限责任公司 Oblique photography method and system
CN108417041A (en) * 2018-05-15 2018-08-17 江苏大学 A kind of backroad monitoring system and method based on quadrotor and Cloud Server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012140101A (en) 2011-01-04 2012-07-26 Topcon Corp Flight control system for flying object
JP2017504875A (en) 2014-05-30 2017-02-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and system for creating traveling direction of drone
JP2016213808A (en) 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 Camera selecting method and video distribution system
WO2018158927A1 (en) 2017-03-02 2018-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Method for estimating three-dimensional shape, flying vehicle, mobile platform, program, and recording medium

Also Published As

Publication number Publication date
CN111344650A (en) 2020-06-26
JP2020043543A (en) 2020-03-19
WO2020052549A1 (en) 2020-03-19
CN111344650B (en) 2024-04-16

Similar Documents

Publication Publication Date Title
JP6803800B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
JP6962775B2 (en) Information processing equipment, aerial photography route generation method, program, and recording medium
JP6962812B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
JP7017998B2 (en) Information processing equipment, flight path generation methods, programs, and recording media
JP6878194B2 (en) Mobile platforms, information output methods, programs, and recording media
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
JP2019028560A (en) Mobile platform, image composition method, program and recording medium
WO2019105231A1 (en) Information processing apparatus, flight control instruction method and recording medium
CN109891188B (en) Mobile platform, imaging path generation method, program, and recording medium
JP6875269B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP7067897B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP6790206B1 (en) Control devices, control methods, programs, and recording media
WO2020119572A1 (en) Shape inferring device, shape inferring method, program, and recording medium
WO2020001629A1 (en) Information processing device, flight path generating method, program, and recording medium
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
WO2020108290A1 (en) Image generating device, image generating method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220128

R150 Certificate of patent or registration of utility model

Ref document number: 7017998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150