JPWO2018167893A1 - Shape generation method, image acquisition method, mobile platform, flying object, program, and recording medium - Google Patents

Shape generation method, image acquisition method, mobile platform, flying object, program, and recording medium Download PDF

Info

Publication number
JPWO2018167893A1
JPWO2018167893A1 JP2019505602A JP2019505602A JPWO2018167893A1 JP WO2018167893 A1 JPWO2018167893 A1 JP WO2018167893A1 JP 2019505602 A JP2019505602 A JP 2019505602A JP 2019505602 A JP2019505602 A JP 2019505602A JP WO2018167893 A1 JPWO2018167893 A1 JP WO2018167893A1
Authority
JP
Japan
Prior art keywords
imaging
information
imaging device
positions
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019505602A
Other languages
Japanese (ja)
Other versions
JP6997170B2 (en
Inventor
磊 顧
磊 顧
斌 陳
斌 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JPWO2018167893A1 publication Critical patent/JPWO2018167893A1/en
Priority to JP2021139432A priority Critical patent/JP2022002391A/en
Application granted granted Critical
Publication of JP6997170B2 publication Critical patent/JP6997170B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得し、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択し、各撮像位置において選択された撮像装置により撮像し、撮像装置ごとに撮像画像に基づいて被写体の形状を復元し、これらの形状を合成する。撮像装置を選択するとき、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択する。これにより、飛行体を停止することなく明暗差の激しい被写体の形状取得を高精度化することができる。Information about a plurality of imaging positions of a flying object having a plurality of imaging devices is obtained, and an imaging device to be used for imaging for each of the plurality of imaging positions is selected from among the plurality of imaging devices, and selected at each imaging position. An image is taken by an imaging device, the shape of the subject is restored for each imaging device based on the captured image, and these shapes are combined. When selecting an imaging device, at least one imaging device is selected from the plurality of imaging devices based on a ratio of a portion having a predetermined light amount or less in an imaging region at the imaging position. Thus, the shape of a subject having a sharp difference in brightness can be obtained with high accuracy without stopping the flying object.

Description

本開示は、飛行体により撮像された画像に基づき被写体の形状を生成する形状生成方法、画像取得方法、モバイルプラットフォーム、飛行体、プログラム及び記録媒体に関する。   The present disclosure relates to a shape generation method for generating a shape of a subject based on an image captured by a flying object, an image acquisition method, a mobile platform, a flying object, a program, and a recording medium.

カメラ等の撮像装置を搭載し、予め設定された固定経路を飛行しながら撮像を行うプラットフォーム(例えば無人飛行体)が知られている(例えば特許文献1参照)。このプラットフォームは、地上基地から飛行経路や撮影指示等の命令を受け、その命令に従って飛行し、撮影を行って取得画像を地上基地に送る。プラットフォームは、撮影対象を撮影する場合、設定された固定経路を飛行しながら、プラットフォームと撮影対象との位置関係に基づいて、プラットフォームの撮像機器を傾斜して撮像する。   2. Description of the Related Art A platform (e.g., an unmanned aerial vehicle) that mounts an imaging device such as a camera and performs imaging while flying on a fixed route set in advance is known (for example, see Patent Document 1). The platform receives commands such as a flight path and a shooting instruction from the ground base, flies according to the instructions, performs shooting, and sends the acquired image to the ground base. When capturing an imaging target, the platform inclines and captures an imaging device of the platform based on the positional relationship between the platform and the imaging target while flying along a set fixed path.

また従来、空中を飛行する無人飛行体(例えばUAV:Unmanned Aerial Vehicle)により撮影された空中写真等の撮像画像に基づいて、一定の撮像範囲における地面形状を形成することも知られている。無人飛行体による撮影(例えば空撮)を自動化するために、予め無人飛行体の飛行経路を生成する技術が用いられる。無人飛行体を用いて一定の撮像範囲の地上の三次元形状を形成するためには、予め生成した飛行経路に従って無人飛行体を飛行させ、無人飛行体が飛行経路中の異なる撮像位置において撮影した撮像画像を複数取得する必要がある。   Conventionally, it is also known to form a ground shape in a certain imaging range based on an image such as an aerial photograph taken by an unmanned aerial vehicle (for example, UAV: Unmanned Aerial Vehicle) flying in the air. In order to automate photographing (for example, aerial photography) using an unmanned aerial vehicle, a technique for generating a flight path of the unmanned aerial vehicle in advance is used. In order to form a three-dimensional shape on the ground with a fixed imaging range using an unmanned aerial vehicle, the unmanned aerial vehicle was flown according to a previously generated flight path, and the unmanned aerial vehicle was photographed at different imaging positions in the flight path It is necessary to acquire a plurality of captured images.

日本国特開2010−61216号公報Japanese Patent Application Laid-Open No. 2010-61216

地上の三次元形状を形成する際には、無人飛行体により異なる撮像位置において撮像した後、これらの撮像画像をベースにSFM(Structure from Motion)などの技術により撮像範囲における地面形状を復元することが一般的である。SFMにおいては、撮像画像から特徴点を検出しなければならない。それには撮像画像が適正露出であることが好ましく、撮像環境の光量を測定して自動的に露出設定を行う自動露出モード(AE)が使用されることが多い。しかしながら、無人飛行体に搭載されている撮像装置は、一回の露光で撮影できる光量の範囲(以下、「ダイナミックレンジ」という)に限界があり、被写体の明るさがダイナミックレンジの上限を超えると白飛びが発生し、下限を下回ると黒つぶれが発生するため、明暗差が大きい場合に暗部と明部にある形状を同時に取得することは困難である。そのため、明暗差の強い建物や直射日光の環境における建物の陰の部分、強い逆光環境のシーンなどを撮像する場合は、撮像画像の一部に白飛びもしくは黒つぶれが発生してしまい、その結果、その部分の特徴点を検出することが困難となり、取得できる情報が不足して、形状を正常に復元できなくなる問題が存在していた。   When forming a three-dimensional shape on the ground, after capturing images at different imaging positions with an unmanned aerial vehicle, the ground shape in the imaging range is restored using techniques such as SFM (Structure from Motion) based on these captured images Is common. In SFM, feature points must be detected from a captured image. For this purpose, it is preferable that the captured image has an appropriate exposure, and an automatic exposure mode (AE) in which the amount of light in the imaging environment is measured and the exposure is automatically set is often used. However, an image pickup device mounted on an unmanned aerial vehicle has a limit in a light amount range (hereinafter, referred to as “dynamic range”) that can be photographed by one exposure, and when the brightness of a subject exceeds the upper limit of the dynamic range. Since overexposure occurs and underexposure occurs below the lower limit, it is difficult to simultaneously obtain shapes in a dark area and a bright area when the contrast is large. Therefore, when imaging a building with a strong difference in brightness or a shadow of a building in an environment of direct sunlight, a scene in a strong backlighting environment, or the like, a part of the captured image may be overexposed or underexposed. However, there has been a problem that it is difficult to detect a feature point of the portion, and there is a shortage of information that can be obtained, and the shape cannot be restored normally.

ダイナミックレンジの限界による白飛びや黒つぶれを回避する手段として、ハイダイナミックレンジ合成(HDR)が知られている。HDRでは、露出設定の異なる複数の画像を撮影し、これらを合成することで白飛びや黒つぶれの少ない幅広いダイナミックレンジを持つ画像(ハイダイナミックレンジイメージ)を生成する。しかしながら、HDRは同一の撮像位置からの複数の画像を取得する必要があり、飛行体による撮像のように移動しながら撮影する場合には不向きである。また、同一のカメラで撮像する場合は、HDRの素材となる画像を取得する際の露出設定にも限界がある。   As a means for avoiding overexposure and underexposure due to the limit of the dynamic range, high dynamic range synthesis (HDR) is known. In HDR, a plurality of images having different exposure settings are photographed, and the images are combined to generate an image (high dynamic range image) having a wide dynamic range with less whiteout and blackout. However, HDR needs to acquire a plurality of images from the same imaging position, and is not suitable for capturing while moving as in imaging by a flying object. In addition, when an image is captured by the same camera, there is a limit to the exposure setting when acquiring an image serving as an HDR material.

一態様において、形状生成方法は、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと、各撮像位置において選択された撮像装置により撮像するステップと、撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元するステップと、撮像装置ごとに復元された形状を合成するステップと、を有し、撮像装置を選択するステップは、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択するステップと、を含む。   In one aspect, the shape generation method includes a step of acquiring information on a plurality of imaging positions of a flying object having a plurality of imaging devices, and an imaging device used for imaging each of the plurality of imaging positions from among the plurality of imaging devices. Selecting, imaging at the imaging device selected at each imaging position, restoring the shape of the subject based on the captured image for each imaging device, and restoring the shape for each imaging device Synthesizing the image pickup device, and the step of selecting an image pickup device includes, for each image pickup position, at least one of a plurality of image pickup devices Selecting one imaging device.

少なくとも一つの撮像装置を選択するステップは、割合が第1の閾値以下である場合は、第1の撮像装置を選択し、割合が第1の閾値より大きい第2の閾値を超える場合は、第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択し、割合が第1の閾値を超えかつ第2の閾値以下である場合は、第1の撮像装置及び第2の撮像装置の双方を選択するステップを含んでよい。   The step of selecting at least one imaging device includes selecting the first imaging device when the ratio is equal to or less than the first threshold, and selecting the first imaging device when the ratio exceeds a second threshold that is larger than the first threshold. Selecting a second imaging device for which an exposure parameter higher than that of the first imaging device is set, and if the ratio is greater than the first threshold and less than or equal to the second threshold, the first imaging device and the second imaging device It may include selecting both of the devices.

一態様において、モバイルプラットフォームにおける形状生成方法は、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと、複数の撮像位置に関する情報と、それぞれの撮像位置について選択された撮像装置に関する情報とを飛行体に送信するステップと、を有し、撮像装置を選択するステップは、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択するステップと、を含む。   In one aspect, a method for generating a shape on a mobile platform includes acquiring information on a plurality of imaging positions of a flying object having a plurality of imaging devices, and performing imaging for each of the plurality of imaging positions from among the plurality of imaging devices. Selecting an imaging device to be used, transmitting the information on the plurality of imaging positions, and information on the imaging device selected for each imaging position to the flying object, and selecting the imaging device. And selecting at least one image pickup device from the plurality of image pickup devices based on a ratio of a portion of the image pickup area at or below the predetermined light amount at each image pickup position.

少なくとも一つの撮像装置を選択するステップは、割合が第1の閾値以下である場合は、第1の撮像装置を選択し、割合が第1の閾値より大きい第2の閾値を超える場合は、第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択し、割合が第1の閾値を超えかつ第2の閾値以下である場合は、第1の撮像装置及び第2の撮像装置の双方を選択するステップを含んでよい。   The step of selecting at least one imaging device includes selecting the first imaging device when the ratio is equal to or less than the first threshold, and selecting the first imaging device when the ratio exceeds a second threshold that is larger than the first threshold. Selecting a second imaging device for which an exposure parameter higher than that of the first imaging device is set, and if the ratio is greater than the first threshold and less than or equal to the second threshold, the first imaging device and the second imaging device It may include selecting both of the devices.

各撮像位置において選択された撮像装置により撮像された画像を飛行体から取得するステップと、撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元するステップと、撮像装置ごとに復元された形状を合成するステップと、をさらに含んでよい。   Obtaining an image captured by the imaging device selected at each imaging position from the flying object; for each imaging device, restoring the shape of the subject based on the captured image; and for each imaging device, Synthesizing the modified shape.

撮像装置を選択するステップは、複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択してよい。   The step of selecting an imaging device may select a plurality of imaging devices at at least one of the plurality of imaging positions.

撮像装置を選択するステップは、光源の照射角度に関する情報を取得するステップと、それぞれの撮像位置における光源の遮断物に関する情報を取得するステップと、光源の照射角度に関する情報とそれぞれの撮像位置における光源の遮断物に関する情報とに基づいて、撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、を含んでよい。   The step of selecting an imaging device includes the steps of acquiring information on an illumination angle of a light source, acquiring information on an obstruction of a light source at each imaging position, and information on an illumination angle of a light source and a light source at each imaging position. Estimating a ratio occupied by a portion having a predetermined light amount or less in the imaging area at the imaging position based on the information on the obstacle.

光源の照射角度に関する情報を取得するステップは、時刻情報及び撮像位置の地理情報を取得するステップと、時刻情報及び地理情報を用いて、光源の照射角度に関する情報を推定するステップと、を含んでよい。   The step of obtaining information on the irradiation angle of the light source includes the steps of obtaining time information and geographic information of the imaging position, and estimating information on the irradiation angle of the light source using the time information and the geographic information. Good.

一態様において、形状生成のための飛行体における画像取得方法は、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から選択された、複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、を有する、において、撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である。   In one aspect, an image acquisition method in a flying object for shape generation includes: acquiring information on a plurality of imaging positions of a flying object having a plurality of imaging devices; Acquiring information about an imaging device used for imaging for each of the imaging positions, and capturing an image using an imaging device corresponding to the information about the imaging device used for the acquired imaging, for each of the plurality of imaging positions; In the information on the imaging device used for imaging, based on the ratio of the portion of the imaging area at each imaging position less than the predetermined amount of light, according to the selection of at least one imaging device from a plurality of imaging devices This is the generated information.

撮像に用いる撮像装置に関する情報を取得するステップは、複数の撮像位置のそれぞれについて、撮像に用いる撮像装置に関する情報をモバイルプラットフォームから受信するステップを含んでよい。   The step of obtaining information on the imaging device used for imaging may include a step of receiving information on the imaging device used for imaging from the mobile platform for each of the plurality of imaging positions.

撮像に用いる撮像装置に関する情報を取得するステップは、それぞれの撮像位置について、撮像時の当該撮像位置における撮像領域の光量を測定するステップと、光量に基づき、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択して、撮像に用いる撮像装置に関する情報を生成するステップと、を含んでよい。   The step of acquiring information on the imaging device used for imaging includes, for each imaging position, a step of measuring the amount of light in an imaging region at the imaging position at the time of imaging, and a step of measuring a predetermined amount of light in the imaging region at the imaging position based on the amount of light. The method may include a step of estimating a ratio occupied by the following portions, and a step of selecting at least one imaging device from a plurality of imaging devices based on the ratio and generating information on the imaging device used for imaging.

撮像に用いる撮像装置に関する情報を取得するステップは、それぞれの撮像位置について、光源の照射角度に関する情報を取得するステップと、撮像位置における光源の遮断物に関する情報を取得するステップと、光源の照射角度に関する情報と撮像位置における光源の遮断物に関する情報とに基づいて、撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択して撮像に用いる撮像装置に関する情報を生成するステップと、を含んでよい。   Acquiring information on the imaging device used for imaging, for each imaging position, acquiring information on an illumination angle of the light source, acquiring information on an obstruction of the light source at the imaging position, and illuminating angle of the light source; Estimating a ratio occupied by a portion equal to or less than a predetermined amount of light in the imaging region at the imaging position based on the information regarding the light source block at the imaging position and at least one of the plurality of imaging devices based on the ratio. Selecting one of the imaging devices and generating information about the imaging device to be used for imaging.

光源の照射角度に関する情報を取得するステップは、時刻情報及び撮像位置の地理情報を取得するステップと、時刻情報及び地理情報を用いて、光源の照射角度に関する情報を推定するステップと、を含んでよい。   The step of obtaining information on the irradiation angle of the light source includes the steps of obtaining time information and geographic information of the imaging position, and estimating information on the irradiation angle of the light source using the time information and the geographic information. Good.

撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合が第1の閾値以下である場合は、第1の撮像装置が選択され、割合が第1の閾値より大きい第2の閾値を超える場合は、第1の撮像装置より高い露光パラメータが設定された第2の撮像装置が選択され、割合が第1の閾値を超えかつ第2の閾値以下である場合は、第1の撮像装置及び第2の撮像装置の双方が選択されて生成されてよい。   The information on the imaging device used for imaging is such that when the proportion of the portion of the imaging area at each imaging position that is equal to or less than the predetermined amount of light is less than or equal to the first threshold, the first imaging device is selected, and If the second imaging device having a higher exposure parameter than that of the first imaging device is selected, the second imaging device having a higher exposure parameter than the first imaging device is selected, and the ratio exceeds the first threshold and is equal to or less than the second threshold. In some cases, both the first imaging device and the second imaging device may be selected and generated.

撮像に用いる撮像装置に関する情報は、複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択されて生成されてよい。   The information on the imaging device used for imaging may be generated by selecting a plurality of imaging devices at at least one of the plurality of imaging positions.

撮像装置を用いて撮像するステップは、飛行体の移動中に、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報により特定された撮像装置を用いて撮像するステップを含んでよい。   The step of imaging using the imaging device includes, during the movement of the flying object, for each of the plurality of imaging positions, imaging using the imaging device specified by the information on the imaging device used for the acquired imaging. Good.

複数の撮像位置において撮像された画像を、形状生成を行う情報処理装置に送信するステップをさらに含んでよい。   The method may further include a step of transmitting images captured at a plurality of imaging positions to an information processing apparatus that performs shape generation.

一態様において、モバイルプラットフォームは、記憶部と、飛行体との通信を行う通信部と、処理部と、を有し、処理部は、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得し、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択し、複数の撮像位置に関する情報と、それぞれの撮像位置について選択された撮像装置に関する情報とを通信部により飛行体に送信し、撮像装置を選択することを、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択することにより実現する。   In one aspect, a mobile platform includes a storage unit, a communication unit that communicates with a flying object, and a processing unit, wherein the processing unit includes information about a plurality of imaging positions of the flying object having a plurality of imaging devices. And selecting an imaging device to be used for imaging for each of the plurality of imaging positions from the plurality of imaging devices, and obtaining information on the plurality of imaging positions and information on the imaging device selected for each of the imaging positions. The transmission to the flying object by the communication unit and the selection of the imaging device are performed by at least one of the plurality of imaging devices based on the ratio of the portion of the imaging area at the imaging position that is equal to or less than the predetermined light amount. This is realized by selecting one imaging device.

処理部は、割合が第1の閾値以下である場合は、第1の撮像装置を選択し、割合が第1の閾値より大きい第2の閾値を超える場合は、第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択し、割合が第1の閾値を超えかつ第2の閾値以下である場合は、第1の撮像装置及び第2の撮像装置の双方を選択してよい。   The processing unit selects the first imaging device when the ratio is equal to or less than the first threshold, and selects a higher exposure than the first imaging device when the ratio exceeds the second threshold that is larger than the first threshold. Select the second imaging device for which the parameter is set, and if the ratio exceeds the first threshold and is equal to or less than the second threshold, select both the first imaging device and the second imaging device. Good.

処理部は、さらに、各撮像位置において選択された撮像装置により撮像された画像を飛行体から取得し、撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元し、撮像装置ごとに復元された形状を合成してよい。   The processing unit further obtains an image captured by the imaging device selected at each imaging position from the flying object, restores the shape of the subject based on the captured image for each imaging device, and The restored shape may be combined.

処理部は、複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択してよい。   The processing unit may select a plurality of imaging devices at at least one of the plurality of imaging positions.

処理部は、光源の照射角度に関する情報を取得し、それぞれの撮像位置における光源の遮断物に関する情報を取得し、光源の照射角度に関する情報とそれぞれの撮像位置における光源の遮断物に関する情報とに基づいて、撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定してよい。   The processing unit obtains information about the irradiation angle of the light source, acquires information about the light blocking object at each imaging position, and based on the information about the light source irradiation angle and information about the light blocking object at each imaging position. Thus, the ratio occupied by a portion having a predetermined light amount or less in the imaging region at the imaging position may be estimated.

処理部は、時刻情報及び撮像位置の地理情報を取得し、時刻情報及び地理情報を用いて、光源の照射角度に関する情報を推定してよい。   The processing unit may acquire the time information and the geographic information of the imaging position, and may estimate information about the irradiation angle of the light source using the time information and the geographic information.

一態様において、飛行体は、記憶部と、モバイルプラットフォームとの通信を行う通信部と、処理部と、複数の撮像装置と、を有し、処理部は、飛行体の複数の撮像位置に関する情報を取得し、複数の撮像装置の中から選択された、複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得し、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像し、撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である。   In one aspect, an air vehicle includes a storage unit, a communication unit that communicates with a mobile platform, a processing unit, and a plurality of imaging devices, wherein the processing unit includes information regarding a plurality of imaging positions of the air vehicle. Acquiring information about the imaging device used for imaging for each of the plurality of imaging positions selected from among the plurality of imaging devices, and acquiring the information about the imaging device used for the acquired imaging for each of the plurality of imaging positions. An image is captured using an imaging device corresponding to the information, and information on the imaging device used for imaging is based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position. This is information generated according to the selection of the imaging device.

処理部は、複数の撮像位置のそれぞれについて、撮像に用いる撮像装置に関する情報をモバイルプラットフォームから受信してよい。   The processing unit may receive, from the mobile platform, information on an imaging device used for imaging for each of the plurality of imaging positions.

光学センサをさらに有し、処理部は、それぞれの撮像位置について、撮像時の当該撮像位置における撮像領域の光量を測定し、光量に基づき、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定し、割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択して、撮像に用いる撮像装置に関する情報を生成してよい。   The image processing apparatus further includes an optical sensor, and the processing unit measures, for each imaging position, a light amount of the imaging region at the imaging position at the time of imaging, and based on the light amount, a part of the imaging region at the imaging position at a predetermined light amount or less is determined. The occupation ratio may be estimated, and based on the ratio, at least one of the plurality of imaging devices may be selected to generate information regarding the imaging device used for imaging.

処理部は、それぞれの撮像位置について、光源の照射角度に関する情報を取得し、撮像位置における光源の遮断物に関する情報を取得し、光源の照射角度に関する情報と撮像位置における光源の遮断物に関する情報とに基づいて、撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定し、割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択して撮像に用いる撮像装置に関する情報を生成してよい。   The processing unit acquires, for each imaging position, information about the irradiation angle of the light source, acquires information about the light blocking object at the imaging position, information about the irradiation angle of the light source, and information about the light blocking object at the imaging position. Based on the ratio, the ratio of the portion occupied by the predetermined amount of light or less in the imaging region at the imaging position is estimated, and based on the ratio, information on the imaging device to be used for imaging by selecting at least one imaging device from the plurality of imaging devices. May be generated.

処理部は、時刻情報及び撮像位置の地理情報を取得し、時刻情報及び地理情報を用いて、光源の照射角度に関する情報を推定してよい。   The processing unit may acquire the time information and the geographic information of the imaging position, and may estimate information about the irradiation angle of the light source using the time information and the geographic information.

撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合が第1の閾値以下である場合は、第1の撮像装置が選択され、割合が第1の閾値より大きい第2の閾値を超える場合は、第1の撮像装置より高い露光パラメータが設定された第2の撮像装置が選択され、割合が第1の閾値を超えかつ第2の閾値以下である場合は、第1の撮像装置及び第2の撮像装置の双方が選択されて生成されてよい。   The information on the imaging device used for imaging is such that when the proportion of the portion of the imaging area at each imaging position that is equal to or less than the predetermined amount of light is less than or equal to the first threshold, the first imaging device is selected, and If the second imaging device having a higher exposure parameter than that of the first imaging device is selected, the second imaging device having a higher exposure parameter than the first imaging device is selected, and the ratio exceeds the first threshold and is equal to or less than the second threshold. In some cases, both the first imaging device and the second imaging device may be selected and generated.

撮像に用いる撮像装置に関する情報は、複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択されて生成されてよい。   The information on the imaging device used for imaging may be generated by selecting a plurality of imaging devices at at least one of the plurality of imaging positions.

処理部は、飛行体の移動中に、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報により特定された撮像装置を用いて撮像してよい。   The processing unit may capture an image of each of the plurality of imaging positions using the imaging device specified by the information on the imaging device used for the acquired imaging while the flying object is moving.

処理部は、複数の撮像位置において撮像された画像を、形状生成を行う情報処理装置に送信してよい。   The processing unit may transmit images captured at a plurality of imaging positions to an information processing device that performs shape generation.

一態様において、コンピュータであるモバイルプラットフォームに、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと複数の撮像位置に関する情報と、それぞれの撮像位置について選択された撮像装置に関する情報とを飛行体に送信するステップと、を実行させ、撮像装置を選択するステップは、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択するステップと、を含むプログラムである。   In one embodiment, a step of acquiring information on a plurality of imaging positions of a flying object having a plurality of imaging devices on a mobile platform that is a computer, and from among the plurality of imaging devices, using each of the plurality of imaging positions for imaging. Selecting an imaging device, transmitting information to the flying object with information on the plurality of imaging positions and information on the imaging device selected for each imaging position, and selecting an imaging device. And selecting at least one image pickup device from among the plurality of image pickup devices based on the ratio of the portion of the image pickup area at or below the predetermined light amount at the image pickup position.

一態様において、コンピュータであるモバイルプラットフォームに、複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から、複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと、複数の撮像位置に関する情報と、それぞれの撮像位置について選択された撮像装置に関する情報とを飛行体に送信するステップと、を実行させ、撮像装置を選択するステップは、それぞれの撮像位置について、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置を選択するステップと、を含む、プログラムを格納する記憶媒体である。   In one embodiment, a step of acquiring information on a plurality of imaging positions of a flying object having a plurality of imaging devices on a mobile platform that is a computer, and from among the plurality of imaging devices, using each of the plurality of imaging positions for imaging. The step of selecting an imaging device, the step of transmitting information on a plurality of imaging positions, and the step of transmitting information on the imaging device selected for each imaging position to the flying object, and the step of selecting an imaging device, Selecting at least one imaging device from a plurality of imaging devices based on a ratio of a portion having a predetermined light amount or less in an imaging region at the imaging position with respect to each imaging position. Medium.

一態様において、コンピュータである複数の撮像装置を有する飛行体に、飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から選択された、複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、を実行させ、撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報であるプログラムである。   In one aspect, for a flying object having a plurality of imaging devices, which is a computer, acquiring information on a plurality of imaging positions of the flying object, and for each of the plurality of imaging positions selected from the plurality of imaging devices. Acquiring information on an imaging device used for imaging, and, for each of a plurality of imaging positions, capturing an image using an imaging device corresponding to the information on the acquired imaging device used for imaging. The information on the imaging device to be used is a program which is information generated according to selection of at least one imaging device from a plurality of imaging devices based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position. It is.

一態様において、コンピュータである複数の撮像装置を有する飛行体に、飛行体の複数の撮像位置に関する情報を取得するステップと、複数の撮像装置の中から選択された、複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、複数の撮像位置のそれぞれについて、取得された撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、を実行させ、撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報であるプログラムを格納する記憶媒体である。   In one aspect, for a flying object having a plurality of imaging devices, which is a computer, acquiring information on a plurality of imaging positions of the flying object, and for each of the plurality of imaging positions selected from the plurality of imaging devices. Acquiring information on an imaging device used for imaging, and, for each of a plurality of imaging positions, capturing an image using an imaging device corresponding to the information on the acquired imaging device used for imaging. The information on the imaging device to be used is a program which is information generated according to selection of at least one imaging device from a plurality of imaging devices based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position. Is a storage medium for storing.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the above summary of the present invention does not list all of the features of the present disclosure. Further, a sub-combination of these feature groups can also be an invention.

各実施形態の形状生成システムの構成例を示す図である。It is a figure showing the example of composition of the shape generation system of each embodiment. 無人飛行体の外観の一例を示す図である。It is a figure showing an example of the appearance of an unmanned aerial vehicle. 無人飛行体の具体的な外観の一例を示す図である。It is a figure showing an example of the concrete appearance of an unmanned aerial vehicle. 図1の形状生成システムを構成する無人飛行体のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of an unmanned aerial vehicle constituting the shape generation system of FIG. 1. 送信機の外観の一例を示す図である。It is a figure showing an example of the appearance of a transmitter. 図1の形状生成システムを構成する送信機のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of a transmitter included in the shape generation system in FIG. 1. 各実施形態の撮像範囲の一例を示す図である。FIG. 3 is a diagram illustrating an example of an imaging range according to each embodiment. 第1の実施形態にかかる形状生成システムにおける処理を示すシーケンス図である。FIG. 3 is a sequence diagram illustrating processing in the shape generation system according to the first embodiment. 撮像範囲における飛行経路及び複数の撮像位置を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a flight path and a plurality of imaging positions in an imaging range. 撮像装置を選択するステップの一例を示すフロー図である。It is a flowchart which shows an example of the step which selects an imaging device. 複数の撮像位置において撮像装置が選択された状態を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a state where an imaging device is selected at a plurality of imaging positions. 撮像装置ごとに形状を復元し、形成することを模式的に示す図である。FIG. 4 is a diagram schematically illustrating restoring and forming a shape for each imaging device. 第2の実施形態にかかる形状生成方法システムにおける処理を示すシーケンス図である。It is a sequence diagram showing processing in a shape generation method system concerning a 2nd embodiment.

以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, the present disclosure will be described through embodiments of the present invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of the features described in the embodiments are necessarily essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。   The claims, specification, drawings, and abstract include subject matter protected by copyright. The copyright owner will not object to any person's reproduction of these documents, as indicated in the JPO file or record. However, in all other cases, all copyrights are reserved.

本開示に係る形状生成方法は、移動体の一例としての無人飛行体(UAV:Unmanned Aerial Vehicle)と、無人飛行体の動作又は処理を遠隔で制御するためのモバイルプラットフォームと、画像の複合や合成処理を行う計算機(PC)とを含む形状生成システムにおける各種の処理(ステップ)が規定されたものである。   The shape generation method according to the present disclosure includes an unmanned aerial vehicle (UAV) as an example of a moving object, a mobile platform for remotely controlling the operation or processing of the unmanned aerial vehicle, and combining and combining images. Various processes (steps) in a shape generation system including a computer (PC) that performs the process are defined.

本開示に係る形状生成のための飛行体の画像取得方法は、本開示に係る形状生成方法のうち、無人飛行体における各種の処理(ステップ)が規定されたものである。   The method for acquiring an image of a flying object for generating a shape according to the present disclosure is one in which various processes (steps) for an unmanned aerial vehicle are specified in the method for generating a shape according to the present disclosure.

本開示に係るモバイルプラットフォームにおける形状生成方法は、本開示に係る形状生成方法のうち、送信機における各種の処理(ステップ)が規定されたものである。   The shape generation method in the mobile platform according to the present disclosure defines various processes (steps) in the transmitter in the shape generation method according to the present disclosure.

本開示に係る飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、複数の撮像装置を有する無人飛行体であってもよく、撮像範囲における被写体(例えば一定の範囲内の建物、道路、公園等の地面形状)を撮像するために、あらかじめ設定された飛行経路に沿って飛行し、飛行経路上に設定されている複数の撮像位置(後述するウェイポイント)において撮像する。   An air vehicle according to the present disclosure includes an aircraft (eg, a drone, a helicopter) that moves in the air. The flying object may be an unmanned flying object having a plurality of imaging devices, and is set in advance to image a subject (for example, a ground shape of a building, a road, a park, or the like within a certain range) in an imaging range. It flies along the flight path, and images at a plurality of imaging positions (waypoints described later) set on the flight path.

本開示に係るモバイルプラットフォームは、コンピュータであって、例えば無人飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、送信機と情報やデータの入出力が可能に接続された端末装置、又は無人飛行体と情報やデータの入出力が可能に接続されたPC、タブレット等の情報処理装置である。なお、無人飛行体自体がモバイルプラットフォームとして含まれてよい。   The mobile platform according to the present disclosure is a computer, a transmitter for instructing remote control of various processes including, for example, movement of an unmanned aerial vehicle, and a terminal connected to the transmitter so that information and data can be input and output. An information processing apparatus such as a PC or a tablet connected to a device or an unmanned aerial vehicle so that information and data can be input and output. Note that the unmanned aerial vehicle itself may be included as a mobile platform.

本開示に係るプログラムは、無人飛行体又はモバイルプラットフォームに各種の処理(ステップ)を実行させるためのプログラムである。   A program according to the present disclosure is a program for causing an unmanned aerial vehicle or a mobile platform to execute various processes (steps).

本開示に係る記録媒体は、プログラム(つまり、無人飛行体又はモバイルプラットフォームに各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。   The recording medium according to the present disclosure stores a program (that is, a program for causing an unmanned aerial vehicle or a mobile platform to execute various processes (steps)).

本開示に係る各実施形態において、無人飛行体100は、撮像範囲内にあらかじめ設定された飛行経路に沿って飛行する。   In each embodiment according to the present disclosure, the unmanned aerial vehicle 100 flies along a flight path set in advance in an imaging range.

飛行経路は、従来のいかなる方法によって設定してもよく、例えば既存のアルゴリズムにより設定された当該範囲内を最短距離で飛行する経路、最短時間で飛行する経路又はもっとも節電できる経路であってよい。   The flight path may be set by any conventional method, and may be, for example, a path that flies the shortest distance within the range set by an existing algorithm, a path that flies in the shortest time, or a path that saves the most power.

飛行経路は、複数の撮像位置(つまり、ウェイポイント)の情報を含む。無人飛行体100は、設定された経路に沿って順次移動し、ウェイポイントにおいて撮像をする。   The flight path includes information on a plurality of imaging positions (that is, waypoints). The unmanned aerial vehicle 100 sequentially moves along the set route and captures images at waypoints.

なお、それぞれのウェイポイントは、隣接するウェイポイントにおける撮像領域がオーバーラップする間隔で設定されていることが好ましい。これにより、撮像範囲全体の特徴点を検出することができ、撮像画像からSFM技術などにより形状復元するときに、撮像範囲における完全な形状を形成するための情報が不足することを回避することができる。   In addition, it is preferable that each waypoint is set at intervals at which the imaging areas of adjacent waypoints overlap. This makes it possible to detect the feature points of the entire imaging range, and to avoid a shortage of information for forming a complete shape in the imaging range when the shape is restored from the captured image by SFM technology or the like. it can.

図1は、各実施形態の形状生成システムの構成例を示す図である。図1に示す形状生成システム10は、無人飛行体100と送信機50とを少なくとも含む。好ましくは、さらに、撮像された画像を複合、合成するための図示しない情報処理装置(例えばPC、タブレットなど)を含む。無人飛行体100と送信機50とは、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、情報やデータを互いに通信することが可能である。なお、図1では、送信機50の筐体に端末装置が取り付けられた様子の図示が省略されている。操作端末の一例としての送信機50は、例えば送信機50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。   FIG. 1 is a diagram illustrating a configuration example of a shape generation system according to each embodiment. 1 includes at least an unmanned aerial vehicle 100 and a transmitter 50. Preferably, the information processing apparatus further includes an information processing device (for example, a PC, a tablet, or the like) (not shown) for combining and combining captured images. The unmanned aerial vehicle 100 and the transmitter 50 can communicate information and data with each other using wired communication or wireless communication (for example, a wireless LAN (Local Area Network) or Bluetooth (registered trademark)). In FIG. 1, illustration of a state where the terminal device is attached to the housing of the transmitter 50 is omitted. The transmitter 50 as an example of the operation terminal is used while being held by both hands of a person who uses the transmitter 50 (hereinafter, referred to as “user”), for example.

図2は、無人飛行体100の外観の一例を示す図である。図3は、無人飛行体100の具体的な外観の一例を示す図である。無人飛行体100が移動方向STV0に飛行する時の側面図が図2に示され、無人飛行体100が移動方向STV0に飛行する時の斜視図が図3に示されている。無人飛行体100は、例えば二つの撮像装置220−1,220−2を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2及び図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2及び図3のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2及び図3のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2及び図3のz軸)が定められる。   FIG. 2 is a diagram illustrating an example of the appearance of the unmanned aerial vehicle 100. FIG. 3 is a diagram illustrating an example of a specific appearance of the unmanned aerial vehicle 100. A side view when the unmanned aerial vehicle 100 flies in the movement direction STV0 is shown in FIG. 2, and a perspective view when the unmanned aerial vehicle 100 flies in the movement direction STV0 is shown in FIG. The unmanned aerial vehicle 100 is an example of a moving object that includes two imaging devices 220-1 and 220-2 and moves. The moving body is a concept including, in addition to the unmanned aerial vehicle 100, another aircraft moving in the air, a vehicle moving on the ground, a ship moving on water, and the like. Here, as shown in FIGS. 2 and 3, it is assumed that a roll axis (see the x-axis in FIGS. 2 and 3) is defined in a direction parallel to the ground and along the movement direction STV0. In this case, a pitch axis (see the y-axis in FIGS. 2 and 3) is defined in a direction parallel to the ground and perpendicular to the roll axis, and further a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. The yaw axis (the z-axis in FIGS. 2 and 3) is determined.

無人飛行体100は、UAV本体102と、ジンバル200と、複数の撮像装置220−1、220−2と、複数の障害物センサ230とを含む構成である。無人飛行体100は、本開示に係るモバイルプラットフォームの一例としての送信機50から送信される遠隔制御の指示を基に移動することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。   The unmanned aerial vehicle 100 is configured to include the UAV main body 102, the gimbal 200, a plurality of imaging devices 220-1, 220-2, and a plurality of obstacle sensors 230. The unmanned aerial vehicle 100 can move based on a remote control instruction transmitted from the transmitter 50 as an example of the mobile platform according to the present disclosure. The movement of the unmanned aerial vehicle 100 means a flight, and includes at least ascending, descending, turning left, turning right, moving left horizontally, and moving right horizontal.

UAV本体102は、複数の回転翼を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人飛行体100を移動させる。UAV本体102は、例えば4つの回転翼を用いて無人飛行体100を移動させる。回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。   The UAV main body 102 includes a plurality of rotors. The UAV body 102 moves the unmanned aerial vehicle 100 by controlling the rotation of a plurality of rotors. The UAV main body 102 moves the unmanned aerial vehicle 100 using, for example, four rotors. The number of rotors is not limited to four. Further, the unmanned aerial vehicle 100 may be a fixed wing aircraft having no rotary wing.

撮像装置220−1、撮像装置220−2は、所望の撮像範囲に含まれる被写体(例えば上述した建物、道路、公園等の地面形状)を撮像するカメラである。以下において、二つの撮像装置220−1、撮像装置220−2が一つのジンバル200に取り付けられている例を示すが、実際はそれぞれ異なるジンバル200に取り付けられ、別々に制御できるようになっていてよい。また、撮像装置の数量は2つに限らず、より多く備えていてよい。   The imaging device 220-1 and the imaging device 220-2 are cameras that capture an image of a subject (for example, a ground shape such as a building, a road, or a park described above) included in a desired imaging range. Hereinafter, an example in which the two imaging devices 220-1 and 220-2 are attached to one gimbal 200 will be described. However, actually, each of the imaging devices 220-1 and 220-2 may be attached to a different gimbal 200 and separately controlled. . Further, the number of imaging devices is not limited to two, but may be larger.

複数の障害物センサ230は、無人飛行体の周囲の障害物を検出することができる。   The plurality of obstacle sensors 230 can detect obstacles around the unmanned aerial vehicle.

次に、無人飛行体100の構成例について説明する。   Next, a configuration example of the unmanned aerial vehicle 100 will be described.

図4は、図1の形状生成システム10を構成する無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、UAV処理部110と、通信インタフェース150と、メモリ160と、ジンバル200と、回転翼機構210と、撮像装置220−1、撮像装置220−2と、障害物センサ230と、GPS受信機240と、バッテリ250と、光学センサ260と、タイマ270とを含む構成である。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the unmanned aerial vehicle 100 included in the shape generation system 10 of FIG. The unmanned aerial vehicle 100 includes a UAV processing unit 110, a communication interface 150, a memory 160, a gimbal 200, a rotary wing mechanism 210, an imaging device 220-1, an imaging device 220-2, an obstacle sensor 230, The configuration includes a GPS receiver 240, a battery 250, an optical sensor 260, and a timer 270.

UAV処理部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV処理部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The UAV processing unit 110 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The UAV processing unit 110 performs signal processing for controlling the operation of each unit of the unmanned aerial vehicle 100 in an integrated manner, data input / output processing with other units, data arithmetic processing, and data storage processing.

UAV処理部110は、メモリ160に格納されたプログラムに従って無人飛行体100の飛行を制御する。UAV処理部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。メモリ160は、無人飛行体100から取り外し可能であってよい。   The UAV processing unit 110 controls the flight of the unmanned aerial vehicle 100 according to a program stored in the memory 160. The UAV processing unit 110 controls the movement (that is, flight) of the unmanned aerial vehicle 100 according to a command received from the remote transmitter 50 via the communication interface 150. Memory 160 may be removable from unmanned aerial vehicle 100.

通信インタフェース150は、送信機50と通信する(図4参照)。通信インタフェース150は、遠隔の送信機50からUAV処理部110に対する各種の命令を受信する。   The communication interface 150 communicates with the transmitter 50 (see FIG. 4). The communication interface 150 receives various commands to the UAV processing unit 110 from the remote transmitter 50.

メモリ160は、UAV処理部110がジンバル200、回転翼機構210、撮像装置220−1、撮像装置220−2、障害物センサ230、GPS受信機240、バッテリ250、光学センサ260及びタイマ270を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102の内部に設けられてよい。UAV本体102から取り外し可能に設けられてよい。   In the memory 160, the UAV processing unit 110 controls the gimbal 200, the rotary wing mechanism 210, the imaging device 220-1, the imaging device 220-2, the obstacle sensor 230, the GPS receiver 240, the battery 250, the optical sensor 260, and the timer 270. Stores programs and the like necessary to perform The memory 160 may be a computer-readable recording medium, such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of a flash memory such as a USB memory. The memory 160 may be provided inside the UAV body 102. It may be provided detachably from the UAV body 102.

ジンバル200は、少なくとも1つの軸を中心に撮像装置220−1、撮像装置220−2を回転可能に支持する。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220−1、撮像装置220−2を回転させることで、撮像装置220の撮像方向を変更してよい。また、上述したように、撮像装置220−1、撮像装置220−2それぞれに一つずつジンバルが設けられる構成であってよい。   The gimbal 200 rotatably supports the imaging device 220-1 and the imaging device 220-2 about at least one axis. The gimbal 200 may rotatably support the imaging device 220 about a yaw axis, a pitch axis, and a roll axis. The gimbal 200 may change the imaging direction of the imaging device 220 by rotating the imaging device 220-1 and the imaging device 220-2 around at least one of the yaw axis, the pitch axis, and the roll axis. Further, as described above, each of the imaging device 220-1 and the imaging device 220-2 may be provided with one gimbal.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。   The rotary wing mechanism 210 includes a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades.

撮像装置220−1、撮像装置220−2は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。二つの撮像装置220−1、撮像装置220−2は同一の画角でありかつ異なる露光パラメータが設定されていることが好ましい。撮像装置220−1、撮像装置220−2の撮像により得られた画像データは、撮像装置220−1、撮像装置220−2がそれぞれ有するメモリ、又はメモリ160に格納される。好ましくは、画像データは撮像装置ごとに格納される。   The imaging device 220-1 and the imaging device 220-2 capture an image of a subject in a desired imaging range and generate data of a captured image. It is preferable that the two imaging devices 220-1 and 220-2 have the same angle of view and different exposure parameters. Image data obtained by imaging by the imaging device 220-1 and the imaging device 220-2 is stored in the memory or the memory 160 of each of the imaging device 220-1 and the imaging device 220-2. Preferably, the image data is stored for each imaging device.

障害物センサ230は、例えば赤外線センサ、撮像装置、超音波センサなどであり、無人飛行体100の周囲の障害物を検出し、その情報をUAV処理部110に出力する。   The obstacle sensor 230 is, for example, an infrared sensor, an imaging device, an ultrasonic sensor, or the like, detects an obstacle around the unmanned aerial vehicle 100, and outputs the information to the UAV processing unit 110.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報をUAV処理部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV処理部110により行われてよい。この場合、UAV処理部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times transmitted from a plurality of navigation satellites (that is, GPS satellites) and a position (coordinate) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the received signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the UAV processing unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the UAV processing unit 110 instead of the GPS receiver 240. In this case, to the UAV processing unit 110, information indicating the time included in the plurality of signals received by the GPS receiver 240 and the position of each GPS satellite is input.

バッテリ250は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。   The battery 250 has a function as a drive source for each unit of the unmanned aerial vehicle 100 and supplies necessary power to each unit of the unmanned aerial vehicle 100.

光学センサ260は、撮像領域における光量を検出し、検出結果をUAV処理部110に出力する。   The optical sensor 260 detects the amount of light in the imaging area, and outputs a detection result to the UAV processing unit 110.

タイマ270は、時刻情報を管理し、UAV処理部110に出力する。   The timer 270 manages the time information and outputs the time information to the UAV processing unit 110.

次に、送信機50の構成例について説明する。   Next, a configuration example of the transmitter 50 will be described.

図5は、送信機50の外観の一例を示す斜視図である。送信機50に対する上下前後左右の方向は、図5に示す矢印の方向にそれぞれ従うとする。送信機50は、例えば送信機50を使用するユーザの両手で把持された状態で使用される。   FIG. 5 is a perspective view showing an example of the appearance of the transmitter 50. It is assumed that the directions of up, down, front, rear, left and right with respect to the transmitter 50 follow the directions of arrows shown in FIG. 5, respectively. The transmitter 50 is used, for example, while being held by both hands of the user who uses the transmitter 50.

送信機50は、例えば略正方形状の底面を有し、かつ高さが底面の一辺より短い略直方体(言い換えると、略箱形)の形状をした樹脂製の筐体50Bを有する。送信機50の具体的な構成は図6を参照して後述する。送信機50の筐体表面の略中央には、左制御棒53Lと右制御棒53Rとが突設して配置される。   The transmitter 50 has, for example, a substantially rectangular parallelepiped (in other words, substantially box-shaped) resin housing 50B having a substantially square bottom surface and a height shorter than one side of the bottom surface. The specific configuration of the transmitter 50 will be described later with reference to FIG. A left control rod 53L and a right control rod 53R are arranged protrudingly at substantially the center of the housing surface of the transmitter 50.

左制御棒53L、右制御棒53Rは、それぞれユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。図5では、左制御棒53L及び右制御棒53Rは、ユーザの両手からそれぞれ外力が印加されていない初期状態の位置が示されている。左制御棒53L及び右制御棒53Rは、ユーザにより印加された外力が解放された後、自動的に所定位置(例えば図5に示す初期位置)に復帰する。   The left control rod 53L and the right control rod 53R are used in operations for remotely controlling the movement of the unmanned aerial vehicle 100 by the user (for example, moving the unmanned aerial vehicle 100 back and forth, left and right, up and down, and change direction). Is done. FIG. 5 shows the positions of the left control rod 53L and the right control rod 53R in the initial state where no external force is applied from both hands of the user. After the external force applied by the user is released, the left control rod 53L and the right control rod 53R automatically return to predetermined positions (for example, initial positions shown in FIG. 5).

左制御棒53Lの手前側(言い換えると、ユーザ側)には、送信機50の電源ボタンB1が配置される。電源ボタンB1がユーザにより一度押下されると、例えば送信機50に内蔵されるバッテリ(不図示)の容量の残量がバッテリ残量表示部L2において表示される。電源ボタンB1がユーザによりもう一度押下されると、例えば送信機50の電源がオンとなり、送信機50の各部(図6参照)に電源が供給されて使用可能となる。   The power button B1 of the transmitter 50 is arranged on the near side (in other words, on the user side) of the left control rod 53L. When the power button B1 is pressed once by the user, for example, the remaining capacity of a battery (not shown) built in the transmitter 50 is displayed on the battery remaining amount display section L2. When the power button B1 is pressed again by the user, for example, the power of the transmitter 50 is turned on, and power is supplied to each unit (see FIG. 6) of the transmitter 50 to be usable.

右制御棒53Rの手前側(言い換えると、ユーザ側)には、RTH(Return To Home)ボタンB2が配置される。RTHボタンB2がユーザにより押下されると、送信機50は、無人飛行体100に所定の位置に自動復帰させるための信号を送信する。これにより、送信機50は、無人飛行体100を所定の位置(例えば無人飛行体100が記憶している離陸位置)に自動的に帰還させることができる。RTHボタンB2は、例えば屋外での無人飛行体100による空撮中にユーザが無人飛行体100の機体を見失った場合、又は電波干渉や予期せぬトラブルに遭遇して操作不能になった場合等に利用可能である。   An RTH (Return To Home) button B2 is arranged on the near side (in other words, on the user side) of the right control rod 53R. When the RTH button B2 is pressed by the user, the transmitter 50 transmits a signal for automatically returning the unmanned aerial vehicle 100 to a predetermined position. Thus, the transmitter 50 can automatically return the unmanned aerial vehicle 100 to a predetermined position (for example, a takeoff position stored in the unmanned aerial vehicle 100). The RTH button B2 is used, for example, when the user loses sight of the unmanned aerial vehicle 100 during aerial photographing with the unmanned aerial vehicle 100 outdoors, or when the user becomes unable to operate due to radio wave interference or unexpected trouble. Available to

電源ボタンB1及びRTHボタンB2の手前側(言い換えると、ユーザ側)には、リモートステータス表示部L1及びバッテリ残量表示部L2が配置される。リモートステータス表示部L1は、例えばLED(Light Emission Diode)を用いて構成され、送信機50と無人飛行体100との無線の接続状態を表示する。バッテリ残量表示部L2は、例えばLEDを用いて構成され、送信機50に内蔵されたバッテリ(不図示)の容量の残量を表示する。   A remote status display section L1 and a remaining battery level display section L2 are arranged in front of the power button B1 and the RTH button B2 (in other words, on the user side). The remote status display unit L1 is configured using, for example, an LED (Light Emission Diode), and displays a wireless connection state between the transmitter 50 and the unmanned aerial vehicle 100. The battery remaining amount display unit L2 is configured using, for example, an LED, and displays the remaining amount of capacity of a battery (not shown) built in the transmitter 50.

左制御棒53L及び右制御棒53Rより後側であって、かつ送信機50の筐体50Bの後方側面から、2つのアンテナAN1,AN2が突設して配置される。アンテナAN1,AN2は、ユーザの左制御棒53L及び右制御棒53Rの操作に基づき、送信機処理部61により生成された信号(つまり、無人飛行体100の移動を制御するための信号)を無人飛行体100に送信する。アンテナAN1,AN2は、例えば2kmの送受信範囲をカバーできる。また、アンテナAN1,AN2は、送信機50と無線接続中の無人飛行体100が有する撮像装置220−1,220−2により撮像された画像、又は無人飛行体100が取得した各種データが無人飛行体100から送信された場合に、これらの画像又は各種データを受信できる。   Two antennas AN1 and AN2 are arranged to protrude from the rear side surface of the housing 50B of the transmitter 50 on the rear side of the left control rod 53L and the right control rod 53R. The antennas AN1 and AN2 output the signal generated by the transmitter processing unit 61 (that is, the signal for controlling the movement of the unmanned aerial vehicle 100) based on the operation of the left control rod 53L and the right control rod 53R by the user. Transmit to the flying object 100. The antennas AN1 and AN2 can cover a transmission and reception range of, for example, 2 km. In addition, the antennas AN1 and AN2 are used to transmit images captured by the imaging devices 220-1 and 220-2 of the unmanned aerial vehicle 100 wirelessly connected to the transmitter 50 or various data acquired by the unmanned aerial vehicle 100 for unmanned flight. When transmitted from the body 100, these images or various data can be received.

タッチパネルディスプレイTPD1は、例えばLCD(Crystal Liquid Display)又は有機EL(Electroluminescence)を用いて構成される。タッチパネルディスプレイTPD1の形状、サイズ、及び配置位置は任意であり、図6の図示例に限られない。   The touch panel display TPD1 is configured using, for example, an LCD (Crystal Liquid Display) or an organic EL (Electroluminescence). The shape, size, and arrangement position of the touch panel display TPD1 are arbitrary, and are not limited to the illustrated example in FIG.

図6は、図1の形状生成システム10を構成する送信機50のハードウェア構成の一例を示すブロック図である。送信機50は、左制御棒53Lと、右制御棒53Rと、送信機処理部61と、無線通信部63と、メモリ64と、電源ボタンB1と、RTHボタンB2と、操作部セットOPSと、リモートステータス表示部L1と、バッテリ残量表示部L2と、タッチパネルディスプレイTPD1とを含む構成である。送信機50は、無人飛行体100を遠隔制御するための操作端末の一例である。   FIG. 6 is a block diagram illustrating an example of a hardware configuration of the transmitter 50 included in the shape generation system 10 of FIG. The transmitter 50 includes a left control rod 53L, a right control rod 53R, a transmitter processing unit 61, a wireless communication unit 63, a memory 64, a power button B1, an RTH button B2, an operation unit set OPS, The configuration includes a remote status display unit L1, a battery remaining amount display unit L2, and a touch panel display TPD1. The transmitter 50 is an example of an operation terminal for remotely controlling the unmanned aerial vehicle 100.

左制御棒53Lは、例えばユーザの左手により、無人飛行体100の移動を遠隔で制御するための操作に使用される。右制御棒53Rは、例えばユーザの右手により、無人飛行体100の移動を遠隔で制御するための操作に使用される。無人飛行体100の移動は、例えば前進する方向の移動、後進する方向の移動、左方向の移動、右方向の移動、上昇する方向の移動、下降する方向の移動、左方向に無人飛行体100を回転する移動、右方向に無人飛行体100を回転する移動のうちいずれか又はこれらの組み合わせであり、以下同様である。   The left control rod 53L is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100 by, for example, the left hand of the user. The right control rod 53R is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100 by, for example, the right hand of the user. The movement of the unmanned aerial vehicle 100 includes, for example, movement in a forward direction, movement in a backward direction, movement in a left direction, movement in a right direction, movement in a rising direction, movement in a descending direction, and movement in the left direction. , Or a movement of rotating the unmanned aerial vehicle 100 rightward, or a combination thereof, and so on.

電源ボタンB1は一度押下されると、一度押下された旨の信号が送信機処理部61に入力される。送信機処理部61は、この信号に従い、送信機50に内蔵されるバッテリ(不図示)の容量の残量をバッテリ残量表示部L2に表示する。これにより、ユーザは、送信機50に内蔵されるバッテリの容量の残量を簡単に確認できる。また、電源ボタンB1は二度押下されると、二度押下された旨の信号が送信機処理部61に渡される。送信機処理部61は、この信号に従い、送信機50に内蔵されるバッテリ(不図示)に対し、送信機50内の各部への電源供給を指示する。これにより、ユーザは、送信機50の電源がオンとなり、送信機50の使用を簡単に開始できる。   When the power button B1 is pressed once, a signal indicating that the power button B1 has been pressed once is input to the transmitter processing unit 61. According to this signal, the transmitter processing section 61 displays the remaining capacity of the battery (not shown) built in the transmitter 50 on the remaining battery level display section L2. Thus, the user can easily check the remaining capacity of the battery built in the transmitter 50. When the power button B1 is pressed twice, a signal indicating that the power button B1 has been pressed twice is passed to the transmitter processing unit 61. According to this signal, the transmitter processing unit 61 instructs a battery (not shown) built in the transmitter 50 to supply power to each unit in the transmitter 50. Thus, the user turns on the power of the transmitter 50 and can easily start using the transmitter 50.

RTHボタンB2は押下されると、押下された旨の信号が送信機処理部61に入力される。送信機処理部61は、この信号に従い、無人飛行体100に所定の位置(例えば無人飛行体100の離陸位置)に自動復帰させるための信号を生成し、無線通信部63及びアンテナAN1,AN2を介して無人飛行体100に送信する。これにより、ユーザは、送信機50に対する簡単な操作により、無人飛行体100を所定の位置に自動で復帰(帰還)させることができる。   When the RTH button B2 is pressed, a signal indicating that the RTH button B2 has been pressed is input to the transmitter processing unit 61. According to this signal, the transmitter processing unit 61 generates a signal for automatically returning the unmanned aerial vehicle 100 to a predetermined position (for example, the take-off position of the unmanned aerial vehicle 100), and controls the wireless communication unit 63 and the antennas AN1 and AN2. To the unmanned aerial vehicle 100 via the Thus, the user can automatically return (return) the unmanned aerial vehicle 100 to a predetermined position by a simple operation on the transmitter 50.

操作部セットOPSは、複数の操作部(例えば操作部OP1,…,操作部OPn)(n:2以上の整数)を用いて構成される。操作部セットOPSは、図5に示す左制御棒53L、右制御棒53R、電源ボタンB1及びRTHボタンB2を除く他の操作部(例えば、送信機50による無人飛行体100の遠隔制御を支援するための各種の操作部)により構成される。ここでいう各種の操作部とは、例えば、無人飛行体100の撮像装置220を用いた静止画の撮像を指示するボタン、無人飛行体100の撮像装置220を用いた動画の録画の開始及び終了を指示するボタン、無人飛行体100のジンバル200(図4参照)のチルト方向の傾きを調整するダイヤル、無人飛行体100のフライトモードを切り替えるボタン、無人飛行体100の撮像装置220の設定を行うダイヤルが該当する。   The operation unit set OPS is configured using a plurality of operation units (for example, operation units OP1,..., Operation unit OPn) (n: an integer of 2 or more). The operation unit set OPS supports remote control of the unmanned aerial vehicle 100 by the operation units other than the left control rod 53L, the right control rod 53R, the power button B1, and the RTH button B2 shown in FIG. Various operation units). The various operation units referred to herein include, for example, a button for instructing imaging of a still image using the imaging device 220 of the unmanned aerial vehicle 100, and starting and ending recording of a moving image using the imaging device 220 of the unmanned aerial vehicle 100 Button, a dial for adjusting the tilt of the gimbal 200 (see FIG. 4) of the unmanned aerial vehicle 100 in the tilt direction, a button for switching the flight mode of the unmanned aerial vehicle 100, and setting of the imaging device 220 of the unmanned aerial vehicle 100. Dial is applicable.

また、操作部セットOPSは、無人飛行体100のウェイポイントを生成するための入力パラメータの情報を入力するパラメータ操作部OPAを有する。パラメータ操作部OPAは、スティック、ボタン、キー、タッチパネル、等により形成されてよい。パラメータ操作部OPAは、左制御棒53L、右制御棒53Rにより形成されてよい。パラメータ操作部OPAにより入力パラメータに含まれる各パラメータを入力するタイミングは、全て同じでも異なってよい。   The operation unit set OPS has a parameter operation unit OPA for inputting information of input parameters for generating a waypoint of the unmanned aerial vehicle 100. The parameter operation unit OPA may be formed by a stick, a button, a key, a touch panel, and the like. The parameter operation unit OPA may be formed by the left control rod 53L and the right control rod 53R. The timing of inputting each parameter included in the input parameters by the parameter operation unit OPA may be the same or different.

リモートステータス表示部L1及びバッテリ残量表示部L2は、図5を参照して説明したので、ここでは説明を省略する。   Since the remote status display section L1 and the remaining battery level display section L2 have been described with reference to FIG. 5, the description is omitted here.

送信機処理部61は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。送信機処理部61は、送信機50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The transmitter processing unit 61 is configured using a processor (for example, a CPU, an MPU, or a DSP). The transmitter processing unit 61 performs signal processing for integrally controlling the operation of each unit of the transmitter 50, data input / output processing with other units, data arithmetic processing, and data storage processing.

無線通信部63は、2つのアンテナAN1,AN2と接続される。無線通信部63は、2つのアンテナAN1,AN2を介して、無人飛行体100との間で所定の無線通信方式(例えばWifi(登録商標))を用いた情報やデータの送受信を行う。無線通信部63は、送信機処理部61からの入力パラメータの情報を、無人飛行体100へ送信する。   The wireless communication unit 63 is connected to two antennas AN1 and AN2. The wireless communication unit 63 transmits and receives information and data to and from the unmanned aerial vehicle 100 via the two antennas AN1 and AN2 using a predetermined wireless communication method (for example, WiFi (registered trademark)). The wireless communication unit 63 transmits the information of the input parameters from the transmitter processing unit 61 to the unmanned aerial vehicle 100.

メモリ64は、例えば送信機処理部61の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、送信機処理部61の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ64のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。メモリ64のRAMには、例えば無人飛行体100の撮像装置220により撮像された空撮画像のデータが保存される。   The memory 64 stores, for example, a ROM (Read Only Memory) in which a program that defines the operation of the transmitter processing unit 61 and data of setting values are stored, and various information and data used in processing of the transmitter processing unit 61. And a RAM (Random Access Memory) for temporarily storing. The programs and the data of the setting values stored in the ROM of the memory 64 may be copied to a predetermined recording medium (for example, a CD-ROM or a DVD-ROM). The RAM of the memory 64 stores, for example, data of an aerial image captured by the imaging device 220 of the unmanned aerial vehicle 100.

タッチパネルディスプレイTPD1は、送信機処理部61により処理された各種データを表示してよい。タッチパネルディスプレイTPD1は、入力された入力パラメータの情報を表示する。従って、送信機50のユーザは、タッチパネルディスプレイTPD1を参照することで、入力パラメータの内容を確認できる。   The touch panel display TPD1 may display various data processed by the transmitter processing unit 61. Touch panel display TPD1 displays input parameter information that has been input. Therefore, the user of the transmitter 50 can confirm the contents of the input parameters by referring to the touch panel display TPD1.

なお、送信機50は、タッチパネルディスプレイTPD1を備える代わりに、端末装置と有線又は無線により接続されてよい。端末装置には、タッチパネルディスプレイTPD1と同様に、入力パラメータの情報が表示されてよい。端末装置は、スマートフォン、タブレット端末、PC(Personal Computer)等でよい。また、端末装置が入力パラメータの少なくとも1つを入力し、入力パラメータを有線通信又は無線通信で送信機50へ送り、送信機50の無線通信部63が無人飛行体100へ入力パラメータを送信してよい。   Note that the transmitter 50 may be connected to a terminal device by wire or wirelessly instead of including the touch panel display TPD1. The information of the input parameter may be displayed on the terminal device, similarly to the touch panel display TPD1. The terminal device may be a smartphone, a tablet terminal, a PC (Personal Computer), or the like. Further, the terminal device inputs at least one of the input parameters, sends the input parameters to the transmitter 50 by wire communication or wireless communication, and the wireless communication unit 63 of the transmitter 50 transmits the input parameters to the unmanned aerial vehicle 100. Good.

また、無人飛行体100の動作は、送信機50による操作に基づく場合以外に、後述するように、あらかじめ設定された飛行経路に沿って飛行し、撮像するものであってよい。   In addition, the operation of the unmanned aerial vehicle 100 may be one that flies along a preset flight path and captures an image, as described later, other than a case based on an operation by the transmitter 50.

以下において、本開示に係る形状生成システムにおける処理の各実施形態を図面と共に説明する。図7は、各実施形態の撮像範囲の一例を示す図である。本開示に係る形状生成システムの特徴を分かり易く説明するために、以下の各実施形態において、無人飛行体が図7に示すような長方形の地上形状(撮像範囲A)を空中撮像する際、建物、山などによって太陽光が遮断され形成された円形の陰が撮像範囲Aの中央から左寄りに存在する場合を例にとるが、実際はこれに限られない。本開示は、例えば室内環境の撮像において、家具や置物などにより照明が遮断される場合など、他のいかなるシチュエーションにも適用することができる。無論、撮像範囲は長方形以外の不規則かつ複雑な範囲であってよく、撮像範囲に含まれる陰の数量及びそれぞれの陰の形状も多様であってもよい。   Hereinafter, embodiments of processing in the shape generation system according to the present disclosure will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of an imaging range according to each embodiment. In order to easily explain the features of the shape generation system according to the present disclosure, in each of the following embodiments, when an unmanned aerial vehicle images a rectangular ground shape (imaging range A) as shown in FIG. The case where a circular shade formed by blocking sunlight due to a mountain or the like exists to the left from the center of the imaging range A is taken as an example, but is not limited to this. The present disclosure can be applied to any other situations, for example, in a case where illumination is blocked by furniture, a fixture, or the like in imaging of an indoor environment. Of course, the imaging range may be an irregular and complicated range other than a rectangle, and the number of shades included in the imaging range and the shape of each shade may be various.

(第1の実施形態)
図8は、第1の実施形態にかかる形状生成システムにおける処理を示すシーケンス図である。本実施形態における形状生成システムは、送信機50と、撮像装置220−1(撮像装置1)及び撮像装置220−2(撮像装置2)を備える無人飛行体100と、情報処理装置(例えばPC、タブレットなど)とが含まれている。
(1st Embodiment)
FIG. 8 is a sequence diagram illustrating processing in the shape generation system according to the first embodiment. The shape generation system according to the present embodiment includes a transmitter 50, an unmanned aerial vehicle 100 including an imaging device 220-1 (imaging device 1) and an imaging device 220-2 (imaging device 2), and an information processing device (for example, a PC, Tablet).

まず、送信機50が撮像装置1及び撮像位置(ウェイポイント)に関する情報を取得する(ステップS11)。ウェイポイントに関する情報は、撮像範囲A内にあらかじめ設定された飛行経路に基づいて確定した無人飛行体100が撮像動作を行う地図上の座標情報である。   First, the transmitter 50 acquires information on the imaging device 1 and the imaging position (waypoint) (step S11). The information on the waypoint is coordinate information on a map on which the unmanned aerial vehicle 100 performs an imaging operation determined based on a flight route set in advance in the imaging range A.

飛行経路は、送信機50や送信機50に接続された端末装置(スマートフォン、タブレット等)、あるいは他の端末装置が従来の手法により設定したものであり、例えば撮像範囲A内を最短距離で飛行する経路、最短時間で飛行する経路又はもっとも節電できる経路であってよい。   The flight path is set by the transmitter 50 or a terminal device (smartphone, tablet, or the like) connected to the transmitter 50 or another terminal device by a conventional method. Route, the route that flies in the shortest time, or the route that saves the most power.

ウェイポイントに関する情報には、例えば経度、緯度、高度の情報が含まれてよい。このとき、送信機50はその内蔵するメモリに記録されているウェイポイントに関する情報を取得してよいし、無線通信部63を介して、外部からウェイポイントに関する情報を取得してよい。   The information on the waypoint may include, for example, longitude, latitude, and altitude information. At this time, the transmitter 50 may acquire the information about the waypoint recorded in the built-in memory, or may acquire the information about the waypoint from the outside via the wireless communication unit 63.

図9は、撮像範囲Aにおける飛行経路及び複数の撮像位置を模式的に示す図である。図9に示すように、撮像範囲Aには24個のウェイポイントが飛行経路上に設けられている。すなわち、無人飛行体100は、後述する撮像処理(ステップS13)において、ウェイポイント1で1回目の撮像を行った後、矢印の方向に飛行し、ウェイポイント2を通過するときに2回目の撮像を行い、その後再び矢印の方向に飛行しウェイポイント3を通過するときに3回目の撮像を行う。このように、飛行と撮像を繰り返して、ウェイポイント24において24回目の撮像を行った後、空撮を終了する。   FIG. 9 is a diagram schematically illustrating a flight path and a plurality of imaging positions in the imaging range A. As shown in FIG. 9, 24 waypoints are provided on the flight path in the imaging range A. That is, the unmanned aerial vehicle 100 performs the first imaging at the waypoint 1 in the imaging processing (step S13) described later, then flies in the direction of the arrow, and performs the second imaging when passing the waypoint 2. After that, when flying in the direction of the arrow again and passing waypoint 3, the third imaging is performed. In this way, after the flight and the imaging are repeated and the 24th imaging is performed at the waypoint 24, the aerial imaging is ended.

なお、ウェイポイントは、隣接するウェイポイントにおける撮像画像がオーバーラップする間隔で設定されていることが好ましい。これにより、情報処理装置が取得された複数の画像から確実に撮像範囲Aの形状を復元するときに、撮像範囲Aにおける完全な形状を形成するための情報が不足することを回避することができる。   The waypoints are preferably set at intervals at which captured images at adjacent waypoints overlap. Thus, when the information processing apparatus surely restores the shape of the imaging range A from the plurality of acquired images, it is possible to avoid a shortage of information for forming a complete shape in the imaging range A. .

次に、各ウェイポイントで使用する撮像装置を選択する(ステップS12)。本実施形態において、無人飛行体100は、露光パラメータが異なる二つの撮像装置(撮像装置1、撮像装置2)を備えており、ウェイポイントごとに撮像装置1のみを使用して撮像すること、又は撮像装置2のみを使用して撮像すること、又は撮像装置1と撮像装置2を同時に使用して撮像することのいずれか一つを選択する。   Next, an imaging device used at each waypoint is selected (step S12). In the present embodiment, the unmanned aerial vehicle 100 includes two imaging devices (imaging device 1 and imaging device 2) having different exposure parameters, and performs imaging using only the imaging device 1 for each waypoint, or Either imaging using only the imaging device 2 or imaging using the imaging device 1 and the imaging device 2 at the same time is selected.

図10は、撮像装置を選択するステップ(ステップS12)の一例を示すフロー図である。図10に示すように、まずは当該ウェイポイントにおける撮像領域内の陰の部分が占める割合を取得する(ステップS121)。本実施形態において、撮像範囲Aには直射日光が当たる明部と建物などにより太陽の光が遮断されて形成される陰である暗部が含まれ、明暗差が大きい環境となっている。そこで、所定光量以下の部分を「陰の部分」と定義する。   FIG. 10 is a flowchart illustrating an example of the step of selecting an imaging device (step S12). As shown in FIG. 10, first, the ratio of the waypoint occupied by the shaded portion in the imaging area is obtained (step S121). In the present embodiment, the imaging range A includes a bright portion that is exposed to direct sunlight and a dark portion that is a shadow formed by blocking the sun's light by a building or the like, and has an environment with a large difference in brightness. Therefore, a portion equal to or less than the predetermined light amount is defined as a "shadow portion".

送信機50は、陰の部分が占める割合を光源の照射角度及び光源の遮断物に関する情報に基づいて推定することができる。   The transmitter 50 can estimate the ratio occupied by the shaded portion based on information on the irradiation angle of the light source and the obstacle of the light source.

本実施形態において、光源の照射角度とは太陽の照射角度を指す。送信機50は、例えば時刻情報と当該ウェイポイントの位置情報により太陽の照射角度を推定することができる。   In the present embodiment, the irradiation angle of the light source indicates the irradiation angle of the sun. The transmitter 50 can estimate the sun irradiation angle from the time information and the position information of the waypoint, for example.

この場合、送信機50は、時刻情報を例えば内蔵されているタイマから取得してよいし、GPS、インターネットなどを通じて外部から取得してよい。ウェイポイントの位置情報は、ステップS11において取得したウェイポイントに関する情報に含まれている経度、緯度、高度の情報であってよい。   In this case, the transmitter 50 may acquire the time information from, for example, a built-in timer, or may acquire the time information from outside via GPS, the Internet, or the like. The waypoint position information may be longitude, latitude, and altitude information included in the information on the waypoint acquired in step S11.

なお、光源の遮断物に関する情報は、例えば送信機50がインターネット上の3次元地図データベースを参照して、撮像領域の概略形状(例えば既存の標高地図など)を取得してよい。   As the information on the light source obstruction, for example, the transmitter 50 may obtain a schematic shape (for example, an existing elevation map) of the imaging region with reference to a three-dimensional map database on the Internet.

送信機50は、当該ウェイポイントにおいて陰の部分が占める割合を取得した後、当該割合に基づいて使用する撮像装置を選択する。   After acquiring the ratio of the shadow portion in the waypoint, the transmitter 50 selects an imaging device to be used based on the ratio.

具体的には、送信機50は、陰の部分が占める割合が30%(第1の閾値)以下である場合(ステップS122における「YES」)は、露光量が比較的低い露光パラメータを有する撮像装置1を選択する(ステップS123)。これにより、撮像領域のうち日向の部分が適正露出となる画像を取得することが期待できる。   Specifically, when the proportion occupied by the shadow portion is 30% or less (first threshold value) (“YES” in step S122), the transmitter 50 performs imaging with the exposure parameter having a relatively low exposure amount. The device 1 is selected (Step S123). Thereby, it can be expected that an image in which the sunlit portion of the imaging region is properly exposed is obtained.

一方、送信機50は、陰の部分が占める割合が70%(第2の閾値)を超える場合(ステップS124における「NO」)は、露光量が比較的高い露光パラメータを有する撮像装置2を選択する(ステップS125)。これにより、撮像領域のうち日陰の部分が適正露出となる画像を取得することが期待できる。   On the other hand, if the proportion occupied by the shadow portion exceeds 70% (the second threshold value) (“NO” in step S124), the transmitter 50 selects the imaging device 2 having an exposure parameter with a relatively high exposure amount. (Step S125). Thereby, it can be expected that an image in which the shaded portion of the imaging region is properly exposed is obtained.

さらに、送信機50は、陰の部分が占める割合が30%(第1の閾値)を超え、かつ70%(第2の閾値)以下である場合(ステップS124における「NO」)は、撮像装置1と撮像装置2の双方を選択する(ステップS126)。これにより、日陰の部分が適正露出となる画像と日向の部分が適正露出となる画像の双方を取得することが期待できる。   Further, if the ratio of the shadow portion exceeds 30% (first threshold value) and is 70% (second threshold value) or less (“NO” in step S124), the transmitter 50 sets the imaging device. 1 and the imaging device 2 are both selected (step S126). Thereby, it can be expected that both an image in which the shaded portion is properly exposed and an image in which the sunlit portion is properly exposed are obtained.

なお、上記の30%及び70%はそれぞれ第1の閾値、第2の閾値の一例にすぎず、実際は必要に応じて他の数値を設定してよい。   Note that the above 30% and 70% are merely examples of the first threshold value and the second threshold value, respectively. Actually, other numerical values may be set as necessary.

好ましくは、少なくとも一つのウェイポイントにおいて、送信機50が撮像装置1と撮像装置2の双方を選択するように第1の閾値及び第2の閾値が設定される。これにより、後述する撮像装置1が撮像した画像の特徴点により復元された形状と、撮像装置2が撮像した画像の特徴点により復元された形状の少なくとも一部がオーバーラップし、撮像された複数の画像間の位置関係を正確に識別することができるだけでなく、情報処理装置による復元に必要な情報が不足しないことが保証される。   Preferably, the first threshold and the second threshold are set so that the transmitter 50 selects both the imaging device 1 and the imaging device 2 in at least one waypoint. As a result, at least a part of the shape restored by the characteristic points of the image captured by the imaging device 1 described later and the shape restored by the characteristic points of the image captured by the imaging device 2 overlap, and a plurality of captured images Not only can accurately identify the positional relationship between the images, but also it is ensured that the information necessary for restoration by the information processing apparatus is not insufficient.

図11は、各ウェイポイントにおいて撮像装置が選択された状態を模式的に示す図である。図11において、撮像装置1が選択された場合は「○」と示しており、撮像装置2が選択された場合は「□」と示している。   FIG. 11 is a diagram schematically illustrating a state where an imaging device is selected at each waypoint. In FIG. 11, when the imaging device 1 is selected, it is indicated by “○”, and when the imaging device 2 is selected, it is indicated by “□”.

図11に示すように、送信機50は、ウェイポイント1〜7,11〜14,18〜24は日向の部分であり、陰の部分が占める割合が30%以下であるため、撮像装置1を選択する。ウェイポイント8,10,15,17は日陰と日向の境界線上にあり、日陰の部分が30%を超え、かつ70%以下であるため、撮像装置1と撮像装置2の双方を選択する。ウェイポイント9,16は日陰に入っており、陰の部分が占める割合が70%を超えるため、撮像装置2を選択する。   As shown in FIG. 11, the transmitter 50 uses the image capturing apparatus 1 because the waypoints 1 to 7, 11 to 14, and 18 to 24 are sunlit portions and the proportion occupied by the shaded portions is 30% or less. select. Since the waypoints 8, 10, 15, and 17 are on the boundary between the shade and the sun, and the shaded portion exceeds 30% and is 70% or less, both the imaging device 1 and the imaging device 2 are selected. The waypoints 9 and 16 are in the shade, and the ratio of the shaded portion exceeds 70%, so that the imaging device 2 is selected.

各ウェイポイントについて使用する撮像装置が選択された(ステップS12)後、図8に戻り、送信機50は、選択された結果に基づいて、ウェイポイントごとの撮像装置に関する情報を生成し、ウェイポイントに関する情報と各ウェイポイントにおいて使用する撮像装置に関する情報を無人飛行体100に送信する。   After the imaging device to be used for each waypoint is selected (step S12), returning to FIG. 8, the transmitter 50 generates information on the imaging device for each waypoint based on the selected result, and The information about the imaging device used at each waypoint and the information about the imaging device used at each waypoint are transmitted to the unmanned aerial vehicle 100.

ウェイポイントに関する情報と各ウェイポイントにおいて使用する撮像装置に関する情報は、送信機50が無線または有線の通信方式により無人飛行体100に送信してよい。また、送信機50がこれらの情報をメモリーカードなどの記憶媒体に記録して、その記憶媒体を無人飛行体に挿入するなどの他のいかなる方法により伝送してよい。   The information on the waypoints and the information on the imaging device used in each waypoint may be transmitted by the transmitter 50 to the unmanned aerial vehicle 100 by a wireless or wired communication method. Further, the transmitter 50 may record such information on a storage medium such as a memory card and transmit the information by any other method such as inserting the storage medium into an unmanned aerial vehicle.

無人飛行体100は、ウェイポイントに関する情報と各ウェイポイントにおいて使用する撮像装置に関する情報をそれぞれ受信した後、飛行経路に沿って飛行し、各ウェイポイントにおいて選択された撮像装置を用いて撮像を行う(ステップS13)。   The unmanned aerial vehicle 100 flies along the flight path after receiving information on the waypoints and information on the imaging device used at each waypoint, and performs imaging using the imaging device selected at each waypoint. (Step S13).

好ましくは、無人飛行体100はその移動中に(すなわち、ウェイポイントに到達した時点で停止せずに)撮像を行う。これにより、無人飛行体100は、空撮時間を短縮することができるだけでなく、無人飛行体100を停止、再起動させるための電力を節約することもできる。   Preferably, the unmanned aerial vehicle 100 captures an image during its movement (that is, without stopping when the waypoint is reached). Thereby, the unmanned aerial vehicle 100 can not only shorten the aerial photographing time, but also save electric power for stopping and restarting the unmanned aerial vehicle 100.

無人飛行体100はステップS13において撮像された画像を、撮像装置ごとに、撮像装置に内蔵されたメモリまたは無人飛行体に内蔵されているメモリに記憶することが好ましい。   It is preferable that the unmanned aerial vehicle 100 stores the image captured in step S13 in a memory built in the imaging device or a memory built in the unmanned aerial vehicle for each imaging device.

無人飛行体100は、空撮が終わると、撮像した画像を情報処理装置に送信する。   When the aerial photography ends, the unmanned aerial vehicle 100 transmits the captured image to the information processing device.

これらの画像は、無人飛行体100が無線または有線の通信方式により情報処理装置に送信されてよいし、無人飛行体100がメモリーカードなどの記憶媒体に記録して、その記憶媒体を情報処理装置に挿入するなどの他のいかなる方法により伝送してよい。   These images may be transmitted by the unmanned aerial vehicle 100 to the information processing device by a wireless or wired communication method, or the unmanned aerial vehicle 100 may record the image on a storage medium such as a memory card and store the storage medium in the information processing device. May be transmitted by any other method, such as insertion into the

画像を受信した情報処理装置は、撮像装置ごとに、SFM(Structure from Motion)などの従来の手法により被写体の形状を復元する(ステップS14)。   The information processing apparatus that has received the image restores the shape of the subject by a conventional method such as SFM (Structure from Motion) for each imaging apparatus (step S14).

図12は、撮像装置ごとに形状を復元し、形成することを模式的に示す図である。図12に示すように、撮像装置1により撮像した画像を形状復元すると、日向の部分及び日陰と日向の境界線付近が正常に復元され、日陰の深い部分の情報が欠如している(左側の形状のBを参照)。これは、ウェイポイント9、16のような陰の部分が占める割合が70%を超える場合には、撮像装置1で撮像してないため、情報が不足しているからである。その反面、B以外の部分では特徴点が効率よく検出され、正常に復元できる。   FIG. 12 is a diagram schematically illustrating restoring and forming a shape for each imaging device. As shown in FIG. 12, when the shape of the image captured by the imaging device 1 is restored, the sunlit portion and the vicinity of the boundary between the shade and the sun are normally restored, and the information of the deep shaded portion is missing (the left side). (See shape B). This is because when the ratio of shadow portions such as the waypoints 9 and 16 exceeds 70%, the image is not captured by the image capturing apparatus 1 and the information is insufficient. On the other hand, feature points are efficiently detected in portions other than B and can be restored normally.

一方、撮像装置2により撮像した画像を形状復元すると、日陰の部分及び日陰と日向の境界線付近が正常に復元され、日向の部分の情報が欠如している(右側の形状のB参照)。これは、撮像装置2がウェイポイント8〜10及びウェイポイント15〜17のような日陰の部分が30%を超える場合のみにおいて選択されているからである。その反面、B以外の部分では、特徴点が効率よく検出され、正常に復元できる。   On the other hand, when the shape of the image captured by the imaging device 2 is restored, the shaded portion and the vicinity of the boundary between the shade and the sun are normally restored, and information on the sunlit portion is missing (see B in the shape on the right). This is because the image capturing apparatus 2 is selected only when the shaded portion such as the waypoints 8 to 10 and the waypoints 15 to 17 exceeds 30%. On the other hand, in portions other than B, the feature points are efficiently detected and can be restored normally.

最後に、情報処理装置は、復元された二つの形状を合成する(ステップS15)。これにより、情報が不足する部分Bが互いに補われ、撮像範囲A全体の形状が生成される。   Finally, the information processing device combines the two restored shapes (step S15). As a result, the portions B for which information is insufficient are complemented with each other, and the shape of the entire imaging range A is generated.

このとき、撮像装置1と撮像装置2の双方が選択されるウェイポイントが存在するため、撮像装置1によって撮像された画像に基づいて復元された形状と、撮像装置2によって撮像された画像に基づいて復元された形状とで、日陰と日向の境界線付近ではオーバーラップしている。これにより、合成された形状は、情報不足が発生することなく、図12におけるBのような欠如部分の発生を防止することができ、高精度な形状が保証される。   At this time, since there is a waypoint in which both the imaging device 1 and the imaging device 2 are selected, the shape restored based on the image captured by the imaging device 1 and the waypoint based on the image captured by the imaging device 2 With the restored shape, they overlap near the boundary between the shade and the sun. Thus, the synthesized shape can prevent the occurrence of a missing portion such as B in FIG. 12 without causing information shortage, and a highly accurate shape is guaranteed.

なお、無人飛行体100は、図8の破線で示すように、撮像された画像を送信機50に送信してもよい。この場合、送信機50が撮像装置ごとに被写体の形状を復元し(ステップS14´)、復元された形状を合成する(ステップS15´)。このときの復元・合成に関する具体的な説明は、先述した画像を情報処理装置に送信した場合のそれぞれの処理(ステップS14,S15)と同一であるため、割愛する。   Note that the unmanned aerial vehicle 100 may transmit the captured image to the transmitter 50 as shown by the broken line in FIG. In this case, the transmitter 50 restores the shape of the subject for each imaging device (step S14 ') and combines the restored shape (step S15'). A detailed description of the restoration / synthesis at this time is the same as that of each process (steps S14 and S15) when the above-described image is transmitted to the information processing apparatus, and thus will not be described.

(第2の実施形態)
第1の実施形態では、送信機50が各ウェイポイントについて撮像に用いる撮像装置を選択するものであった。第2の実施形態は、無人飛行体100が上記撮像装置を選択する点で第1の実施形態と異なる。便宜上、第1の実施形態と重複する部分は、説明を割愛する。
(Second embodiment)
In the first embodiment, the transmitter 50 selects an imaging device to be used for imaging for each waypoint. The second embodiment is different from the first embodiment in that the unmanned aerial vehicle 100 selects the imaging device. For the sake of convenience, the description of the parts that overlap with the first embodiment will be omitted.

図13は、第2の実施形態にかかる形状生成システムにおける処理を示すシーケンス図である。   FIG. 13 is a sequence diagram illustrating processing in the shape generation system according to the second embodiment.

まず、送信機50は、撮像装置1及び撮像位置(ウェイポイント)に関する情報を取得する(ステップS21)。   First, the transmitter 50 acquires information on the imaging device 1 and the imaging position (waypoint) (Step S21).

その後、送信機50はウェイポイントに関する情報を無人飛行体100に送信する。ウェイポイントに関する情報は、送信機50が無線または有線の通信方式により直接無人飛行体100に送信してもよいし、送信機50においてメモリーカードなどの記憶媒体に記録して、その記憶媒体を無人飛行体に挿入するなどの他のいかなる方法により伝送してよい。   Thereafter, the transmitter 50 transmits information on the waypoint to the unmanned aerial vehicle 100. The information on the waypoints may be transmitted directly to the unmanned aerial vehicle 100 by the transmitter 50 by a wireless or wired communication method, or may be recorded on a storage medium such as a memory card in the transmitter 50, and the storage medium may be unmanned. Transmission may be by any other method, such as insertion into a vehicle.

無人飛行体100は、ウェイポイントに関する情報を受信した後に、当該ウェイポイントにおいて陰の部分が占める割合を取得し、当該割合に基づいて使用する撮像装置を選択する(ステップS22)。   After receiving the information on the waypoint, the unmanned aerial vehicle 100 acquires the ratio occupied by the shadow portion in the waypoint, and selects an imaging device to be used based on the ratio (step S22).

このとき、当該ウェイポイントにおいて陰の部分が占める割合の一つ目の取得方法として、無人飛行体は、当該ウェイポイントにおいて陰の部分が占める割合を、光源の照射角度及び光源の遮断物に関する情報に基づいて推定することができる。   At this time, as a first acquisition method of the proportion occupied by the shaded portion in the waypoint, the unmanned aerial vehicle measures the proportion occupied by the shaded portion in the waypoint by using the information regarding the irradiation angle of the light source and the light source blockage. Can be estimated based on

本実施形態において、光源の照射角度とは太陽の照射角度を指すが、例えば無人飛行体100は、時刻情報と当該ウェイポイントの位置情報により推定することができる。   In the present embodiment, the irradiation angle of the light source refers to the irradiation angle of the sun. For example, the unmanned aerial vehicle 100 can be estimated from the time information and the position information of the waypoint.

この場合、無人飛行体100は時刻情報をそのタイマ270から取得してよいし、GPS、インターネットなどを通じて外部から取得してよい。ウェイポイントの位置情報は、ステップS21において取得したウェイポイントに関する情報に含まれている経度、緯度、高度の情報であってよい。   In this case, the unmanned aerial vehicle 100 may acquire the time information from the timer 270, or may acquire the time information from outside via GPS, the Internet, or the like. The waypoint location information may be longitude, latitude, and altitude information included in the information about the waypoint acquired in step S21.

光源の遮断物に関する情報は、例えば無人飛行体100がインターネット上の3次元地図データベースを参照して、撮像領域の概略形状(例えば既存の標高地図など)を取得してよい。   The information relating to the obstacle of the light source may be obtained, for example, by the unmanned aerial vehicle 100 referring to a three-dimensional map database on the Internet to obtain a schematic shape (for example, an existing altitude map) of the imaging region.

当該ウェイポイントにおいて陰の部分が占める割合の二つ目の取得方法として、無人飛行体100は、飛行経路に沿って飛行し、露光計などの光学センサ260により撮像時のウェイポイントにおける撮像領域の光量を測定する。   As a second method of obtaining the ratio of the shaded portion occupying the waypoint, the unmanned aerial vehicle 100 flies along the flight path and uses the optical sensor 260 such as a light meter to capture the image area of the waypoint at the time of imaging. Measure the light intensity.

このとき、無人飛行体100は、飛行時に継続的に撮像領域の光量を測定し、撮像時までにウェイポイントにおける陰の部分が占める割合を推定してよい。また、各ウェイポイントに到着するタイミング(到着する寸前のタイミングでよい)に光量を測定してよい。   At this time, the unmanned aerial vehicle 100 may continuously measure the amount of light in the imaging region during the flight, and estimate the proportion of the shadow portion in the waypoint by the time of imaging. Further, the light quantity may be measured at the timing of arriving at each waypoint (the timing just before arriving may be used).

無人飛行体100は、ウェイポイントにおける陰の部分が占める割合に基づいて使用する撮像装置を選択した後、(ステップS22)、各ウェイポイントにおいて選択された撮像装置により撮像する(ステップS23)。   The unmanned aerial vehicle 100 selects an imaging device to be used based on the ratio of the shaded portion in the waypoint (Step S22), and then captures an image using the imaging device selected in each waypoint (Step S23).

ステップS23において撮像された画像は、撮像装置ごとに、撮像装置に内蔵されたメモリまたは無人飛行体100に内蔵されているメモリ160に記憶される。   The image captured in step S23 is stored in the memory built in the imaging device or the memory 160 built in the unmanned aerial vehicle 100 for each imaging device.

無人飛行体100は、空撮が終わると、撮像装置に記憶された画像を情報処理装置に送信する。   When the aerial photography ends, the unmanned aerial vehicle 100 transmits the image stored in the imaging device to the information processing device.

これらの画像は、無人飛行体100が無線または有線の通信方式により情報処理装置に送信してよいし、無人飛行体100でメモリーカードなどの記憶媒体に記録して、その記憶媒体を情報処理装置に挿入するなどの他のいかなる方法により伝送してよい。   These images may be transmitted by the unmanned aerial vehicle 100 to the information processing device by a wireless or wired communication method, or may be recorded on a storage medium such as a memory card by the unmanned aerial vehicle 100 and the storage medium may be transmitted to the information processing device. May be transmitted by any other method, such as insertion into the

画像を受信した情報処理装置は、撮像装置ごとに、SFM(Structure from Motion)などの従来の手法により被写体の形状を復元し(ステップS24)、最後に復元された二つの形状を合成する(ステップS25)。これにより、情報が不足する部分Bが互いに補われ、撮像範囲A全体の形状が生成される。   The information processing apparatus that has received the image restores the shape of the subject by a conventional method such as SFM (Structure from Motion) for each imaging apparatus (Step S24), and combines the two restored shapes last (Step S24). S25). As a result, the portions B for which information is insufficient are complemented with each other, and the shape of the entire imaging range A is generated.

以上において、送信機50、無人飛行体100、情報処理装置が含まれる形状生成システムを説明したが、実際はこれらの構成に限らない。無人飛行体100に備えられている撮像装置の個数も2つに限らず、より多く備えていてよい。   In the above, the shape generation system including the transmitter 50, the unmanned aerial vehicle 100, and the information processing device has been described, but the configuration is not actually limited to these configurations. The number of imaging devices provided in the unmanned aerial vehicle 100 is not limited to two, and may be provided more.

上記の各実施形態において、送信機50で実行される処理は、他のいかなる形式のモバイルプラットフォーム、情報処理装置で実行してよい。また、これらの処理は無人飛行体100自身が実行してよい。   In each of the above embodiments, the process executed by the transmitter 50 may be executed by any other type of mobile platform or information processing device. Further, these processes may be executed by the unmanned aerial vehicle 100 itself.

上記の各実施形態において無人飛行体100で実行される処理は、他のいかなる撮像機能を備えた移動体で実行してよい。   The processing executed by the unmanned aerial vehicle 100 in each of the above embodiments may be executed by a moving object having any other imaging function.

上記の各実施形態において、情報処理装置で実行される処理は、スマートフォン、タブレット等の他の情報処理装置で実行されてもよく、無人飛行体100自身が実行してよい。   In each of the above embodiments, the process executed by the information processing device may be executed by another information processing device such as a smartphone or a tablet, or may be executed by the unmanned aerial vehicle 100 itself.

各実施形態に係る形状生成システムにおける処理は全体として本開示の形状生成方法を構成し、送信機50が実行する処理は本開示に係るモバイルプラットフォームにおける形状生成方法を構成し、無人飛行体100が実行する処理は、本開示に係る形状生成のための飛行体における画像取得方法を構成する。   The processing in the shape generation system according to each embodiment constitutes the shape generation method of the present disclosure as a whole, and the processing executed by the transmitter 50 constitutes the shape generation method in the mobile platform according to the present disclosure. The processing to be executed constitutes an image acquisition method in a flying object for shape generation according to the present disclosure.

形状生成システムにおける処理(ステップ)のうち、プロポが実行する処理(ステップ)は、送信機50の送信機処理部61において実行し、ドローンが実行する処理(ステップ)は、無人飛行体100のUAV処理部110において実行してよい。   Among the processes (steps) in the shape generation system, the process (step) performed by the transmitter is performed in the transmitter processing unit 61 of the transmitter 50, and the process (step) performed by the drone is performed by the UAV of the unmanned aerial vehicle 100. The processing may be executed in the processing unit 110.

このとき、コンピュータである送信機50に、形状生成方法のうちプロポが実行する処理(ステップ)を実行させるプログラムを送信機処理部61により実行させてよい。このプログラムは、メモリ64又は他の記憶媒体に格納されてよい。   At this time, the transmitter processing unit 61 may cause the transmitter 50, which is a computer, to execute a program for executing a process (step) executed by the transmitter in the shape generation method. This program may be stored in the memory 64 or another storage medium.

同じく、コンピュータである無人飛行体100に、形状生成方法のうちドローンが実行する処理(ステップ)を実行させるプログラムをUAV処理部110に実行させてよい。このプログラムは、メモリ160又は他の記憶媒体に格納されてよい。   Similarly, the UAV processing unit 110 may execute a program that causes the unmanned aerial vehicle 100, which is a computer, to execute a process (step) executed by the drone in the shape generation method. This program may be stored in the memory 160 or another storage medium.

本開示に係る形状生成方法、画像取得方法、モバイルプラットフォーム、飛行体、プログラム及び記録媒体によれば、撮像装置のダイナミックレンジにとらわれず、明暗差が大きい環境においても高精度な形状生成が可能となる。   According to the shape generation method, the image acquisition method, the mobile platform, the flying object, the program, and the recording medium according to the present disclosure, it is possible to generate a high-precision shape even in an environment with a large difference in brightness, regardless of the dynamic range of the imaging device. Become.

また、本開示に係る形状生成方法、画像取得方法、モバイルプラットフォーム、飛行体、プログラム及び記録媒体によれば、飛行体が飛行経路上で停止することなく、移動しながら撮像することができ、空撮時間の短縮及び省電力を図ることができる。   According to the shape generation method, the image acquisition method, the mobile platform, the flying object, the program, and the recording medium according to the present disclosure, the flying object can be imaged while moving without stopping on the flight path, The photographing time can be reduced and power consumption can be reduced.

さらに、本開示に係る形状生成方法、画像取得方法、モバイルプラットフォーム、飛行体、プログラム及び記録媒体によれば、ウェイポイントの数量が多い場合でであっても高い効率で形状形成することができる。例えば、上記の各実施形態のように、撮像装置が2つある場合は、復元動作を2回行ったあと、合成動作を1回行えばよく、従来のHDRのようにすべてのウェイポイントにおいて一回ずつ画像を合成する必要がない。   Further, according to the shape generation method, the image acquisition method, the mobile platform, the flying object, the program, and the recording medium according to the present disclosure, the shape can be formed with high efficiency even when the number of waypoints is large. For example, when there are two imaging devices as in each of the above-described embodiments, it is only necessary to perform the restoration operation twice and then perform the combining operation once. There is no need to combine images each time.

以上、本開示について実施の形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施の形態に記載の範囲には限定されない。上述した実施の形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As described above, the present disclosure has been described using the embodiments, but the technical scope of the present invention according to the present disclosure is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above-described embodiment. It is apparent from the description of the claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each processing such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before”, “before”. And the like, and can be realized in any order as long as the output of the previous process is not used in the subsequent process. Even if the operation flow in the claims, the specification, and the drawings is described using “first”, “next”, and the like for convenience, it means that it is essential to implement in this order is not.

10 形状生成システム
50 送信機
61 送信機処理部
63 無線通信部
64 メモリ
100 無人飛行体
102 UAV本体
110 UAV処理部
150 通信インタフェース
160 メモリ
220−1 撮像装置
220−2 撮像装置
Reference Signs List 10 shape generation system 50 transmitter 61 transmitter processing unit 63 wireless communication unit 64 memory 100 unmanned aerial vehicle 102 UAV main body 110 UAV processing unit 150 communication interface 160 memory 220-1 imaging device 220-2 imaging device

Claims (36)

複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと、
各撮像位置において前記選択された撮像装置により撮像するステップと、
前記撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元するステップと、
前記撮像装置ごとに復元された前記形状を合成するステップと、を有し、
前記撮像装置を選択するステップは、
当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択するステップを含む、
形状生成方法。
Obtaining information on a plurality of imaging positions of a flying object having a plurality of imaging devices;
From the plurality of imaging devices, selecting an imaging device to be used for imaging for each of the plurality of imaging positions,
Imaging by the selected imaging device at each imaging position;
For each of the imaging devices, restoring the shape of the subject based on the captured image,
Synthesizing the restored shape for each imaging device,
The step of selecting the imaging device,
Based on a ratio of a portion occupied by a predetermined amount of light or less in an imaging region at the imaging position, including selecting at least one imaging device from the plurality of imaging devices.
Shape generation method.
前記少なくとも一つの撮像装置を選択するステップは、
前記割合が第1の閾値以下である場合は、第1の撮像装置を選択するステップと、
前記割合が第1の閾値より大きい第2の閾値を超える場合は、前記第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択するステップと、
前記割合が前記第1の閾値を超えかつ前記第2の閾値以下である場合は、前記第1の撮像装置及び前記第2の撮像装置の双方を選択するステップと、を含む、
請求項1に記載の形状生成方法。
Selecting the at least one imaging device,
If the ratio is equal to or less than a first threshold, selecting a first imaging device;
When the ratio exceeds a second threshold that is larger than the first threshold, selecting a second imaging device for which an exposure parameter higher than the first imaging device is set;
If the ratio is greater than the first threshold and less than or equal to the second threshold, selecting both the first imaging device and the second imaging device.
The shape generation method according to claim 1.
複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと
前記複数の撮像位置に関する情報と、それぞれの撮像位置について前記選択された撮像装置に関する情報とを前記飛行体に送信するステップと、
を有するモバイルプラットフォームにおける形状生成方法において、
前記撮像装置を選択するステップは、
当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択するステップを含む、
形状生成方法。
Obtaining information on a plurality of imaging positions of a flying object having a plurality of imaging devices;
Selecting, from the plurality of imaging devices, an imaging device to be used for imaging for each of the plurality of imaging positions; information on the plurality of imaging positions; and information on the selected imaging device for each imaging position. Transmitting to the flying vehicle;
In a shape generation method on a mobile platform having
The step of selecting the imaging device,
Based on a ratio of a portion occupied by a predetermined amount of light or less in an imaging region at the imaging position, including selecting at least one imaging device from the plurality of imaging devices.
Shape generation method.
前記少なくとも一つの撮像装置を選択するステップは、
前記割合が第1の閾値以下である場合は、第1の撮像装置を選択するステップと、
前記割合が第1の閾値より大きい第2の閾値を超える場合は、前記第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択するステップと、
前記割合が前記第1の閾値を超えかつ前記第2の閾値以下である場合は、前記第1の撮像装置及び前記第2の撮像装置の双方を選択するステップと、を含む、
請求項3に記載の形状生成方法。
Selecting the at least one imaging device,
If the ratio is equal to or less than a first threshold, selecting a first imaging device;
When the ratio exceeds a second threshold that is larger than the first threshold, selecting a second imaging device for which an exposure parameter higher than the first imaging device is set;
If the ratio is greater than the first threshold and less than or equal to the second threshold, selecting both the first imaging device and the second imaging device.
The shape generation method according to claim 3.
各撮像位置において前記選択された撮像装置により撮像された画像を前記飛行体から取得するステップと、
前記撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元するステップと、
前記撮像装置ごとに復元された前記形状を合成するステップと、をさらに含む、
請求項3又は4に記載の形状生成方法。
Obtaining an image taken by the selected imaging device at each imaging position from the flying object;
For each of the imaging devices, restoring the shape of the subject based on the captured image,
Synthesizing the restored shape for each of the imaging devices, further comprising:
The shape generation method according to claim 3.
前記撮像装置を選択するステップは、
前記複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択する、
請求項3〜5のうちいずれか一項に記載の形状生成方法。
The step of selecting the imaging device,
At least one of the plurality of imaging positions selects a plurality of imaging devices,
The shape generation method according to claim 3.
前記撮像装置を選択するステップは、
光源の照射角度に関する情報を取得するステップと、
それぞれの前記撮像位置における前記光源の遮断物に関する情報を取得するステップと、
前記光源の照射角度に関する情報とそれぞれの前記撮像位置における前記光源の遮断物に関する情報とに基づいて、前記撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、を含む、
請求項3〜6のうちいずれか一項に記載の形状生成方法。
The step of selecting the imaging device,
Obtaining information on the irradiation angle of the light source;
Obtaining information on the obstruction of the light source at each of the imaging positions;
Estimating, based on information about the irradiation angle of the light source and information about the obstruction of the light source at each of the imaging positions, a ratio occupied by a portion having a predetermined light amount or less in an imaging region at the imaging position. ,
The shape generation method according to any one of claims 3 to 6.
前記光源の照射角度に関する情報を取得するステップは、
時刻情報及び前記撮像位置の地理情報を取得するステップと、
前記時刻情報及び前記地理情報を用いて、前記光源の照射角度に関する情報を推定するステップと、を含む、
請求項7に記載の形状生成方法。
The step of acquiring information on the irradiation angle of the light source,
Obtaining time information and geographic information of the imaging position;
Using the time information and the geographic information, estimating information about the irradiation angle of the light source,
The shape generation method according to claim 7.
複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から選択された、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、
前記複数の撮像位置のそれぞれについて、取得された前記撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、
を有する、形状生成のための飛行体における画像取得方法において、
前記撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である、
画像取得方法。
Obtaining information on a plurality of imaging positions of a flying object having a plurality of imaging devices;
Obtaining information on an imaging device used for imaging for each of the plurality of imaging positions selected from the plurality of imaging devices;
For each of the plurality of imaging positions, imaging using an imaging device corresponding to the information on the acquired imaging device used for the imaging,
In the image acquisition method in a flying object for shape generation having
The information on the imaging device used for the imaging is generated based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position, in accordance with selection of at least one imaging device from the plurality of imaging devices. Information,
Image acquisition method.
前記撮像に用いる撮像装置に関する情報を取得するステップは、
前記複数の撮像位置のそれぞれについて、前記撮像に用いる撮像装置に関する情報をモバイルプラットフォームから受信するステップを含む、
請求項9に記載の画像取得方法。
The step of acquiring information on the imaging device used for the imaging,
For each of the plurality of imaging positions, including receiving information about an imaging device used for the imaging from a mobile platform,
The image acquisition method according to claim 9.
前記撮像に用いる撮像装置に関する情報を取得するステップは、
前記それぞれの撮像位置について、
撮像時の当該撮像位置における撮像領域の光量を測定するステップと、
前記光量に基づき、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、
前記割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択して、前記撮像に用いる撮像装置に関する情報を生成するステップと、を含む、
請求項9に記載の画像取得方法。
The step of acquiring information on the imaging device used for the imaging,
For each of the imaging positions,
Measuring the amount of light in the imaging area at the imaging position during imaging,
Estimating, based on the light amount, a ratio occupied by a portion having a predetermined light amount or less in an imaging region at the imaging position;
Selecting at least one imaging device from the plurality of imaging devices based on the ratio, and generating information on the imaging device used for the imaging,
The image acquisition method according to claim 9.
前記撮像に用いる撮像装置に関する情報を取得するステップは、
前記それぞれの撮像位置について、
光源の照射角度に関する情報を取得するステップと、
前記撮像位置における前記光源の遮断物に関する情報を取得するステップと、
前記光源の照射角度に関する情報と前記撮像位置における前記光源の遮断物に関する情報とに基づいて、前記撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定するステップと、
前記割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択して前記撮像に用いる撮像装置に関する情報を生成するステップと、を含む、
請求項9に記載の画像取得方法。
The step of acquiring information on the imaging device used for the imaging,
For each of the imaging positions,
Obtaining information on the irradiation angle of the light source;
Obtaining information on the obstacle of the light source at the imaging position;
Based on the information on the irradiation angle of the light source and the information on the obstruction of the light source at the imaging position, estimating a ratio occupied by a portion having a predetermined light amount or less in the imaging region at the imaging position,
Based on the ratio, selecting at least one imaging device from the plurality of imaging devices to generate information on the imaging device used for the imaging,
The image acquisition method according to claim 9.
前記光源の照射角度に関する情報を取得するステップは、
時刻情報及び前記撮像位置の地理情報を取得するステップと、
前記時刻情報及び前記地理情報を用いて、前記光源の照射角度に関する情報を推定するステップと、を含む、
請求項12に記載の画像取得方法。
The step of acquiring information on the irradiation angle of the light source,
Obtaining time information and geographic information of the imaging position;
Using the time information and the geographic information, estimating information about the irradiation angle of the light source,
The image acquisition method according to claim 12.
前記撮像に用いる撮像装置に関する情報は、
それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合が第1の閾値以下である場合は、第1の撮像装置が選択され、前記割合が第1の閾値より大きい第2の閾値を超える場合は、前記第1の撮像装置より高い露光パラメータが設定された第2の撮像装置が選択され、前記割合が前記第1の閾値を超えかつ前記第2の閾値以下である場合は、前記第1の撮像装置及び前記第2の撮像装置の双方が選択されて生成される、
請求項9〜13のうちいずれか一項に記載の画像取得方法。
Information on the imaging device used for the imaging,
If the ratio occupied by a portion having a predetermined light amount or less in the imaging area at each imaging position is equal to or less than the first threshold, the first imaging device is selected, and the second ratio is higher than the first threshold. Is greater than the first imaging device, a second imaging device set with a higher exposure parameter than the first imaging device is selected, and if the ratio is greater than the first threshold and less than or equal to the second threshold, Both the first imaging device and the second imaging device are selected and generated,
The image acquisition method according to any one of claims 9 to 13.
前記撮像に用いる撮像装置に関する情報は、
前記複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択されて生成される、
請求項9〜14のうちいずれか一項に記載の画像取得方法。
Information on the imaging device used for the imaging,
At least one of the plurality of imaging positions is generated by selecting a plurality of imaging devices,
The image acquisition method according to any one of claims 9 to 14.
前記撮像装置を用いて撮像するステップは、
前記飛行体の移動中に、前記複数の撮像位置のそれぞれについて、前記取得された撮像に用いる撮像装置に関する情報により特定された撮像装置を用いて撮像するステップを含む、
請求項9〜15のうちいずれか一項に記載の画像取得方法。
The step of imaging using the imaging device,
During the movement of the flying object, for each of the plurality of imaging positions, including imaging using an imaging device identified by information on the imaging device used for the acquired imaging,
The image acquisition method according to claim 9.
前記複数の撮像位置において撮像された画像を、前記形状生成を行う情報処理装置に送信するステップをさらに含む、
請求項9〜16のうちいずれか一項に記載の画像取得方法。
The method further includes transmitting images captured at the plurality of image capturing positions to an information processing device that performs the shape generation.
The image acquisition method according to any one of claims 9 to 16.
飛行体との通信を行う通信部と、処理部と、を有するモバイルプラットフォームにおいて、
前記処理部は、
複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得し、
前記複数の撮像装置の中から、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択し、
前記複数の撮像位置に関する情報と、それぞれの撮像位置について前記選択された撮像装置に関する情報とを前記通信部により前記飛行体に送信し、
前記撮像装置を選択することを、
それぞれの撮像位置について、
当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択することにより実現する、
モバイルプラットフォーム。
In a mobile platform having a communication unit that performs communication with an air vehicle and a processing unit,
The processing unit includes:
Obtain information on a plurality of imaging positions of a flying object having a plurality of imaging devices,
From among the plurality of imaging devices, an imaging device used for imaging for each of the plurality of imaging positions is selected,
Information on the plurality of imaging positions, and information on the selected imaging device for each imaging position is transmitted to the flying object by the communication unit,
Selecting the imaging device,
For each imaging position,
Achieved by selecting at least one imaging device from the plurality of imaging devices, based on a ratio occupied by a portion having a predetermined light amount or less in an imaging region at the imaging position.
Mobile platform.
前記処理部は、
前記割合が第1の閾値以下である場合は、第1の撮像装置を選択し、前記割合が第1の閾値より大きい第2の閾値を超える場合は、前記第1の撮像装置より高い露光パラメータが設定された第2の撮像装置を選択し、前記割合が前記第1の閾値を超えかつ前記第2の閾値以下である場合は、前記第1の撮像装置及び前記第2の撮像装置の双方を選択する、
請求項18に記載のモバイルプラットフォーム。
The processing unit includes:
If the ratio is equal to or less than a first threshold, the first imaging device is selected. If the ratio exceeds a second threshold that is larger than the first threshold, an exposure parameter higher than the first imaging device is selected. Is selected, and if the ratio is greater than the first threshold and less than or equal to the second threshold, both the first imaging device and the second imaging device are selected. Select the
The mobile platform according to claim 18.
前記処理部は、さらに、
各撮像位置において前記選択された撮像装置により撮像された画像を前記飛行体から取得し、
前記撮像装置ごとに、撮像された画像に基づいて被写体の形状を復元し、
前記撮像装置ごとに復元された前記形状を合成する、
請求項18又は19に記載のモバイルプラットフォーム。
The processing unit further includes:
Acquiring an image captured by the selected imaging device at each imaging position from the flying object,
For each imaging device, restore the shape of the subject based on the captured image,
Synthesizing the shape restored for each of the imaging devices,
A mobile platform according to claim 18 or claim 19.
前記処理部は、
前記複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択する、
請求項18〜20のうちいずれか一項に記載のモバイルプラットフォーム。
The processing unit includes:
At least one of the plurality of imaging positions selects a plurality of imaging devices,
A mobile platform according to any one of claims 18 to 20.
前記処理部は、
光源の照射角度に関する情報を取得し、
それぞれの前記撮像位置における前記光源の遮断物に関する情報を取得し、
前記光源の照射角度に関する情報とそれぞれの前記撮像位置における前記光源の遮断物に関する情報とに基づいて、前記撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定する、
請求項18〜21のうちいずれか一項に記載のモバイルプラットフォーム。
The processing unit includes:
Get information about the illumination angle of the light source,
Obtaining information on the obstacle of the light source at each of the imaging positions,
Based on the information on the irradiation angle of the light source and the information on the obstruction of the light source at each of the imaging positions, estimate a ratio occupied by a portion having a predetermined light amount or less in an imaging region at the imaging position.
A mobile platform according to any one of claims 18 to 21.
前記処理部は、
時刻情報及び前記撮像位置の地理情報を取得し、
前記時刻情報及び前記地理情報を用いて、前記光源の照射角度に関する情報を推定する、
請求項22に記載のモバイルプラットフォーム。
The processing unit includes:
Obtaining time information and geographic information of the imaging position,
Using the time information and the geographic information, estimating information on the irradiation angle of the light source,
A mobile platform according to claim 22.
記憶部と、モバイルプラットフォームとの通信を行う通信部と、処理部と、複数の撮像装置と、を有する飛行体において、
前記処理部は、
前記飛行体の複数の撮像位置に関する情報を取得し、
前記複数の撮像装置の中から選択された、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得し、
前記複数の撮像位置のそれぞれについて、取得された前記撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像し、
前記撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である、
飛行体。
A storage unit, a communication unit that performs communication with the mobile platform, a processing unit, and a plurality of imaging devices, in a flying object having,
The processing unit includes:
Acquiring information on a plurality of imaging positions of the flying object,
From among the plurality of imaging devices, information on the imaging device used for imaging for each of the plurality of imaging positions is obtained,
For each of the plurality of imaging positions, an image is taken using an imaging device corresponding to the acquired information on the imaging device used for the imaging,
The information on the imaging device used for the imaging is generated based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position, in accordance with selection of at least one imaging device from the plurality of imaging devices. Information,
Flying object.
前記処理部は、
前記複数の撮像位置のそれぞれについて、前記撮像に用いる撮像装置に関する情報をモバイルプラットフォームから受信する、
請求項24に記載の飛行体。
The processing unit includes:
For each of the plurality of imaging positions, receiving information on the imaging device used for the imaging from a mobile platform,
An air vehicle according to claim 24.
光学センサをさらに有し、
前記処理部は、
前記それぞれの撮像位置について、
撮像時の当該撮像位置における撮像領域の光量を測定し、
前記光量に基づき、当該撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定し、
前記割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択して、前記撮像に用いる撮像装置に関する情報を生成する、
請求項24に記載の飛行体。
Further comprising an optical sensor,
The processing unit includes:
For each of the imaging positions,
Measure the amount of light in the imaging area at the imaging position at the time of imaging,
Based on the light amount, estimate the proportion of a portion of the imaging area at the imaging position that is equal to or less than a predetermined light amount,
Based on the ratio, select at least one imaging device from the plurality of imaging devices, generate information about the imaging device used for the imaging,
An air vehicle according to claim 24.
前記処理部は、
前記それぞれの撮像位置について、
光源の照射角度に関する情報を取得し、
前記撮像位置における前記光源の遮断物に関する情報を取得し、
前記光源の照射角度に関する情報と前記撮像位置における前記光源の遮断物に関する情報とに基づいて、前記撮像位置における撮像領域内の所定光量以下の部分が占める割合を推定し、
前記割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択して前記撮像に用いる撮像装置に関する情報を生成する、
請求項24に記載の飛行体。
The processing unit includes:
For each of the imaging positions,
Get information about the illumination angle of the light source,
Obtaining information about the obstacle of the light source at the imaging position,
Based on the information on the irradiation angle of the light source and the information on the obstacle of the light source at the imaging position, estimate the proportion occupied by a portion having a predetermined light amount or less in the imaging region at the imaging position,
Based on the ratio, select at least one imaging device from the plurality of imaging devices to generate information about the imaging device used for the imaging,
An air vehicle according to claim 24.
前記処理部は、
時刻情報及び前記撮像位置の地理情報を取得し、
前記時刻情報及び前記地理情報を用いて、前記光源の照射角度に関する情報を推定する、
請求項27に記載の飛行体。
The processing unit includes:
Obtaining time information and geographic information of the imaging position,
Using the time information and the geographic information, estimating information on the irradiation angle of the light source,
A flying object according to claim 27.
前記撮像に用いる撮像装置に関する情報は、
それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合が第1の閾値以下である場合は、第1の撮像装置が選択され、前記割合が第1の閾値より大きい第2の閾値を超える場合は、前記第1の撮像装置より高い露光パラメータが設定された第2の撮像装置が選択され、前記割合が前記第1の閾値を超えかつ前記第2の閾値以下である場合は、前記第1の撮像装置及び前記第2の撮像装置の双方が選択されて生成される、
請求項24〜28うちのいずれか一項に記載の飛行体。
Information on the imaging device used for the imaging,
If the ratio occupied by a portion having a predetermined light amount or less in the imaging area at each imaging position is equal to or less than the first threshold, the first imaging device is selected, and the second ratio is higher than the first threshold. Is greater than the first imaging device, a second imaging device set with a higher exposure parameter than the first imaging device is selected, and if the ratio is greater than the first threshold and less than or equal to the second threshold, Both the first imaging device and the second imaging device are selected and generated,
A flying object according to any one of claims 24 to 28.
前記撮像に用いる撮像装置に関する情報は、
前記複数の撮像位置のうち少なくとも一つの撮像位置において、複数の撮像装置を選択されて生成される、
請求項24〜29のうちいずれか一項に記載の飛行体。
Information on the imaging device used for the imaging,
At least one of the plurality of imaging positions is generated by selecting a plurality of imaging devices,
A flying object according to any one of claims 24 to 29.
前記処理部は、
前記飛行体の移動中に、前記複数の撮像位置のそれぞれについて、前記取得された撮像に用いる撮像装置に関する情報により特定された撮像装置を用いて撮像する、
請求項24〜30のうちいずれか一項に記載の飛行体。
The processing unit includes:
During the movement of the flying object, for each of the plurality of imaging positions, an image is captured using an imaging device specified by information on the imaging device used for the acquired imaging,
The flying object according to any one of claims 24 to 30.
前記処理部は、
前記複数の撮像位置において撮像された画像を、情報処理装置に送信する、
請求項24〜31のうちいずれか一項に記載の飛行体。
The processing unit includes:
Transmitting an image captured at the plurality of imaging positions to an information processing apparatus;
The flying object according to any one of claims 24 to 31.
コンピュータであるモバイルプラットフォームに、
複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと
前記複数の撮像位置に関する情報と、それぞれの撮像位置について前記選択された撮像装置に関する情報とを前記飛行体に送信するステップと、を実行させ、
前記撮像装置を選択するステップは、
それぞれの撮像位置について、
当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択するステップを含む、
プログラム。
For mobile platforms that are computers,
Obtaining information on a plurality of imaging positions of a flying object having a plurality of imaging devices;
Selecting, from the plurality of imaging devices, an imaging device to be used for imaging for each of the plurality of imaging positions; information on the plurality of imaging positions; and information on the selected imaging device for each imaging position. Transmitting to the flying vehicle, and
The step of selecting the imaging device,
For each imaging position,
Based on a ratio of a portion occupied by a predetermined amount of light or less in an imaging region at the imaging position, the method includes selecting at least one imaging device from the plurality of imaging devices.
program.
コンピュータであるモバイルプラットフォームに、
複数の撮像装置を有する飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置を選択するステップと、
前記複数の撮像位置に関する情報と、それぞれの撮像位置について前記選択された撮像装置に関する情報とを前記飛行体に送信するステップと、を実行させ、
前記撮像装置を選択するステップは、
それぞれの撮像位置について、
当該撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置を選択するステップを含む、プログラムを格納する、
記憶媒体。
For mobile platforms that are computers,
Obtaining information on a plurality of imaging positions of a flying object having a plurality of imaging devices;
From the plurality of imaging devices, selecting an imaging device to be used for imaging for each of the plurality of imaging positions,
Transmitting the information on the plurality of imaging positions and the information on the selected imaging device for each imaging position to the flying object,
The step of selecting the imaging device,
For each imaging position,
Based on a ratio occupied by a portion equal to or less than a predetermined amount of light in an imaging region at the imaging position, including a step of selecting at least one imaging device from the plurality of imaging devices, storing a program,
Storage medium.
コンピュータである、複数の撮像装置を有する飛行体に、
前記飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から選択された、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、
前記複数の撮像位置のそれぞれについて、取得された前記撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、を実行させ、
前記撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である、
プログラム。
A flying object having a plurality of imaging devices, which is a computer,
Obtaining information on a plurality of imaging positions of the flying object;
Obtaining information on an imaging device used for imaging for each of the plurality of imaging positions selected from the plurality of imaging devices;
For each of the plurality of imaging positions, imaging using an imaging device corresponding to the acquired information on the imaging device used for the imaging, and
The information on the imaging device used for the imaging is generated based on a ratio of a portion of a predetermined amount of light or less in an imaging region at each imaging position, in accordance with selection of at least one imaging device from the plurality of imaging devices. Information,
program.
コンピュータである複数の撮像装置を有する飛行体に、
前記飛行体の複数の撮像位置に関する情報を取得するステップと、
前記複数の撮像装置の中から選択された、前記複数の撮像位置のそれぞれについて撮像に用いる撮像装置に関する情報を取得するステップと、
前記複数の撮像位置のそれぞれについて、取得された前記撮像に用いる撮像装置に関する情報に対応する撮像装置を用いて撮像するステップと、を実行させ、
前記撮像に用いる撮像装置に関する情報は、それぞれの撮像位置における撮像領域内の所定光量以下の部分が占める割合に基づいて、前記複数の撮像装置から少なくとも一つの撮像装置の選択に応じて生成された情報である、プログラムを格納する、
記憶媒体。
A flying object having a plurality of imaging devices, which is a computer,
Obtaining information on a plurality of imaging positions of the flying object;
Obtaining information on an imaging device used for imaging for each of the plurality of imaging positions selected from the plurality of imaging devices;
For each of the plurality of imaging positions, imaging using an imaging device corresponding to the acquired information on the imaging device used for the imaging,
The information on the imaging devices used for the imaging is generated based on a ratio of a portion of a predetermined light amount or less in an imaging region at each imaging position, in accordance with selection of at least one imaging device from the plurality of imaging devices. Storing information, programs,
Storage medium.
JP2019505602A 2017-03-15 2017-03-15 Shape generation method, image acquisition method, mobile platform, flying object, program and recording medium Active JP6997170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021139432A JP2022002391A (en) 2017-03-15 2021-08-27 Shape generation method, image acquisition method, mobile platform, flying body, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010515 WO2018167893A1 (en) 2017-03-15 2017-03-15 Profile generation method, image acquisition method, mobile platform, aerial vehicle, program, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021139432A Division JP2022002391A (en) 2017-03-15 2021-08-27 Shape generation method, image acquisition method, mobile platform, flying body, program and recording medium

Publications (2)

Publication Number Publication Date
JPWO2018167893A1 true JPWO2018167893A1 (en) 2020-01-16
JP6997170B2 JP6997170B2 (en) 2022-01-17

Family

ID=63522886

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019505602A Active JP6997170B2 (en) 2017-03-15 2017-03-15 Shape generation method, image acquisition method, mobile platform, flying object, program and recording medium
JP2021139432A Withdrawn JP2022002391A (en) 2017-03-15 2021-08-27 Shape generation method, image acquisition method, mobile platform, flying body, program and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021139432A Withdrawn JP2022002391A (en) 2017-03-15 2021-08-27 Shape generation method, image acquisition method, mobile platform, flying body, program and recording medium

Country Status (3)

Country Link
JP (2) JP6997170B2 (en)
CN (1) CN110402453A (en)
WO (1) WO2018167893A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119693A (en) * 2016-02-02 2016-06-30 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus and imaging method
WO2016106715A1 (en) * 2014-12-31 2016-07-07 SZ DJI Technology Co., Ltd. Selective processing of sensor data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016106715A1 (en) * 2014-12-31 2016-07-07 SZ DJI Technology Co., Ltd. Selective processing of sensor data
JP2016119693A (en) * 2016-02-02 2016-06-30 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP6997170B2 (en) 2022-01-17
JP2022002391A (en) 2022-01-06
CN110402453A (en) 2019-11-01
WO2018167893A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
US11377211B2 (en) Flight path generation method, flight path generation system, flight vehicle, program, and storage medium
JP6878567B2 (en) 3D shape estimation methods, flying objects, mobile platforms, programs and recording media
US20190318636A1 (en) Flight route display method, mobile platform, flight system, recording medium and program
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
CN108496130B (en) Flight control method, flight control equipment, control terminal, control method of control terminal and unmanned aerial vehicle
JP7251474B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
WO2018205104A1 (en) Unmanned aerial vehicle capture control method, unmanned aerial vehicle capturing method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle
KR20180126570A (en) Spectrum camera control system, Spectrum camera control program, Spectrum camera control system, Aerial vehicle equipped with this system, and Spectral imaging method
JPWO2018146803A1 (en) Position processing apparatus, flying object, position processing system, flight system, position processing method, flight control method, program, and recording medium
WO2018150492A1 (en) Image display method, image display system, flying object, program, and recording medium
JP2021096865A (en) Information processing device, flight control instruction method, program, and recording medium
JP6997170B2 (en) Shape generation method, image acquisition method, mobile platform, flying object, program and recording medium
JP6329219B2 (en) Operation terminal and moving body
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
JP7081198B2 (en) Shooting system and shooting control device
JPWO2018138882A1 (en) Aircraft, motion control method, motion control system, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210827

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210907

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R150 Certificate of patent or registration of utility model

Ref document number: 6997170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150