JP2020095519A - Shape estimation device, shape estimation method, program, and recording medium - Google Patents

Shape estimation device, shape estimation method, program, and recording medium Download PDF

Info

Publication number
JP2020095519A
JP2020095519A JP2018233603A JP2018233603A JP2020095519A JP 2020095519 A JP2020095519 A JP 2020095519A JP 2018233603 A JP2018233603 A JP 2018233603A JP 2018233603 A JP2018233603 A JP 2018233603A JP 2020095519 A JP2020095519 A JP 2020095519A
Authority
JP
Japan
Prior art keywords
grid
captured image
assumed
captured
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018233603A
Other languages
Japanese (ja)
Inventor
磊 顧
Lei Gu
磊 顧
思傑 沈
Si Jie Shen
思傑 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018233603A priority Critical patent/JP2020095519A/en
Priority to PCT/CN2019/123314 priority patent/WO2020119572A1/en
Priority to CN201980008243.0A priority patent/CN111788457A/en
Publication of JP2020095519A publication Critical patent/JP2020095519A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

To provide a shape estimation device capable of improving a real time property, when estimating the three-dimensional shape of a ground surface.SOLUTION: The shape estimation device generates a grid having a plurality of grid points in an imaging range imaged by an imaging apparatus, acquires a first captured image and a second captured image, to acquire the information of a three-dimensional position and an imaging direction, and assumes the plurality of attitudes of a first grid point at the grid points. Further, the shape estimation device derives a first assumed projection position where the first grid point is projected to the first captured image and a second assumed projection position where the first grid point is projected to the second captured image on the basis of the three-dimensional position and the imaging direction by the imaging apparatus, for the plurality of assumed attitudes and estimates the attitude of the first grid point on the basis of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image, for the plurality of assumed attitudes, to estimate the three-dimensional shape of the imaging range on the basis of the estimated attitude of the first grid point.SELECTED DRAWING: Figure 6

Description

本開示は、複数の撮像画像に基づいて3次元形状を推定する形状推定装置、形状推定方法、プログラム、及び記録媒体に関する。 The present disclosure relates to a shape estimation device, a shape estimation method, a program, and a recording medium that estimates a three-dimensional shape based on a plurality of captured images.

従来、予め設定された固定経路を通りながら撮像を行うプラットフォーム(無人機)が知られている。このプラットフォームは、地上基地から撮像指示を受け、撮像対象を撮像する。このプラットフォームは、撮像対象を撮像する場合、固定経路を飛行しながら、プラットフォームと撮像対象との位置関係により、プラットフォームの撮像機器を傾けて撮像する(特許文献1参照)。 Conventionally, a platform (unmanned aerial vehicle) that performs imaging while passing through a preset fixed path is known. The platform receives an imaging instruction from the ground base and images the imaging target. When capturing an image of an imaging target, this platform tilts the imaging device of the platform to capture an image while flying on a fixed path, depending on the positional relationship between the platform and the imaging target (see Patent Document 1).

特開2010−61216号公報JP, 2010-61216, A

特許文献1の無人機で撮像された複数の画像を用いて、地面の三次元形状が推定可能である。しかし、3次元形状推定の計算は複雑であり、計算コストが高く、オフラインでしかできない。例えば、従来の3次元形状推定の処理では、素点生成(例えばsfm:Structure from Motion)、密点生成(例えばmvs:Multi-View Stereo)、メッシュ生成、テクスチャ生成、等を順に行う必要があり、3次元形状推定のための処理負荷が高い。そのため、無人機が画像を撮像しながらリアルタイムに地面の三次元形状を推定することは困難である。 The three-dimensional shape of the ground can be estimated using a plurality of images captured by the drone of Patent Document 1. However, the calculation of the three-dimensional shape estimation is complicated, the calculation cost is high, and it can be done only offline. For example, in the conventional processing of three-dimensional shape estimation, it is necessary to sequentially perform raw point generation (for example, sfm: Structure from Motion), dense point generation (for example, mvs: Multi-View Stereo), mesh generation, texture generation, and the like. The processing load for three-dimensional shape estimation is high. Therefore, it is difficult for the drone to estimate the three-dimensional shape of the ground in real time while capturing an image.

一態様において、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置であって、3次元形状の推定に関する処理を行う処理部を備え、処理部は、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成し、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得し、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得し、複数のグリッド点における第1のグリッド点の高度を複数仮定し、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出し、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出し、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定し、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定してよい。 In one aspect, a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object, including a processing unit that performs processing relating to the estimation of the three-dimensional shape, and the processing unit is a flying object. Generate a grid having a plurality of grid points in an imaging range imaged by the imaging device, and obtain a first captured image and a second captured image captured by the imaging device, and obtain a first captured image and a second captured image. The information about the three-dimensional position of the image pickup device and the image pickup direction by the image pickup device when the two picked-up images are picked up is obtained, a plurality of altitudes of the first grid point in the plurality of grid points are assumed, and the plurality of assumed altitudes are A first hypothetical projection position where the first grid point is projected on the first captured image, and the first grid point is the second captured image based on the three-dimensional position of the image capturing device and the image capturing direction of the image capturing device. A second hypothetical projection position projected on the image, and a plurality of hypothetical altitudes, a first hypothetical projection position in the first captured image and a second hypothetical projected position in the second captured image. Of the three-dimensional imaging range based on the estimated altitude of the first grid point based on the similarity of a plurality of assumed altitudes. The shape may be estimated.

処理部は、第1の撮像画像及び第2の撮像画像に基づいて3次元復元を行い、点群データを取得し、点群データを基に面データを生成し、面データを基に、第1のグリッド点の初期高度を導出し、第1のグリッド点の高度を、初期高度から順に仮定してよい。 The processing unit performs three-dimensional reconstruction based on the first captured image and the second captured image, acquires point cloud data, generates surface data based on the point cloud data, and generates a first surface data based on the surface data. The initial altitude of one grid point may be derived, and the altitude of the first grid point may be assumed in order from the initial altitude.

第1の撮像画像は、1つ以上の既存の撮像画像でよい。第2の撮像画像は、1つ以上の最新の撮像画像でよい。処理部は、第1の撮像画像を基に生成された第1の点群データを取得し、第2の撮像画像に基づいて、第2の点群データを生成し、第1の点群データと第2の点群データを基に、面データを生成してよい。 The first captured image may be one or more existing captured images. The second captured image may be one or more latest captured images. The processing unit acquires the first point cloud data generated based on the first captured image, generates the second point cloud data based on the second captured image, and generates the first point cloud data. Surface data may be generated based on and the second point cloud data.

処理部は、類似度に基づいて、第1の仮定投影位置と第2の仮定投影位置との誤差を示す誤差スコアを算出し、誤差スコアに基づいて、第1のグリッド点の高度を推定してよい。 The processing unit calculates an error score indicating an error between the first assumed projection position and the second assumed projection position based on the degree of similarity, and estimates the altitude of the first grid point based on the error score. You may.

処理部は、グリッドにおける第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、誤差スコアを算出してよい。 The processing unit may calculate the error score based on the interval between the first grid point and the adjacent second grid point in the grid.

処理部は、第1のグリッド点とグリッドにおける第2のグリッド点との間の平滑度に基づいて、誤差スコアを算出してよい。 The processing unit may calculate the error score based on the smoothness between the first grid point and the second grid point in the grid.

第1のグリッド点は、グリッドにおける全グリッド点であってよい。 The first grid points may be all grid points in the grid.

第1のグリッド点は、グリッドにおける一部のグリッド点であってよい。 The first grid points may be some grid points in the grid.

処理部は、グリッドの各点の間隔を設定してよい。 The processing unit may set the interval between the points of the grid.

一態様において、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定方法であって、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を含む。 In one aspect, the method is a shape estimation method for estimating a three-dimensional shape based on a plurality of captured images captured by an air vehicle, and when performing processing related to the estimation of the three-dimensional shape, the image is captured by an imaging device included in the air vehicle. Generating a grid having a plurality of grid points in an image capturing range, acquiring a first captured image and a second captured image captured by the image capturing device, a first captured image and a second captured image A step of acquiring information on a three-dimensional position of the image pickup device and an image pickup direction by the image pickup device when an image is taken; a step of assuming a plurality of altitudes of a first grid point among a plurality of grid points; and a plurality of assumed altitudes Regarding the three-dimensional position of the imaging device and the imaging direction of the imaging device, the first assumed projection position where the first grid point is projected on the first captured image, and the first grid point is the second projection position. Deriving a second hypothetical projection position projected on the captured image, a plurality of hypothesized altitudes, a first hypothetical projection position on the first captured image, and a second hypothesis on the second captured image. A step of deriving a similarity to the projection position, a step of estimating the altitude of the first grid point based on the similarities of a plurality of assumed altitudes, and a step of estimating the altitude of the first grid point And estimating the three-dimensional shape of the imaging range.

第1のグリッド点の高度を複数仮定するステップは、第1の撮像画像及び第2の撮像画像に基づいて3次元復元を行い、点群データを取得するステップと、点群データを基に面データを生成するステップと、面データを基に、第1のグリッド点の初期高度を導出するステップと、第1のグリッド点の高度を、初期高度から順に仮定するステップと、を含んでよい。 The step of assuming a plurality of altitudes of the first grid points includes three-dimensional reconstruction based on the first captured image and the second captured image to obtain point cloud data, and a plane based on the point cloud data. It may include a step of generating data, a step of deriving an initial altitude of the first grid point based on the surface data, and a step of sequentially assuming the altitude of the first grid point from the initial altitude.

第1の撮像画像は、1つ以上の既存の撮像画像でよい。第2の撮像画像は、1つ以上の最新の撮像画像でよい。点群データを生成するステップは、第1の撮像画像を基に生成された第1の点群データを取得するステップと、第2の撮像画像に基づいて、第2の点群データを生成するステップと、を含んでよい。面データを生成するステップは、第1の点群データと第2の点群データを基に、面データを生成するステップを含んでよい。 The first captured image may be one or more existing captured images. The second captured image may be one or more latest captured images. The step of generating the point cloud data includes a step of acquiring the first point cloud data generated based on the first captured image and a step of generating the second point cloud data based on the second captured image. And steps. The step of generating surface data may include a step of generating surface data based on the first point cloud data and the second point cloud data.

第1のグリッド点の高度を推定するステップは、類似度に基づいて、第1の仮定投影位置と第2の仮定投影位置との誤差を示す誤差スコアを算出するステップと、誤差スコアに基づいて、第1のグリッド点の高度を推定するステップと、を含んでよい。 The step of estimating the altitude of the first grid point includes the steps of calculating an error score indicating an error between the first assumed projection position and the second assumed projection position based on the similarity, and based on the error score. , Estimating the altitude of the first grid point.

誤差スコアを算出するステップは、グリッドにおける第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、誤差スコアを算出するステップを含んでよい。 The step of calculating the error score may include the step of calculating the error score based on the interval between the first grid point and the adjacent second grid point in the grid.

誤差スコアを算出するステップは、第1のグリッド点とグリッドにおける第2のグリッド点との間の平滑度に基づいて、誤差スコアを算出するステップを含んでよい。 The step of calculating the error score may include the step of calculating the error score based on the smoothness between the first grid points and the second grid points in the grid.

第1のグリッド点は、グリッドにおける全グリッド点であってよい。 The first grid points may be all grid points in the grid.

第1のグリッド点は、グリッドにおける一部のグリッド点であってよい。 The first grid points may be some grid points in the grid.

グリッドを生成するステップは、グリッドの各点の間隔を設定するステップを含んでよい。 The step of generating a grid may include the step of setting the spacing between points of the grid.

一態様において、プログラムは、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を実行させるための、プログラムである。 In one aspect, the program causes a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by the flying object to be captured by an imaging device included in the flying object when performing processing related to the estimation of the three-dimensional shape. Generating a grid having a plurality of grid points in an image capturing range, acquiring a first captured image and a second captured image captured by an image capturing device, a first captured image and a second captured image. A step of acquiring information on a three-dimensional position of the image pickup apparatus and an image pickup direction of the image pickup apparatus when the picked-up image is picked up, a step of assuming a plurality of altitudes of the first grid points in the plurality of grid points, and a plurality of assumptions are made. Regarding the altitude, based on the three-dimensional position of the imaging device and the imaging direction by the imaging device, the first assumed projection position at which the first grid point is projected on the first captured image and the first grid point at the second Deriving a second hypothetical projection position projected on the captured image of the first hypothetical projection position, and a plurality of hypothesized altitudes, the first hypothetical projection position on the first pictorial image and the second hypothetical projection position on the second pictorial image. The step of deriving the similarity with the assumed projection position, the step of estimating the altitude of the first grid point based on the similarities for the plurality of assumed altitudes, and the step of estimating the altitude of the first grid point And a step of estimating a three-dimensional shape of the imaging range based on the program.

一態様において、記録媒体は、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。 In one aspect, the recording medium is configured such that a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object is used by the imaging device included in the flying object when performing processing related to the estimation of the three-dimensional shape. A step of generating a grid having a plurality of grid points in an image capturing range, a step of acquiring a first captured image and a second captured image captured by an image capturing device, a first captured image and a second captured image A plurality of hypotheses, a step of acquiring information on a three-dimensional position of the image pickup apparatus and an image pickup direction of the image pickup apparatus when the picked-up image is captured, a step of assuming a plurality of altitudes of the first grid points in the plurality of grid points, For the altitude, the first assumed projection position where the first grid point is projected on the first captured image and the first grid point are determined based on the three-dimensional position of the image capturing device and the image capturing direction of the image capturing device. Deriving a second hypothetical projection position projected on the second picked-up image, and a plurality of hypothesized altitudes, the first hypothetical projection position on the first picked-up image and the second hypothetical position on the second picked-up image. Of deriving the similarity with the assumed projection position of, the step of estimating the altitude of the first grid point based on the similarities of the plurality of assumed altitudes, and the estimated altitude of the first grid point And a step of estimating a three-dimensional shape of an imaging range based on the above, and a computer-readable recording medium recording a program for executing the step.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all the features of the present disclosure. Further, a sub-combination of these feature groups can also be an invention.

実施形態1における飛行システムの第1構成例を示す模式図Schematic diagram showing a first configuration example of the flight system in the first embodiment 実施形態1における飛行システムの第2構成例を示す模式図Schematic diagram showing a second configuration example of the flight system in the first embodiment. 無人航空機の具体的な外観の一例を示す図The figure which shows an example of the specific appearance of an unmanned aerial vehicle. 無人航空機のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of an unmanned aerial vehicle 端末のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the terminal 地形推定動作手順を示すフローチャートFlowchart showing the terrain estimation operation procedure 初期グリッドの生成例を示す図Diagram showing an example of initial grid generation 疎な点群の生成例を示す図Diagram showing an example of sparse point cloud generation 疎な点群で囲まれるサーフェスの生成例を示す図Diagram showing an example of generating a surface surrounded by sparse point clouds グリッド初期値の生成例を示す図Diagram showing an example of initial grid value generation グリッド高度の探索例を説明する図Figure explaining the search example of grid altitude グリッド形状の推定例を説明する図Diagram illustrating an example of grid shape estimation

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of the features described in the embodiments are essential to the solution means of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction of any of these documents by anyone as it appears in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。また、形状推定システムとして、飛行システムを例示する。形状推定装置として、無人航空機を主に例示するが、端末であってもよい。端末は、スマートフォン、タブレット端末PC(Personal Computer)、又はその他の装置を含んでよい。形状推定方法は、形状推定装置における動作が規定されたものである。また、記録媒体は、プログラム(例えば形状推定装置に各種の処理を実行させるプログラム)が記録されたものである。 In the following embodiments, an unmanned aerial vehicle (UAV) is exemplified as a flying body. Unmanned aerial vehicles include aircraft moving in the air. In the drawings attached to this specification, an unmanned aerial vehicle is referred to as a "UAV". A flight system is exemplified as the shape estimation system. Although an unmanned aerial vehicle is mainly exemplified as the shape estimation device, it may be a terminal. The terminal may include a smartphone, a tablet terminal PC (Personal Computer), or another device. The shape estimation method defines the operation of the shape estimation device. Further, the recording medium has recorded therein a program (for example, a program for causing the shape estimation device to execute various processes).

(実施形態1)
図1は、実施形態1における飛行システム10の第1構成例を示す図である。飛行システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。
(Embodiment 1)
FIG. 1 is a diagram illustrating a first configuration example of a flight system 10 according to the first embodiment. The flight system 10 includes an unmanned aerial vehicle 100 and a terminal 80. The unmanned aerial vehicle 100 and the terminal 80 can communicate with each other by wire communication or wireless communication (for example, wireless LAN (Local Area Network)). FIG. 1 illustrates that the terminal 80 is a mobile terminal (for example, a smartphone or a tablet terminal).

なお、飛行システムは、無人航空機、送信機(プロポ)、及び携帯端末を備えた構成であってよい。送信機を備える場合、送信機の前面に配置された左右の制御棒を使って、ユーザは、無人航空機の飛行を制御可能である。また、この場合、無人航空機、送信機、及び携帯端末は、相互に有線通信又は無線通信により通信可能である。 The flight system may include an unmanned aerial vehicle, a transmitter (propo), and a mobile terminal. When equipped with a transmitter, the left and right control rods located on the front of the transmitter allow the user to control the flight of the unmanned aerial vehicle. Further, in this case, the unmanned aerial vehicle, the transmitter, and the mobile terminal can communicate with each other by wire communication or wireless communication.

図2は、実施形態1における飛行システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。 FIG. 2 is a schematic diagram showing a second configuration example of the flight system 10 in the first embodiment. FIG. 2 exemplifies that the terminal 80 is a PC. The function of the terminal 80 may be the same in any of FIG. 1 and FIG.

図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は移動体の一例である。 FIG. 3 is a diagram showing an example of a specific appearance of unmanned aerial vehicle 100. FIG. 3 shows a perspective view when unmanned aerial vehicle 100 flies in movement direction STV0. The unmanned aerial vehicle 100 is an example of a moving body.

図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定される。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定される。 As shown in FIG. 3, the roll axis (see the x-axis) is set in the direction parallel to the ground and along the movement direction STV0. In this case, a pitch axis (see y-axis) is set in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (z-axis) is set in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. (See) is set.

無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。 The unmanned aerial vehicle 100 is configured to include a UAV body 102, a gimbal 200, an image capturing section 220, and a plurality of image capturing sections 230.

UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The UAV body 102 includes a plurality of rotor blades (propellers). The UAV body 102 causes the unmanned aerial vehicle 100 to fly by controlling the rotation of a plurality of rotor blades. The UAV body 102 flies the unmanned aerial vehicle 100 using, for example, four rotors. The number of rotor blades is not limited to four. Further, unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wing.

撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラである。 The image capturing unit 220 is a camera for capturing an image of a subject included in a desired image capturing range (for example, a state of the sky as an aerial image capturing target, a landscape such as a mountain or a river, or a building on the ground).

複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラである。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データが生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。 The plurality of imaging units 230 are sensing cameras that capture images of the surroundings of the unmanned aerial vehicle 100 in order to control the flight of the unmanned aerial vehicle 100. The two imaging units 230 may be provided on the front surface that is the nose of the unmanned aerial vehicle 100. Further, the other two imaging units 230 may be provided on the bottom surface of unmanned aerial vehicle 100. The two image capturing units 230 on the front side may form a pair and function as a so-called stereo camera. The two imaging units 230 on the bottom side may also be paired and may function as a stereo camera. Three-dimensional space data around the unmanned aerial vehicle 100 may be generated based on the images captured by the plurality of imaging units 230. The number of imaging units 230 included in unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one imaging unit 230. The unmanned aerial vehicle 100 may include at least one imaging unit 230 on each of a nose, a stern, a side surface, a bottom surface, and a ceiling surface of the unmanned aerial vehicle 100. The angle of view that can be set by the imaging unit 230 may be wider than the angle of view that can be set by the imaging unit 220. The image capturing section 230 may include a single focus lens or a fisheye lens.

図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。 FIG. 4 is a block diagram showing an example of the hardware configuration of unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, The configuration includes an inertial measurement unit (IMU: Inertial Measurement Unit) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The UAV control unit 110 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The UAV control unit 110 performs signal processing for integrally controlling the operation of each unit of the unmanned aerial vehicle 100, data input/output process with other units, data calculation process, and data storage process.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を空撮してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 according to the program stored in the memory 160. The UAV controller 110 may control flight. The UAV control unit 110 may take an aerial image.

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。 UAV control unit 110 acquires position information indicating the position of unmanned aerial vehicle 100. The UAV control unit 110 may acquire, from the GPS receiver 240, position information indicating the latitude, longitude, and altitude at which the unmanned aerial vehicle 100 exists. The UAV control unit 110 acquires from the GPS receiver 240 latitude/longitude information indicating the latitude and longitude where the unmanned aerial vehicle 100 exists, and altitude information indicating the altitude at which the unmanned aerial vehicle 100 exists from the barometric altimeter 270 as position information. Good. The UAV control unit 110 may acquire the distance between the ultrasonic wave emission point of the ultrasonic wave sensor 280 and the ultrasonic wave reflection point as altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。 The UAV control unit 110 may acquire the orientation information indicating the orientation of the unmanned aerial vehicle 100 from the magnetic compass 260. The orientation information may be indicated by an orientation corresponding to the orientation of the nose of unmanned aerial vehicle 100, for example.

UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。 The UAV control unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 should exist when the imaging unit 220 images the imaging range to be imaged. The UAV control unit 110 may acquire the position information indicating the position where the unmanned aerial vehicle 100 should exist from the memory 160. The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist from another device via the communication interface 150. The UAV control unit 110 may refer to the three-dimensional map database to identify a position where the unmanned aerial vehicle 100 can exist, and acquire the position as position information indicating a position where the unmanned aerial vehicle 100 should exist.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。 The UAV control unit 110 may acquire imaging range information indicating the imaging ranges of the imaging unit 220 and the imaging unit 230. The UAV control unit 110 may acquire angle-of-view information indicating the angle of view of the image-capturing units 220 and 230 from the image-capturing units 220 and 230 as a parameter for specifying the image-capturing range. The UAV control unit 110 may acquire information indicating the image pickup directions of the image pickup units 220 and 230 as a parameter for specifying the image pickup range. The UAV control unit 110 may acquire posture information indicating the state of the posture of the image capturing unit 220 from the gimbal 200, for example, as information indicating the image capturing direction of the image capturing unit 220. The attitude information of the imaging unit 220 may indicate the rotation angles of the pitch axis and the yaw axis of the gimbal 200 from the reference rotation angle.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range imaged by the imaging unit 220 based on the angle of view and the imaging direction of the imaging unit 220 and the imaging unit 230, and the position where the unmanned aerial vehicle 100 exists, The imaging range information may be acquired by generating the imaging range information.

UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire the imaging range information from the memory 160. The UAV control unit 110 may acquire the imaging range information via the communication interface 150.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。 The UAV control unit 110 controls the gimbal 200, the rotary wing mechanism 210, the imaging unit 220, and the imaging unit 230. The UAV control unit 110 may control the imaging range of the imaging unit 220 by changing the imaging direction or the angle of view of the imaging unit 220. The UAV controller 110 may control the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。 The imaging range refers to a geographical range in which an image is captured by the image capturing unit 220 or the image capturing unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in the two-dimensional space data defined by latitude and longitude. The imaging range may be specified based on the angle of view and the imaging direction of the imaging unit 220 or the imaging unit 230, and the position where the unmanned aerial vehicle 100 exists. The imaging directions of the imaging unit 220 and the imaging unit 230 may be defined by the azimuth and the depression angle facing the front where the imaging lenses of the imaging unit 220 and the imaging unit 230 are provided. The imaging direction of the imaging unit 220 may be a direction specified by the heading of the unmanned aerial vehicle 100 and the attitude of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 may be a direction specified by the heading of the unmanned aerial vehicle 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。 The UAV control unit 110 may identify the environment around the unmanned aerial vehicle 100 by analyzing the plurality of images captured by the plurality of image capturing units 230. The UAV control unit 110 may control the flight, for example, by avoiding an obstacle based on the environment around the unmanned aerial vehicle 100.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。 The UAV control unit 110 may acquire stereoscopic information (three-dimensional information) indicating the three-dimensional shape (three-dimensional shape) of an object existing around the unmanned aerial vehicle 100. The object may be, for example, a part of a landscape such as a building, a road, a car or a tree. The stereoscopic information is, for example, three-dimensional space data. The UAV control unit 110 may acquire stereoscopic information by generating stereoscopic information indicating the stereoscopic shape of an object existing around the unmanned aerial vehicle 100 from each image obtained from the plurality of imaging units 230. The UAV control unit 110 may acquire the stereoscopic information indicating the stereoscopic shape of the object existing around the unmanned aerial vehicle 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire three-dimensional information regarding the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to a three-dimensional map database managed by a server existing on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the position of the unmanned aerial vehicle 100 including latitude, longitude, and altitude by controlling the rotary wing mechanism 210. The UAV control unit 110 may control the imaging range of the imaging unit 220 by controlling the flight of the unmanned aerial vehicle 100. The UAV control unit 110 may control the angle of view of the image capturing unit 220 by controlling the zoom lens included in the image capturing unit 220. The UAV control unit 110 may use the digital zoom function of the imaging unit 220 to control the angle of view of the imaging unit 220 by digital zoom.

撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。 When the imaging unit 220 is fixed to the unmanned aerial vehicle 100 and the imaging unit 220 cannot be moved, the UAV control unit 110 moves the unmanned aerial vehicle 100 to a specific position at a specific date and time to perform desired imaging in a desired environment. The range may be captured by the image capturing section 220. Alternatively, even when the image capturing unit 220 does not have a zoom function and the angle of view of the image capturing unit 220 cannot be changed, the UAV control unit 110 moves the unmanned aerial vehicle 100 to a specific position at the specified date and time, thereby making it Under the above environment, the image capturing section 220 may capture a desired image capturing range.

通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報(メタデータ)を、端末80に送信してよい。 The communication interface 150 communicates with the terminal 80. The communication interface 150 may perform wireless communication by any wireless communication method. The communication interface 150 may perform wired communication by any wired communication method. The communication interface 150 may transmit the aerial image and additional information (metadata) regarding the aerial image to the terminal 80.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。 In the memory 160, the UAV control unit 110 includes a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. It stores programs and the like necessary for controlling the measuring device 290. The memory 160 may be a computer-readable recording medium such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of flash memories such as a USB (Universal Serial Bus) memory. Memory 160 may be removable from unmanned aerial vehicle 100. The memory 160 may operate as a working memory.

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、空撮画像を記録してよい。 The storage 170 may include at least one of HDD (Hard Disk Drive), SSD (Solid State Drive), SD card, USB memory, and other storage. The storage 170 may hold various information and various data. Storage 170 may be removable from unmanned aerial vehicle 100. The storage 170 may record an aerial image.

メモリ160又はストレージ170は、端末80又は無人航空機100により生成された空撮位置や空撮経路の情報を保持してよい。空撮位置や空撮経路の情報は、無人航空機100により予定された空撮に係る空撮パラメータ、又は、無人航空機100により予定された飛行に係る飛行パラメータ、の1つとして、UAV制御部110により設定されてよい。この設定情報は、メモリ160又はストレージ170に保持されてよい。 The memory 160 or the storage 170 may hold information on the aerial shooting position and the aerial shooting route generated by the terminal 80 or the unmanned aerial vehicle 100. The information on the aerial shooting position and the aerial shooting route is one of the aerial shooting parameters related to the aerial shooting scheduled by the unmanned aerial vehicle 100 or the flight parameters related to the flight scheduled by the unmanned aerial vehicle 100. May be set by. This setting information may be held in the memory 160 or the storage 170.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。 The gimbal 200 may rotatably support the imaging unit 220 around a yaw axis, a pitch axis, and a roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでよいし、その他の数でよい。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors that rotate the plurality of rotary blades. The rotary wing mechanism 210 causes the unmanned aerial vehicle 100 to fly by being controlled in rotation by the UAV control unit 110. The number of the rotary blades 211 may be, for example, four or any other number. Further, unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wing.

撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。撮像部220は、撮像部の一例である。 The imaging unit 220 images a subject in a desired imaging range and generates captured image data. The image data (for example, an aerial image) obtained by the image pickup of the image pickup unit 220 may be stored in the memory included in the image pickup unit 220 or the storage 170. The image capturing section 220 is an example of an image capturing section.

撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。 The imaging unit 230 images the surroundings of the unmanned aerial vehicle 100 and generates captured image data. The image data of the image capturing unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。 The GPS receiver 240 receives a plurality of signals indicating the time transmitted from a plurality of navigation satellites (that is, GPS satellites) and the position (coordinates) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the received signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the UAV control unit 110. The position information of the GPS receiver 240 may be calculated by the UAV control unit 110 instead of the GPS receiver 240. In this case, the UAV control unit 110 is input with the information indicating the time and the position of each GPS satellite included in the plurality of signals received by the GPS receiver 240.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。 Inertial measurement device 250 detects the attitude of unmanned aerial vehicle 100 and outputs the detection result to UAV control unit 110. The inertial measurement device 250 detects, as the attitude of the unmanned aerial vehicle 100, three-axis accelerations in the front-rear, left-right, and up-down directions of the unmanned aerial vehicle 100 and angular velocities in the three-axis directions of the pitch axis, roll axis, and yaw axis. You may.

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。 The magnetic compass 260 detects the heading of the nose of the unmanned aerial vehicle 100, and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。 Barometric altimeter 270 detects the altitude at which unmanned aerial vehicle 100 flies, and outputs the detection result to UAV controller 110.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。 The ultrasonic sensor 280 emits an ultrasonic wave, detects the ultrasonic wave reflected by the ground or an object, and outputs the detection result to the UAV control unit 110. The detection result may indicate the distance from the unmanned aerial vehicle 100 to the ground, that is, the altitude. The detection result may indicate the distance from the unmanned aerial vehicle 100 to the object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。 Laser measuring instrument 290 irradiates an object with laser light, receives reflected light reflected by the object, and measures the distance between unmanned aerial vehicle 100 and the object (subject) by the reflected light. The distance measurement method using laser light may be, for example, a time-of-flight method.

図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御を希望するユーザに所持され得る。 FIG. 5 is a block diagram showing an example of the hardware configuration of the terminal 80. The terminal 80 includes a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89. Terminal 80 may be carried by a user who desires flight control of unmanned aerial vehicle 100.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The terminal control unit 81 is configured by using, for example, a CPU, MPU or DSP. The terminal control unit 81 performs signal processing for centrally controlling the operation of each unit of the terminal 80, data input/output processing with other units, data arithmetic processing, and data storage processing.

端末制御部81は、通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報(例えば各種パラメータ)を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報(例えば位置、速度、飛行経路の情報)を送信させてよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。 The terminal control unit 81 may acquire data or information from the unmanned aerial vehicle 100 via the communication unit 85. The terminal control unit 81 may acquire data or information (for example, various parameters) input via the operation unit 83. The terminal control unit 81 may acquire the data and information held in the memory 87. The terminal control unit 81 may cause the unmanned aerial vehicle 100 to transmit data and information (for example, position, speed, flight route information) via the communication unit 85. The terminal control unit 81 may send data or information to the display unit 88 and cause the display unit 88 to display display information based on the data or information.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100へ送信されてよい。 The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include input devices such as buttons, keys, a touch screen, and a microphone. Here, it is illustrated that the operation unit 83 and the display unit 88 are mainly configured by a touch panel. In this case, the operation unit 83 can accept touch operations, tap operations, drag operations, and the like. The operation unit 83 may receive information on various parameters. The information input by operation unit 83 may be transmitted to unmanned aerial vehicle 100.

通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。 The communication unit 85 wirelessly communicates with the unmanned aerial vehicle 100 by various wireless communication systems. The wireless communication method of this wireless communication may include communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless line, for example. The communication unit 85 may perform wired communication by any wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。 The memory 87 has, for example, a ROM that stores a program that defines the operation of the terminal 80 and data of setting values, and a RAM that temporarily stores various information and data used during processing by the terminal control unit 81. You may. The memory 87 may include a memory other than a ROM and a RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be provided so as to be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。 The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81. The display unit 88 may display various data and information relating to the execution of the application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100から取得された空撮画像やその付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。 The storage 89 accumulates and holds various data and information. The storage 89 may be a HDD, SSD, SD card, USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be detachably provided from the terminal 80. The storage 89 may store an aerial image acquired from the unmanned aerial vehicle 100 and its additional information. The additional information may be held in the memory 87.

次に、飛行システム10の動作について説明する。飛行システム10の無人航空機100又は端末80は、無人航空機100により撮像された複数の撮像画像に基づいて、地面の3次元形状を推定(地形推定)するための処理を行う。なお、ここでの地形には、撮像部220により地面方向を撮像した際に撮像範囲に映り込む物体(例えば地面、建物、その他のオブジェクト)の形状を広く含まれてよい。 Next, the operation of the flight system 10 will be described. The unmanned aerial vehicle 100 or the terminal 80 of the flight system 10 performs a process for estimating the three-dimensional shape of the ground (terrain estimation) based on the plurality of captured images captured by the unmanned aerial vehicle 100. Note that the terrain here may include a wide range of shapes of objects (for example, the ground, buildings, and other objects) reflected in the imaging range when the imaging unit 220 images the ground direction.

図6は、地形推定処理手順の一例を示すフローチャートである。一例として、この処理は、無人航空機100のUAV制御部110がメモリ160に記憶されたプログラムを実行することによって行われてよい。また、端末80は、地形推定処理を補助する動作を行ってよい。例えば、端末80は、ユーザ操作を受け付けたり、ユーザに情報を表示したりしてよい。 FIG. 6 is a flowchart showing an example of a terrain estimation processing procedure. As an example, this process may be performed by the UAV control unit 110 of the unmanned aerial vehicle 100 executing a program stored in the memory 160. In addition, the terminal 80 may perform an operation that assists the terrain estimation processing. For example, the terminal 80 may receive a user operation or display information to the user.

UAV制御部110は、飛行範囲と各種パラメータを取得する(S1)。この場合、ユーザが、端末80に対し、飛行範囲とパラメータを入力してよい。端末制御部81は、操作部83を介してユーザ入力を受け付け、入力された飛行範囲とパラメータを取得してよい。端末制御部81は、飛行範囲とパラメータを、通信部85を介して端末80へ送信してよい。 The UAV control unit 110 acquires a flight range and various parameters (S1). In this case, the user may input the flight range and parameters into the terminal 80. The terminal control unit 81 may receive a user input via the operation unit 83 and acquire the input flight range and parameters. The terminal control unit 81 may transmit the flight range and parameters to the terminal 80 via the communication unit 85.

端末制御部81は、通信部85を介して、外部サーバから地図情報を取得してよい。飛行範囲の情報は、例えば、飛行範囲を矩形の範囲に設定する場合、ユーザが地図情報における矩形の四隅の位置(緯度,経度)を入力することで得られてよい。また、飛行範囲の情報は、飛行範囲を円形の範囲に設定する場合、ユーザが飛行位置を中心とする円の半径を入力することで得られてよい。また、飛行範囲の情報は、ユーザが地域や特定の地名(例えば東京)等の情報を入力することで、地図情報を基に得られてよい。また、端末制御部81は、メモリ87やストレージ89に保持された飛行範囲を、メモリ87やストレージ89から取得してよい。飛行範囲は、無人航空機100が飛行する予定の範囲でよい。 The terminal control unit 81 may acquire the map information from the external server via the communication unit 85. The information on the flight range may be obtained by the user inputting the positions (latitude, longitude) of the four corners of the rectangle in the map information when setting the flight range to a rectangular range, for example. Further, the flight range information may be obtained by the user inputting the radius of a circle centered on the flight position when the flight range is set to a circular range. In addition, the flight range information may be obtained based on the map information by the user inputting information such as a region and a specific place name (for example, Tokyo). Further, the terminal control unit 81 may acquire the flight range held in the memory 87 or the storage 89 from the memory 87 or the storage 89. The flight range may be the range in which unmanned aerial vehicle 100 is scheduled to fly.

パラメータは、撮像部220による撮像に関する撮像パラメータや無人航空機100の飛行に関する飛行パラメータでよい。撮像パラメータは、撮像位置、撮像日時、被写体までの距離、撮像画角、撮像時の無人航空機100の姿勢、撮像方向、撮像条件、カメラパラメータ(シャッタスピード、露出値、撮像モード、等)を含んでよい。飛行パラメータは、飛行位置(3次元位置又は2次元位置)、飛行高度、飛行速度、飛行加速度、飛行経路、飛行日時、等を含んでよい。端末制御部81は、メモリ87やストレージ89に保持された各種パラメータを、メモリ87やストレージ89から取得してよい。端末制御部81は、通信部85を介して、取得された飛行範囲と各種パラメータを無人航空機100に送信してよい。 The parameters may be imaging parameters related to imaging by the imaging unit 220 or flight parameters related to flight of the unmanned aerial vehicle 100. The imaging parameters include an imaging position, an imaging date and time, a distance to a subject, an imaging angle of view, an attitude of the unmanned aerial vehicle 100 at the time of imaging, an imaging direction, an imaging condition, camera parameters (shutter speed, exposure value, imaging mode, etc.). Good. The flight parameter may include a flight position (three-dimensional position or two-dimensional position), flight altitude, flight speed, flight acceleration, flight path, flight date and time, and the like. The terminal controller 81 may acquire various parameters held in the memory 87 or the storage 89 from the memory 87 or the storage 89. The terminal control unit 81 may transmit the acquired flight range and various parameters to the unmanned aerial vehicle 100 via the communication unit 85.

無人航空機100では、UAV制御部110は、通信インタフェース150を介して端末80から飛行範囲と各種パラメータを取得してよい。なお、UAV制御部110自身が、飛行範囲と各種パラメータを、通信インタフェース150を介して外部サーバから取得したり、メモリ160から取得したり、無人航空機100内の各センサ(例えばGPS受信機240、慣性計測装置250)から取得したり、導出したりしてもよい。UAV制御部110は、飛行範囲と各種パラメータを基に飛行経路や撮像位置を決定してよい。 In the unmanned aerial vehicle 100, the UAV control unit 110 may acquire the flight range and various parameters from the terminal 80 via the communication interface 150. Note that the UAV control unit 110 itself acquires the flight range and various parameters from the external server via the communication interface 150, the memory 160, and each sensor (for example, the GPS receiver 240, etc.) in the unmanned aerial vehicle 100. It may be obtained or derived from the inertial measurement device 250). The UAV control unit 110 may determine the flight route and the imaging position based on the flight range and various parameters.

UAV制御部110は、メッシュパターンとして初期グリッド(初期状態のグリッドgd)を生成する(S2)。 The UAV control unit 110 generates an initial grid (grid gd in the initial state) as a mesh pattern (S2).

グリッドgdには、形状の推定対象となる撮像範囲の地形が仮想的に表現される。よって、グリッドgdは、撮像範囲と同じ範囲、又は撮像範囲に含まれる範囲に設定される。そして、実空間における撮像範囲における各点の高度の仮定や推定が行われると、仮想空間におけるグリッドgdにおけるグリッド点の高度の仮定や推定が行われる。グリッドgdは、格子状、三角形、その他の多角形、その他の形状でよく、グリッドgdの頂点であるグリッド点gpを含む。 In the grid gd, the terrain in the image capturing range whose shape is to be estimated is virtually represented. Therefore, the grid gd is set to the same range as the imaging range or a range included in the imaging range. When the altitude of each point in the imaging range in the real space is assumed or estimated, the altitude of the grid point in the grid gd in the virtual space is assumed or estimated. The grid gd may have a grid shape, a triangle, another polygon, or another shape, and includes a grid point gp that is the apex of the grid gd.

各グリッド点gpの高度は、初期状態では全て値0でよい。なお、グリッド点gpの初期状態の高度は、端末80の操作部83を介してユーザが設定した任意の高度の値でもよい。この場合、UAV制御部110は、通信インタフェース150を介して端末80から高度の値を取得してよい。 All the altitudes of the grid points gp may be 0 in the initial state. The initial altitude of the grid point gp may be an arbitrary altitude value set by the user via the operation unit 83 of the terminal 80. In this case, the UAV control unit 110 may acquire the altitude value from the terminal 80 via the communication interface 150.

各グリッド点gpの間隔(グリッド間隔)は、所定の値でもよいし、UAV制御部110によって任意に設定されてもよい。グリッド間隔は、1m、2m、等であってよい。例えば、端末80の端末制御部81が、操作部83を介してグリッド間隔を指定し、通信部85を介してグリッド間隔の情報を無人航空機100に送信してよい。UAV制御部110は、通信インタフェース150を介してグリッド間隔の情報を取得し、設定してよい。 The interval (grid interval) between the grid points gp may be a predetermined value or may be arbitrarily set by the UAV control unit 110. The grid spacing may be 1 m, 2 m, etc. For example, the terminal control unit 81 of the terminal 80 may specify the grid interval via the operation unit 83 and transmit the grid interval information to the unmanned aerial vehicle 100 via the communication unit 85. The UAV control unit 110 may acquire and set the information on the grid interval via the communication interface 150.

また、撮像範囲の概略形状の情報が用意されている場合、UAV制御部110は、概略形状の情報を取得してよい。UAV制御部110は、概略形状をグリッド点gpでサンプリングし、各グリッド点gpでの高度を得て、グリッド点gpの高度に設定してよい。例えば、UAV制御部110は、通信インタフェース150を介して接続されたネットワーク上の地図サーバと連動し、撮像範囲の地形情報を概略形状の情報として取得してよい。地形情報は、撮像範囲の各グリッド点gpの位置情報(緯度、経度、高度)を含んでよい。また、地形情報は、建物、山、森林、鉄塔等の地表面の形状の情報やオブジェクトの情報を含んでよい。 Further, when the information on the rough shape of the imaging range is prepared, the UAV control unit 110 may acquire the information on the rough shape. The UAV control unit 110 may sample the outline shape at the grid points gp, obtain the altitude at each grid point gp, and set the altitude at the grid point gp. For example, the UAV control unit 110 may interlock with a map server on a network connected via the communication interface 150 and acquire the topographical information of the image capturing range as the information of the rough shape. The topographical information may include position information (latitude, longitude, altitude) of each grid point gp in the imaging range. The topographical information may include information on the shape of the ground surface such as buildings, mountains, forests, and steel towers, and information on objects.

UAV制御部110は、決定された飛行経路に従って飛行を制御し、撮像部220に画像を撮像(例えば空撮)させ、撮像画像をストレージ170に保持させる(S3)。この撮像は、飛行経路に沿った各撮像位置において行われ、複数の撮像画像がストレージ170に保持されてよい。また、UAV制御部110は、撮像画像に関する付加情報をストレージ170に保持させてよい。この付加情報は、上記の各種パラメータ(例えば飛行パラメータ、撮像パラメータ)と同様の情報を含んでよい。よって、UAV制御部110は、撮像画像を撮像した際の撮像部220(つまり無人航空機100)の撮像位置、撮像時の姿勢、撮像方向、等の情報を取得してよい。 The UAV control unit 110 controls flight according to the determined flight path, causes the image capturing unit 220 to capture an image (for example, aerial image capturing), and stores the captured image in the storage 170 (S3). This imaging is performed at each imaging position along the flight path, and a plurality of captured images may be held in the storage 170. Further, the UAV control unit 110 may cause the storage 170 to hold additional information regarding the captured image. This additional information may include the same information as the above-mentioned various parameters (for example, flight parameters and imaging parameters). Therefore, the UAV control unit 110 may acquire information such as the image capturing position of the image capturing unit 220 (that is, the unmanned aerial vehicle 100) when capturing the captured image, the attitude at the time of image capturing, the image capturing direction, and the like.

UAV制御部110は、撮像部220又はストレージ170から複数の撮像画像を取得する。UAV制御部110は、各撮像画像に含まれる複数の特徴点を抽出してよい。特徴点は、撮像画像上の任意の位置の点でよい。UAV制御部110は、各撮像画像に含まれる複数の特徴点に対し、同じ特徴点同士を対応させるマッチング処理を行い、対応する特徴点としての対応点を生成してよい。UAV制御部110は、複数の対応点を含む疎な点群を生成してよい。UAV制御部110は、例えばsfmに従って、疎な点群を生成してよい。疎な点群の数は、例えば1画像当たり数100点程でよい。疎な点群に含まれる点のデータには、3次元位置を示すデータが含まれてよい。このように、UAV制御部110は、複数の撮像画像を基に、疎な点群を生成する(S5)。 The UAV control unit 110 acquires a plurality of captured images from the image capturing unit 220 or the storage 170. The UAV control unit 110 may extract a plurality of feature points included in each captured image. The feature point may be a point at any position on the captured image. The UAV control unit 110 may perform matching processing on the plurality of feature points included in each captured image so that the same feature points correspond to each other, and generate corresponding points as corresponding feature points. The UAV control unit 110 may generate a sparse point group including a plurality of corresponding points. The UAV control unit 110 may generate a sparse point cloud according to, for example, sfm. The number of sparse point groups may be, for example, several hundred points per image. The data of the points included in the sparse point group may include data indicating a three-dimensional position. In this way, the UAV control unit 110 generates a sparse point cloud based on a plurality of captured images (S5).

なお、疎な点群は、グリッドgdのグリッド点gpとは一致しなくてよい。疎な点群の2次元平面における位置(実空間における高度を考慮しない位置)は、グリッド点gpの2次元平面における位置(グリッド高度を考慮しない位置)と一致しなくてよく、初期グリッドではグリッド高度も厳密に定められていないためである。 Note that the sparse point group does not have to match the grid point gp of the grid gd. The position of the sparse point group on the two-dimensional plane (the position that does not consider the altitude in the real space) does not have to match the position of the grid point gp on the two-dimensional plane (the position that does not consider the grid altitude). This is because the altitude is not strictly defined.

UAV制御部110は、生成された特徴点、対応点、疎な点群のデータを、メモリ160又はストレージ170に蓄積してよい。これにより、UAV制御部110は、次回以降の疎な点群の生成では、新たに取得された撮像画像に基づく疎な点群を生成すればよく、今回以前の疎な点群は、メモリ160又はストレージ170から取得すればよい。例えば、今回以前の撮像では撮像されていなかった場所について次回以降に撮像され、新たな特徴点、対応点、疎な点群データが生成されてよい。また、今回以前の撮像で撮像された場所であるが、今回以前の撮像における撮像方向や撮像角度が異なり、同じ場所についての情報量が不足していた場合においても、新たな特徴点、対応点、疎な点群データが生成されてよい。つまり、UAV制御部110は、新たな撮像画像に基づく疎な点群を、既存の撮像画像についての疎な点群に追加してよい。この場合、無人航空機100は、疎な点群データを生成するための処理負荷を低減でき、処理時間を短縮でき、リアルタイム性を向上できる。したがって、UAV制御部110は、画像撮像、撮像された画像についての疎な点群生成の後に、新たな画像撮像、新たな画像についての疎な点群生成、を逐次的に繰り返してよい。 The UAV control unit 110 may store the generated feature points, corresponding points, and sparse point group data in the memory 160 or the storage 170. As a result, the UAV control unit 110 may generate a sparse point group based on a newly acquired captured image when generating a sparse point group from the next time onward, and the sparse point group before this time is stored in the memory 160. Alternatively, it may be acquired from the storage 170. For example, a new feature point, corresponding point, and sparse point cloud data may be generated by capturing an image of a place that was not captured by the image capturing before this time and the next time. In addition, even if it is the place where the image was taken in the previous image, but the imaging direction and image angle in the previous image were different and the amount of information about the same place was insufficient, new feature points and corresponding points , Sparse point cloud data may be generated. That is, the UAV control unit 110 may add the sparse point cloud based on the new captured image to the sparse point cloud of the existing captured image. In this case, the unmanned aerial vehicle 100 can reduce the processing load for generating sparse point cloud data, reduce the processing time, and improve the real-time property. Therefore, the UAV control unit 110 may sequentially repeat the image capturing, the sparse point cloud generation for the captured image, the new image capturing, and the sparse point cloud generation for the new image.

UAV制御部110は、ドロネー(Delaunay)三角化、PSR(Poisson Surface Reconstruction)等のメッシュ化技術により、疎な点群に含まれる複数の点(例えば3点)を頂点とするサーフェス(面)sfを生成する。つまり、UAV制御部110は、疎な点群を基に、疎な点群に含まれる複数の点を含むサーフェスsfの形状を生成する。また、サーフェスsfは、形状推定の推定対象の表面の形状に対応してよい。UAV制御部110は、疎な点群で形成されるサーフェスsfに、グリッドgdにおけるグリッド点gpが含まれるように、グリッド点gp(各グリッド点gpのグリッド高度)を補正し、グリッド初期値とする(S6)。なお、グリッド点gpにおけるグリッド初期値(グリッドのグリッド高度の初期値)が、地形に対応する高度を示すものとは限らない。グリッド初期値を起点として、そのグリッド点gpにおける高度を変更しながら、地形に対応する高度が探索されてよい。 The UAV control unit 110 uses a meshing technique such as Delaunay triangulation or PSR (Poisson Surface Reconstruction) to form a surface sf having a plurality of points (for example, three points) included in a sparse point group as vertices. To generate. That is, the UAV control unit 110 generates the shape of the surface sf including a plurality of points included in the sparse point group based on the sparse point group. Further, the surface sf may correspond to the shape of the surface that is the estimation target of the shape estimation. The UAV control unit 110 corrects the grid points gp (grid altitude of each grid point gp) so that the surface sf formed by the sparse point group includes the grid points gp in the grid gd, and the grid initial values are set as the grid initial values. Yes (S6). Note that the grid initial value at the grid point gp (the initial value of the grid altitude of the grid) does not always indicate the altitude corresponding to the terrain. The altitude corresponding to the terrain may be searched while changing the altitude at the grid point gp with the grid initial value as the starting point.

UAV制御部110は、グリッド初期値を起点として、グリッド高度を探索するための探索軸(地面を示すグリッド面に垂直な軸)に沿ってグリッド高度を変更しながら、グリッド高度を仮定する。よって、UAV制御部110は、仮定されたグリッド高度を有する仮定グリッド点PSを生成する。グリッド高度は、例えば、グリッド点に対応する推定対象や地形の高度に対応する。UAV制御部110は、複数の撮像画像において同一の仮定グリッド点PSが投影されるそれぞれの仮定投影位置について、画像(画素)の類似度を導出(例えば算出)してよい。UAV制御部110は、この画素の類似度に基づいて、探索軸Ax1上の複数の仮定グリッド点PSのうち、最適な(地面に近いと思われる)グリッド点psを推定する。UAV制御部110は、類似度が閾値th1以上(例えば最大)となる仮定グリッド点PSをグリッド点gpとして推定してよい。なお、UAV制御部110は、単一の画素の類似度を基にグリッド点(グリッド高度)を推定する代わりに、隣接する複数の画素を含む所定の画素範囲の類似度を基にグリッド点を推定してもよい。 The UAV control unit 110 assumes the grid altitude while changing the grid altitude along the search axis (axis perpendicular to the grid plane indicating the ground) for searching the grid altitude with the grid initial value as the starting point. Therefore, the UAV controller 110 generates the hypothetical grid point PS having the hypothesized grid height. The grid altitude corresponds to, for example, the altitude of the estimation target or the terrain corresponding to the grid point. The UAV control unit 110 may derive (for example, calculate) the degree of similarity of images (pixels) with respect to each hypothetical projection position where the same hypothetical grid point PS is projected in a plurality of captured images. The UAV control unit 110 estimates the optimum (probably close to the ground) grid point ps among the plurality of hypothetical grid points PS on the search axis Ax1 based on the similarity of the pixels. The UAV control unit 110 may estimate, as the grid point gp, a hypothetical grid point PS at which the degree of similarity is greater than or equal to the threshold value th1 (for example, maximum). Note that the UAV control unit 110 does not estimate the grid points (grid altitude) based on the similarity of a single pixel, but determines the grid points based on the similarity of a predetermined pixel range including a plurality of adjacent pixels. It may be estimated.

UAV制御部110により探索軸Ax1に沿ってグリッド点gpの高度を探索する探索方式は、全探索法でもよいし、最適法(例えば二分探索法、LM探索法)でもよい。UAV制御部110は、各撮像画像における各仮定投影位置の類似度を、NCC(Normalized Cross-Correlation)、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)等を用いて算出してよい。 The search method for searching the altitude of the grid point gp along the search axis Ax1 by the UAV control unit 110 may be a full search method or an optimum method (for example, a binary search method or an LM search method). The UAV control unit 110 may calculate the similarity of each hypothetical projection position in each captured image using NCC (Normalized Cross-Correlation), SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), or the like. ..

なお、各撮像画像における各仮定投影位置の画素の類似度を、グリッド点gp(グリッド高度)を推定するための指標とすることは一例であり、UAV制御部110は、他の指標を基に、最適なグリッド点gpを推定してもよい。例えば、UAV制御部110は、上記の類似度が高い場合に低いスコアとなるような誤差スコアを想定し、誤差スコアを基に、最適なグリッド点を推定してもよい。この場合、UAV制御部110は、例えば誤差スコアが閾値th2以下(例えば最小)となるように、最適なグリッド点を推定してよい。 Note that the similarity of the pixels at each assumed projection position in each captured image is used as an index for estimating the grid point gp (grid altitude), and the UAV control unit 110 uses the other indices as the basis. , The optimum grid point gp may be estimated. For example, the UAV control unit 110 may assume an error score that results in a low score when the degree of similarity is high, and may estimate an optimum grid point based on the error score. In this case, the UAV control unit 110 may estimate the optimum grid point such that the error score is equal to or less than the threshold th2 (for example, the minimum).

UAV制御部110は、グリッド点gpの高度の探索は、撮像範囲に対応するグリッドgdにおける各グリッド点gpに対して行われる。なお、ここでの各グリッド点gpとは、グリッドgdにおける全てのグリッド点gpでもよい、一部のグリッド点gpでもよい。 The UAV control unit 110 searches the altitude of the grid point gp for each grid point gp in the grid gd corresponding to the imaging range. The grid points gp here may be all grid points gp in the grid gd or some grid points gp.

このようにして、UAV制御部110は、グリッド点gpの高度を推定する。UAV制御部110は、各グリッド点gpの高度を推定することで、グリッド形状を推定する(S7)。グリッド形状は、各グリッド点gpの実際の高度が推定された結果を反映したグリッドgdの形状となり、撮像範囲における地面の形状に相当する。 In this way, the UAV control unit 110 estimates the altitude of the grid point gp. The UAV control unit 110 estimates the grid shape by estimating the altitude of each grid point gp (S7). The grid shape is the shape of the grid gd that reflects the result of the estimation of the actual altitude of each grid point gp, and corresponds to the shape of the ground in the imaging range.

UAV制御部110は、無人航空機100が備える撮像部220による撮像(例えば空撮)が完了したか否かを判別する(S8)。UAV制御部110は、例えば、無人航空機100が、予定されていた飛行経路に従って飛行し、予定されていた撮像位置での画像の撮像が終了した場合に、空撮が完了したと判別してよい。UAV制御部110は、端末80の操作部83を介してユーザが空撮の終了を指示し、この指示の情報が通信部85を介して取得された場合に、空撮が完了したと判別してよい。空撮が完了していない場合、UAV制御部110は、S3に戻り、空撮を継続する。空撮が完了した場合、UAV制御部110は、図6の処理を終了する。 The UAV control unit 110 determines whether or not the imaging (for example, aerial photography) by the imaging unit 220 included in the unmanned aerial vehicle 100 is completed (S8). The UAV control unit 110 may determine that the aerial shooting is completed, for example, when the unmanned aerial vehicle 100 flies according to a scheduled flight path and the image capturing at the scheduled image capturing position ends. .. The UAV control unit 110 determines that the aerial photography is completed when the user gives an instruction to end the aerial photography via the operation unit 83 of the terminal 80 and the information of this instruction is acquired via the communication unit 85. You may. If the aerial shooting is not completed, the UAV control unit 110 returns to S3 and continues the aerial shooting. When the aerial shooting is completed, the UAV control unit 110 ends the processing of FIG.

無人航空機100は、地面方向の撮像とグリッド形状の推定とを反復して行う。したがって、反復回数が大きくなるに連れ、生成される疎な点群の数が増えてゆく。そのため、グリッド形状の推定として得られる地形形状は、徐々に、実際の地形形状に近づいていく。この場合でも、UAV制御部110は、新たに追加された撮像画像から抽出された疎な点群を、既存の撮像画像から抽出された疎な点群に追加して、新たな疎な点群を生成可能である。よって、無人航空機100は、撮像画像を取得する度に計算量が増えることを抑制でき、リアルタイム性の高いグリッド形状の推定、つまり地形推定を実現できる。 The unmanned aerial vehicle 100 repeatedly performs imaging of the ground direction and estimation of the grid shape. Therefore, as the number of iterations increases, the number of generated sparse point clouds increases. Therefore, the terrain shape obtained as the estimation of the grid shape gradually approaches the actual terrain shape. Even in this case, the UAV control unit 110 adds the sparse point group extracted from the newly added captured image to the sparse point group extracted from the existing captured image to create a new sparse point group. Can be generated. Therefore, the unmanned aerial vehicle 100 can suppress an increase in the amount of calculation each time a captured image is acquired, and can realize estimation of a grid shape with high real-time property, that is, terrain estimation.

なお、UAV制御部110は、S7において推定されたグリッド形状の情報を、通信インタフェース150を介して端末80に送信してよい。端末80では、通信部85を介し推定されたグリッド形状の情報を取得し、表示部88を介して表示させてよい。これにより、推定されたグリッド形状、つまり飛行範囲における推定された地面形状を、ユーザが確認できる。 Note that the UAV control unit 110 may transmit the grid shape information estimated in S7 to the terminal 80 via the communication interface 150. In the terminal 80, the grid shape information estimated via the communication unit 85 may be acquired and displayed via the display unit 88. This allows the user to confirm the estimated grid shape, that is, the estimated ground shape in the flight range.

なお、撮像部220により撮像された撮像画像ではなく、撮像部230により撮像された撮像画像を基に、グリッド形状推定が行われてもよい。 Note that the grid shape estimation may be performed based on the captured image captured by the image capturing unit 230 instead of the captured image captured by the image capturing unit 220.

なお、図6の地形推定処理の少なくとも一部の処理が、端末80により実行されてもよい。例えば、端末制御部81は、S3において撮像画像を無人航空機100から取得し、疎な点群の生成(S5)、グリッド初期値の生成(S6)、グリッド形状推定(S7)、等を行ってよい。また、端末制御部81は、S9において空撮が完了したか否かの情報を無人航空機100から取得してよい。また、無人航空機100と端末80とで、地形推定処理を分担して実施してもよい。 It should be noted that at least a part of the terrain estimation processing of FIG. 6 may be executed by the terminal 80. For example, the terminal control unit 81 acquires a captured image from the unmanned aerial vehicle 100 in S3, performs sparse point cloud generation (S5), grid initial value generation (S6), grid shape estimation (S7), and the like. Good. In addition, the terminal control unit 81 may acquire, from the unmanned aerial vehicle 100, information on whether or not the aerial shooting is completed in S9. In addition, the unmanned aerial vehicle 100 and the terminal 80 may share the terrain estimation processing.

次に、図6の各ステップにおける処理を補足する。 Next, the processing in each step of FIG. 6 will be supplemented.

図7は、初期グリッドの生成例を示す図である。初期グリッドの形状は、撮像範囲を基に、決定されてよい。図7では、初期グリッドの形状は、平面的な矩形である。図7では、隣接する4つのグリッド点gpを頂点する四角形を組み合わせて、グリッドgdが生成されている。隣接するグリッド点gpにより他の形状(例えば三角形)が生成され、他の形状が組み合わされてグリッドgdが生成されてもよい。つまり、グリッドgdにおける各グリッド点gpを頂点とする単位グリッドは、三角形でも四角形でもその他の形状でもよい。 FIG. 7 is a diagram showing an example of generating an initial grid. The shape of the initial grid may be determined based on the imaging range. In FIG. 7, the shape of the initial grid is a planar rectangle. In FIG. 7, a grid gd is generated by combining quadrangles having four adjacent grid points gp as vertices. Other shapes (for example, triangles) may be generated by the adjacent grid points gp, and the other shapes may be combined to generate the grid gd. That is, the unit grid having the apex at each grid point gp in the grid gd may be a triangle, a quadrangle, or any other shape.

図8は、疎な点群の生成例を示す図である。疎な点群は、撮像画像に含まれる特徴点を基に、UAV制御部110によって生成されてよい。図8では、4つの疎な点群(点P1〜P4)が生成される。4つの疎な点群(点P1〜P4)のうち、疎な点P2の高度が最も低く、疎な点P3,P4の高度が高い。 FIG. 8 is a diagram illustrating an example of generating a sparse point cloud. The sparse point cloud may be generated by the UAV control unit 110 based on the feature points included in the captured image. In FIG. 8, four sparse point groups (points P1 to P4) are generated. Of the four sparse point groups (points P1 to P4), the sparse point P2 has the lowest altitude and the sparse points P3 and P4 have the highest altitude.

図9は、疎な点群(点P1〜P4)で囲まれるサーフェスsf1〜sf3の生成例を示す図である。疎な点群の形状を表すサーフェスsf(sf1,sf2,sf3,・・・)は、前述したメッシュ化技術により生成されてよい。サーフェスsf1は、疎な点P1,P2,P4で囲まれる面である。サーフェスsf2は、疎な点P1,P2,P3で囲まれる面である。サーフェスsf3は、疎な点P2,P3,P4で囲まれる面である。3つのサーフェスsf1〜sf3で表現される全体の面は、中央(疎な点P2)が凹んだ形状を有する。 FIG. 9 is a diagram showing a generation example of the surfaces sf1 to sf3 surrounded by the sparse point group (points P1 to P4). The surface sf (sf1, sf2, sf3,...) Representing the shape of the sparse point cloud may be generated by the meshing technique described above. The surface sf1 is a surface surrounded by the sparse points P1, P2, and P4. The surface sf2 is a surface surrounded by the sparse points P1, P2, and P3. The surface sf3 is a surface surrounded by the sparse points P2, P3, and P4. The entire surface represented by the three surfaces sf1 to sf3 has a shape in which the center (sparse point P2) is recessed.

図10は、グリッド初期値gpaの生成例を示す図である。疎な点群(点P1〜P4)で囲まれたサーフェスsf1〜sf3にグリッド点gpが含まれるように、グリッド点gpの高度が補正される。例えば、初期状態では高度=0であった点がサーフェスに合わせて補正されたり、図6の処理の前回ループ時において推定されたグリッド点gpの高度が、今回生成された疎な点群に基づくサーフェスsfに合わせて補正されたりする。この補正後の高度を有するグリッド点gpが、今回ループ時のグリッド初期値gpaとなる。全てのグリッド点gpに対し、同様の補正が行われ、グリッド点毎にグリッド初期値gpaが生成されてよい。 FIG. 10 is a diagram illustrating an example of generating the grid initial value gpa. The altitude of the grid points gp is corrected so that the surfaces sf1 to sf3 surrounded by the sparse point group (points P1 to P4) include the grid points gp. For example, the point where the altitude is 0 in the initial state is corrected according to the surface, or the altitude of the grid point gp estimated in the previous loop of the process of FIG. 6 is based on the sparse point group generated this time. It may be corrected according to the surface sf. The grid point gp having the altitude after this correction becomes the grid initial value gpa at the time of this loop. The same correction may be performed on all grid points gp to generate a grid initial value gpa for each grid point.

図10では、各グリッド点の高度が補正されたグリッド初期値が、グリッド初期値gpa1,gpa2,gpa3,gpa4,gpa5である。高度が補正されたグリッド点gpは、各グリッド点gpの高度=0の初期グリッドと比較すると、上方に盛り上がったような形状となる。 In FIG. 10, the grid initial values in which the altitude of each grid point has been corrected are grid initial values gpa1, gpa2, gpa3, gpa4, gpa5. The altitude-corrected grid point gp has a shape that is bulged upward as compared with the initial grid of altitude=0 at each grid point gp.

図11は、グリッド点gpの高度(グリッド高度)の探索例を説明する図である。撮像画像GM1,GM2を用いたグリッド高度の探索例を示す。図11では、飛行中の無人航空機100が複数の撮像画像GM1,GM2を撮像するので、撮像位置及び撮像方向が異なっている。なお、図11では、実際の地面SGは、グリッド高度h2の仮定グリッド点PS2の近傍を通ることを想定する。 FIG. 11 is a diagram illustrating an example of searching the altitude of the grid point gp (grid altitude). An example of a grid altitude search using the captured images GM1 and GM2 is shown. In FIG. 11, the unmanned aerial vehicle 100 in flight picks up a plurality of picked-up images GM1 and GM2, so that the picked-up position and the picked-up direction are different. In addition, in FIG. 11, it is assumed that the actual ground SG passes through the vicinity of the assumed grid point PS2 of the grid height h2.

UAV制御部110は、グリッド初期値gpaを起点として、探索軸ax1に沿ってグリッド高度を変更しながら最適なグリッド高度を探索する。図11では、グリッド初期値gpaは、仮定されるグリッド高度のうち最高のグリッド高度を有する仮定グリッド点PS1であり、順次グリッド高度を低くしながら探索が行われる。なお、グリッド初期値gpaの高度は、仮定されるグリッド高度のうち最低のグリッド高度を有する仮定グリッド点PS6とされ、順次グリッド高度を高くしながら探索が行われてもよい。また、探索軸ax1における端部ではなく中間部分のグリッド高度を有する仮定グリッド点(例えば仮定グリッド点PS3)をグリッド初期値の高度としてもよい。 The UAV control unit 110 searches for an optimum grid altitude while changing the grid altitude along the search axis ax1 with the grid initial value gpa as a starting point. In FIG. 11, the grid initial value gpa is the hypothetical grid point PS1 having the highest grid altitude among the assumed grid altitudes, and the search is performed while sequentially lowering the grid altitude. The altitude of the grid initial value gpa is the assumed grid point PS6 having the lowest grid altitude among the assumed grid altitudes, and the search may be performed while sequentially increasing the grid altitude. In addition, a hypothetical grid point (for example, a hypothetical grid point PS3) having a grid altitude of an intermediate portion instead of an end portion on the search axis ax1 may be the initial grid altitude.

まず、UAV制御部110は、グリッド高度h1であると仮定する。この場合、撮像画像GM1において、グリッド高度h1の仮定グリッド点PS1が投影された仮定投影位置PS1aには、地面における位置sg1a(画素)が描画される。撮像画像GM2において、グリッド高度h1の仮定グリッド点PS1が投影された仮定投影位置PS1bには、地面における位置sg1b(画素)が描画される。したがって、2つの撮像画像GM1,GM2において、仮定投影位置PS1a,PS1bに、地面であると仮定した同じ仮定グリッド点PS1が描画されるのではなく、異なる実際の地面SGの位置sg1a,sg1bが描画される。よって、仮定投影位置PS1a,PS1bに描画された画像の類似度(画素の類似度)が低くなる。 First, the UAV control unit 110 assumes that the grid altitude is h1. In this case, in the captured image GM1, the position sg1a (pixel) on the ground is drawn at the assumed projection position PS1a where the assumed grid point PS1 of the grid height h1 is projected. In the captured image GM2, the position sg1b (pixel) on the ground is drawn at the assumed projection position PS1b where the assumed grid point PS1 at the grid height h1 is projected. Therefore, in the two captured images GM1 and GM2, the same hypothetical grid points PS1 that are assumed to be the ground are not drawn at the hypothetical projection positions PS1a and PS1b, but different actual ground SG positions sg1a and sg1b are drawn. To be done. Therefore, the degree of similarity (pixel similarity) of the images drawn at the hypothetical projection positions PS1a and PS1b becomes low.

次に、UAV制御部110は、グリッド高度h2であると仮定する。この場合、撮像画像GM1において、グリッド高度h2の仮定グリッド点PS2が投影された仮定投影位置PS2aには、地面における位置sg2a(画素)が描画される。撮像画像GM1において、グリッド高度h2の仮定グリッド点PS2が投影された仮定投影位置PS2bには、地面における位置sg2b(画素)が描画される。したがって、2つの撮像画像GM1,GM2において、仮定投影位置PS2a,PS2bに、地面であると仮定した同じ仮定グリッド点PS2に近い実際の地面SGの位置sg2a,sg2bが描画される。よって、グリッド高度h2と仮定した場合の仮定投影位置PS2a,PS2bに描画された画像の類似度(画素の類似度)は、グリッド高度h1と仮定した場合よりも高くなる。 Next, the UAV control unit 110 assumes that the grid altitude is h2. In this case, in the captured image GM1, the position sg2a (pixel) on the ground is drawn at the assumed projection position PS2a where the assumed grid point PS2 of the grid height h2 is projected. In the captured image GM1, the position sg2b (pixel) on the ground is drawn at the assumed projection position PS2b where the assumed grid point PS2 at the grid height h2 is projected. Therefore, in the two captured images GM1 and GM2, the positions sg2a and sg2b of the actual ground SG close to the same hypothetical grid point PS2 assumed to be the ground are drawn at the hypothetical projection positions PS2a and PS2b. Therefore, the similarity (pixel similarity) of the images drawn at the assumed projection positions PS2a and PS2b when the grid height h2 is assumed is higher than when the grid altitude h1 is assumed.

よって、UAV制御部110は、複数の撮像画像GM1,GM2における仮定投影位置(PS1aとPS1b又はPS2aとPS2b)に描画される画像の類似度を算出し、算出された類似度を基に、最適な(実際の地面と推定される)グリッド高度のグリッド点を推定してよい。例えば、導出された複数の類似度の中で閾値th1以上(例えば最大)の類似度に対応するグリッド高度を、グリッド点gpの高度として推定してよい。 Therefore, the UAV control unit 110 calculates the similarity between the images drawn at the hypothetical projection positions (PS1a and PS1b or PS2a and PS2b) in the plurality of captured images GM1 and GM2, and based on the calculated similarity, the optimum It is possible to estimate grid points at grid altitudes (estimated as the actual ground). For example, the grid altitude corresponding to the similarity of the threshold th1 or more (for example, the maximum) among the plurality of derived similarities may be estimated as the altitude of the grid point gp.

なお、撮像画像GM1,GM2の双方が、ストレージ170に蓄積された既存の撮像画像でなく、今回撮像部220により撮像された画像であってよい。また、撮像画像GM1がストレージ170に蓄積された既存の撮像画像であり、撮像画像GM2が今回撮像部220により撮像された最新の撮像画像であってよい。また、グリッド高度を推定するための撮像画像が、3枚以上あってもよい。既存の撮像画像が複数あってもよい。最新の撮像画像が複数あってもよい。 Note that both of the captured images GM1 and GM2 may be images captured by the imaging unit 220 this time instead of the existing captured images accumulated in the storage 170. The captured image GM1 may be an existing captured image stored in the storage 170, and the captured image GM2 may be the latest captured image captured by the image capturing unit 220 this time. Further, there may be three or more captured images for estimating the grid altitude. There may be a plurality of existing captured images. There may be a plurality of latest captured images.

図12は、グリッド形状の推定例を説明する図である。図12では、UAV制御部は110、上記画素の類似度に基づいて、グリッド初期値gpaに対して上方に移動した仮定グリッド点PS2が、最適な(最も確からしい)グリッド点gpであると推定する。UAV制御部110は、撮像部220で撮像された複数枚の画像の類似度を算出し、類似度が最も高くなるグリッド高度を、最適化されたグリッド点gppの高度と推定してよい。図12では、グリッド高度がそれぞれ探索範囲za〜ze内で調整されてよい。 FIG. 12 is a diagram illustrating an example of grid shape estimation. In FIG. 12, the UAV control unit 110 estimates that the hypothetical grid point PS2 moved upward with respect to the grid initial value gpa is the optimum (most probable) grid point gp based on the similarity of the pixels. To do. The UAV control unit 110 may calculate the similarity between a plurality of images captured by the image capturing unit 220, and estimate the grid altitude at which the similarity is highest as the optimized grid point gpp altitude. In FIG. 12, the grid altitudes may be adjusted within the search ranges za to ze, respectively.

このように、実施形態1の飛行システム10では、UAV制御部110は、疎な点群に基づき、グリッド初期値を導出してよい。UAV制御部110は、グリッド初期値を起点としてグリッド高度を複数仮定し、仮定されたグリッド高度を有する仮定グリッド点PSが投影された仮定投影位置の画素の類似度を基に、グリッド高度を最適化できる。つまり、UAV制御部110は、グリッド点gpを異なる撮像画像に再投影し、再投影された各場所(仮定投影位置)の類似度を計算できる。UAV制御部110は、撮像位置と撮像方向とを基に、撮像画像に含まれる撮像範囲を認識可能である。よって、UAV制御部110は、撮像画像における仮定投影位置を特定できる。UAV制御部110は、上記の類似度に基づいて、実際のグリッド高度(真値)を推定できる。 As described above, in the flight system 10 of the first embodiment, the UAV control unit 110 may derive the grid initial value based on the sparse point cloud. The UAV control unit 110 assumes a plurality of grid altitudes with the grid initial value as a starting point, and optimizes the grid altitude based on the similarity of the pixels at the hypothetical projection position where the hypothetical grid point PS having the hypothesized grid altitude is projected. Can be converted. That is, the UAV control unit 110 can re-project the grid points gp on different captured images and calculate the degree of similarity of each re-projected location (provisional projection position). The UAV control unit 110 can recognize the imaging range included in the captured image based on the imaging position and the imaging direction. Therefore, the UAV control unit 110 can specify the assumed projection position in the captured image. The UAV control unit 110 can estimate the actual grid altitude (true value) based on the above similarity.

UAV制御部110は、疎な点群を生成する際、蓄積された撮像画像の全てを用いて疎な点群を生成する必要はない。UAV制御部110は、一度生成された疎な点群の情報を蓄積しておき、新たな撮像画像については疎な点群を生成してよい。UAV制御部110は、蓄積された疎な点群に新たな疎な点群を追加し、サーフェスsfを生成するためのデータとして使用可能である。よって、無人航空機100は、処理負荷が大きく演算時間が比較的長い疎な点群の生成処理を簡略化でき、UAV制御部110の処理負荷を低減でき、処理時間を短縮できる。したがって、無人航空機100は、地面の三次元形状を推定する際のリアルタイム性を向上できる。 When generating the sparse point group, the UAV control unit 110 does not need to generate the sparse point group by using all the captured images. The UAV control unit 110 may accumulate information of the sparse point cloud that has been generated once, and may generate a sparse point cloud for a new captured image. The UAV control unit 110 can add a new sparse point cloud to the accumulated sparse point cloud and can use it as data for generating the surface sf. Therefore, the unmanned aerial vehicle 100 can simplify the generation processing of the sparse point cloud having a large processing load and a relatively long calculation time, can reduce the processing load of the UAV control unit 110, and can shorten the processing time. Therefore, the unmanned aerial vehicle 100 can improve the real-time property when estimating the three-dimensional shape of the ground.

このように、無人航空機100(形状推定装置の一例)は、無人航空機100(飛行体)により撮像された複数の撮像画像に基づいて、地形の3次元形状を推定する。無人航空機100は、地形の3次元形状の推定に関する処理を行うUAV制御部110(処理部の一例)を備える。UAV制御部110は、無人航空機100が備える撮像部220(撮像装置)により撮像される撮像範囲において、複数のグリッド点gpを有するグリッドgdを生成してよい。UAV制御部110は、撮像部220により撮像された撮像画像GM1(第1の撮像画像の一例)及び撮像画像GM2(第2の撮像画像の一例)を取得してよい。UAV制御部110は、撮像画像GM1,GM2を撮像した際の撮像部220の3次元位置及び撮像部220による撮像方向(撮像部220の姿勢に相当)の情報を取得してよい。UAV制御部110は、複数のグリッド点gpにおける仮定グリッド点PS(第1のグリッド点に一例)の高度を複数仮定してよい。仮定グリッド点PSの高度は、例えば、グリッド点に対応する推定対象や地形の高度に対応する。UAV制御部110は、複数仮定された高度に対し、撮像部220の3次元位置及び撮像部220による撮像方向に基づいて、仮定グリッド点PSが撮像画像GM1に投影された仮定投影位置PS1a(第1の仮定投影位置の一例)と、撮像画像GM2に投影された仮定投影位置PS1b(第2の仮定投影位置の一例)と、を導出(例えば算出)してよい。UAV制御部110は、複数仮定された高度について、撮像画像GM1における仮定投影位置PS1aと撮像画像GM2における仮定投影位置PS1bとの類似度を導出してよい。UAV制御部110は、複数仮定された高度についての類似度に基づいて、グリッド点gpの高度を推定する。UAV制御部110は、推定されたグリッド点gpの高度に基づいて、撮像範囲の3次元形状を推定してよい。 As described above, the unmanned aerial vehicle 100 (an example of a shape estimation device) estimates the three-dimensional shape of the terrain based on the plurality of captured images captured by the unmanned aerial vehicle 100 (aircraft). The unmanned aerial vehicle 100 includes a UAV control unit 110 (an example of a processing unit) that performs processing related to estimation of the three-dimensional shape of the terrain. The UAV control unit 110 may generate a grid gd having a plurality of grid points gp in an imaging range imaged by the imaging unit 220 (imaging device) included in the unmanned aerial vehicle 100. The UAV control unit 110 may acquire the captured image GM1 (an example of a first captured image) and the captured image GM2 (an example of a second captured image) captured by the image capturing unit 220. The UAV control unit 110 may acquire information about the three-dimensional position of the image capturing unit 220 when capturing the captured images GM1 and GM2 and the image capturing direction (corresponding to the posture of the image capturing unit 220) by the image capturing unit 220. The UAV control unit 110 may assume a plurality of altitudes of hypothetical grid points PS (an example of the first grid points) at a plurality of grid points gp. The altitude of the assumed grid point PS corresponds to, for example, the altitude of the estimation target or the terrain corresponding to the grid point. The UAV control unit 110, based on the three-dimensional position of the image capturing unit 220 and the image capturing direction of the image capturing unit 220, for a plurality of assumed altitudes, the assumed projection position PS1a (the first projected position PS1a) at which the assumed grid point PS is projected on the captured image GM1. 1) and an assumed projection position PS1b projected on the captured image GM2 (an example of a second assumed projection position) may be derived (for example, calculated). The UAV control unit 110 may derive the degree of similarity between the assumed projection position PS1a in the captured image GM1 and the assumed projection position PS1b in the captured image GM2 for a plurality of assumed altitudes. The UAV control unit 110 estimates the altitude of the grid point gp based on the similarities of a plurality of assumed altitudes. The UAV control unit 110 may estimate the three-dimensional shape of the imaging range based on the estimated altitude of the grid point gp.

これにより、無人航空機100は、高度を変更しながら、各撮像画像における各仮定投影位置について類似度を算出し、類似度を最適化することで(例えば最大の類似度を導出することで)グリッド点gpの高度を推定でき、3次元形状推定を行う際の計算を単純化できる。したがって、無人航空機100は、従来のような素点生成(例えばsfm)、密点生成(例えばMVS:Multi-View Stereo)、メッシュ生成、テクスチャ生成、等の処理の全てを順に行う必要が無くなる。そのため、無人航空機100は、3次元形状の推定処理を行うための処理負荷を低減でき、オンラインで3次元形状の推定を実施できる。また、無人航空機100は、リアルタイム性を向上できることで、現場で3次元形状の推定処理の結果を得ることもできる。 Accordingly, the unmanned aerial vehicle 100 calculates the similarity for each assumed projection position in each captured image while changing the altitude, and optimizes the similarity (for example, by deriving the maximum similarity) to generate a grid. The altitude of the point gp can be estimated, and the calculation when performing the three-dimensional shape estimation can be simplified. Therefore, the unmanned aerial vehicle 100 does not need to sequentially perform all of the conventional processes such as raw point generation (for example, sfm), dense point generation (for example, MVS: Multi-View Stereo), mesh generation, and texture generation. Therefore, the unmanned aerial vehicle 100 can reduce the processing load for performing the three-dimensional shape estimation process, and can perform the three-dimensional shape estimation online. Further, since the unmanned aerial vehicle 100 can improve the real-time property, it is possible to obtain the result of the estimation processing of the three-dimensional shape on the spot.

例えば、類似度が大きい場合、複数の撮像画像に同一位置(仮定グリッド点PS)が投影されたそれぞれの画素(画素範囲)が最も類似しているので、これらの画素が同一の対象を表している可能性が高い。無人航空機100は、この場合の仮定グリッド点PSの高度を、この画素が存在する撮像画像における画像位置に対応する実空間の位置の高度と推定することができる。 For example, when the degree of similarity is large, each pixel (pixel range) in which the same position (the assumed grid point PS) is projected on a plurality of captured images is the most similar, and therefore these pixels represent the same target. There is a high possibility that The unmanned aerial vehicle 100 can estimate the altitude of the hypothetical grid point PS in this case as the altitude of the position in the real space corresponding to the image position in the captured image in which this pixel exists.

また、UAV制御部110は、撮像画像GM1,GM2に基づいて、例えばsfm(Structure from Motion)による手法により、疎な点群データ(点群データの一例)を生成してよい。UAV制御部110は、疎な点群データを基にサーフェスsf(面データの一例)を生成してよい。UAV制御部110は、サーフェスsfを基に、仮定グリッド点PSの初期のグリッド高度h1(グリッド初期値gpa)(第1のグリッド点の初期高度の一例)を導出してよい。UAV制御部110は、仮定グリッド点PSの高度を、グリッド高度h1から順に仮定してよい。 In addition, the UAV control unit 110 may generate sparse point cloud data (an example of point cloud data) based on the captured images GM1 and GM2 by a method such as sfm (Structure from Motion). The UAV control unit 110 may generate the surface sf (an example of surface data) based on the sparse point cloud data. The UAV control unit 110 may derive the initial grid height h1 (grid initial value gpa) of the assumed grid point PS (an example of the initial height of the first grid point) based on the surface sf. The UAV control unit 110 may assume the altitude of the assumed grid point PS in order from the grid altitude h1.

これにより、無人航空機100は、グリッド点gp(仮定グリッド点PS)のグリッド高度h1を疎な点群データに基づくサーフェスsfを基に設定でき、グリッド点gpの高度を導出するための探索時間を短縮できる。また、無人航空機100は、グリッド点gpの初期高度が真値(実際の高度)から大きくずれていても、真値を探索し易くできる。 Accordingly, the unmanned aerial vehicle 100 can set the grid altitude h1 of the grid point gp (the assumed grid point PS) based on the surface sf based on the sparse point cloud data, and the search time for deriving the altitude of the grid point gp can be set. Can be shortened. Further, the unmanned aerial vehicle 100 can easily search for the true value even if the initial altitude of the grid point gp deviates significantly from the true value (actual altitude).

また、第1の撮像画像は、1つ以上の既存の撮像画像(例えば前回以前に撮像された撮像画像)でよい。第2の撮像画像は、1つ以上の最新の撮像画像(例えば今回撮像された撮像画像)でよい。UAV制御部110は、第1の撮像画像を基に生成された第1の点群データを取得し、第2の撮像画像に基づいて、第2の点群データを生成し、第1の点群データと第2の点群データを基に、サーフェスsfを生成してよい。 In addition, the first captured image may be one or more existing captured images (for example, captured images captured before the previous time). The second captured image may be one or more latest captured images (for example, the captured image captured this time). The UAV control unit 110 acquires the first point cloud data generated based on the first captured image, generates the second point cloud data based on the second captured image, and then generates the first point cloud data. The surface sf may be generated based on the group data and the second point cloud data.

これにより、無人航空機100は、既存の画像(例えば第1の撮像画像)を用いることで、既存の点群データを計算することが不要であり、最新の画像(例えば第2の撮像画像)に基づく点群データうぃ生成するための演算で済む。よって、無人航空機100は、複数の撮像画像を用いて迅速に三次元形状推定でき、リアルタイム性を向上できる。 As a result, the unmanned aerial vehicle 100 does not need to calculate the existing point cloud data by using the existing image (for example, the first captured image), and uses the existing image (for example, the second captured image). The calculation for generating the point cloud data based on the above is sufficient. Therefore, the unmanned aerial vehicle 100 can quickly estimate the three-dimensional shape using a plurality of captured images, and can improve the real-time property.

また、グリッド点gpは、グリッドgdにおける全グリッド点でよい。これにより、無人航空機100は、例えば撮像範囲全体の3次元形状を、リアルタイム性高く迅速に推定できる。 The grid points gp may be all grid points in the grid gd. As a result, the unmanned aerial vehicle 100 can quickly estimate, for example, the three-dimensional shape of the entire imaging range with high real-time property.

また、グリッド点gpは、グリッドgdにおける一部のグリッド点gpでよい。これにより、無人航空機100は、例えば撮像範囲において物体が存在する特定の範囲の3次元形状の推定を、リアルタイム性高く迅速に推定でき、計算コストを小さくできる。 The grid points gp may be some grid points gp in the grid gd. As a result, the unmanned aerial vehicle 100 can quickly estimate the three-dimensional shape of a specific range in which an object exists in the imaging range with high real-time property and reduce the calculation cost.

また、UAV制御部110は、グリッドgdの各グリッド点gpの間隔を設定してよい。例えば、端末制御部81が、操作部83を介して、各グリッド点gpの間隔を設定するための操作情報を取得し、通信部85を介してこの操作情報を送信してよい。UAV制御部110は、通信インタフェース150を介して操作情報を取得し、操作情報に応じて各グリッド点gpの間隔を設定してよい。 Further, the UAV control unit 110 may set the interval between the grid points gp of the grid gd. For example, the terminal control unit 81 may acquire operation information for setting the interval between the grid points gp via the operation unit 83, and transmit this operation information via the communication unit 85. The UAV control unit 110 may acquire the operation information via the communication interface 150 and set the interval between the grid points gp according to the operation information.

これにより、無人航空機100は、グリッドgdの細かさ(グリッド点gpの多さ)を設定でき、ユーザ所望の3次元形状推定の細やかさを実現できる。 As a result, the unmanned aerial vehicle 100 can set the fineness of the grid gd (the number of grid points gp) and can realize the fineness of the three-dimensional shape estimation desired by the user.

(実施形態2)
実施形態1では、グリッド高度の探索対象において複数の高度を仮定し、複数の高度についての複数の撮像画像での仮定投影位置の画素(画素範囲)の類似度を基に、グリッド高度を推定することを想定した。一方、実施形態1では、探索対象以外のグリッドによる探索対象のグリッドへの高度の推定の影響を加味していない。実施形態2では、グリッドの隣接関係を考慮して、グリッド形状を推定する場合を示す。なお、本実施形態では、UAV制御部110が主導してグリッド形状を推定することを例示するが、端末制御部81が主導してグリッド形状を推定してもよい。
(Embodiment 2)
In the first embodiment, a plurality of altitudes are assumed in the search target of the grid altitudes, and the grid altitudes are estimated based on the similarity of pixels (pixel ranges) at the assumed projection positions in the plurality of captured images for the plurality of altitudes. I assumed that. On the other hand, in the first embodiment, the influence of the altitude estimation on the search target grid by the grid other than the search target is not taken into consideration. The second embodiment shows a case where the grid shape is estimated in consideration of the adjacency relationship of the grids. Although the UAV control unit 110 takes the initiative in estimating the grid shape in the present embodiment, the terminal control unit 81 may take the initiative in estimating the grid shape.

実施形態2の飛行システムは実施形態1とほぼ同一の構成を有する。実施形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 The flight system of the second embodiment has substantially the same configuration as that of the first embodiment. The same reference numerals are used for the same components as in the first embodiment, and the description thereof will be omitted.

UAV制御部110は、複数の撮像画像を基に、各グリッド点gpの高度を最適化する。この場合、UAV制御部110は、第1の実施形態で導出される類似度に基づいて、誤差スコアE(X)を算出してよい。UAV制御部110は、誤差スコアE(X)の算出結果を基に、各グリッド点gpの高度を推定してよい。誤差スコアE(X)は、仮定グリッド点PSを複数の撮像画像に投影しようとした場合に、各撮像画像における各仮定投影位置が示す実空間上の位置の誤差に相当する。各仮定投影位置が示す実空間上の位置の誤差が大きいと、各撮像画像における仮定投影位置の画素の類似度が低くなる。各仮定投影位置が示す実空間上の位置が小さいと、各撮像画像における仮定投影位置の画素の類似度が高くなる。誤差スコアE(x)は、例えば式(1)で表されてよい。 The UAV control unit 110 optimizes the altitude of each grid point gp based on the plurality of captured images. In this case, the UAV control unit 110 may calculate the error score E(X) based on the degree of similarity derived in the first embodiment. The UAV control unit 110 may estimate the altitude of each grid point gp based on the calculation result of the error score E(X). The error score E(X) corresponds to the error in the position in the real space indicated by each assumed projection position in each captured image when the assumed grid point PS is projected on a plurality of captured images. If the position error in the real space indicated by each assumed projection position is large, the degree of similarity of pixels at each assumed projection position in each captured image becomes low. When the position in the real space indicated by each assumed projection position is small, the similarity of the pixels at the assumed projection position in each captured image becomes high. The error score E(x) may be represented by Expression (1), for example.

Figure 2020095519
Figure 2020095519

誤差スコアE(x)の算出では、UAV制御部110は、各グリッド点gpにおいて、高度x(例えばh1、h2、・・・)を順次変更したグリッド点gpを仮定し、仮定グリッド点PSを生成する。UAV制御部110は、右辺における第1項のコストと、右辺における第2項の影響度とを足し合わせることで、誤差スコアE(x)を算出してよい。式(1)の第1項は、探索対象のグリッド点gp(グリッド点sとも称する)単体のコストを表す。第2項は、探索対象のグリッド点gpに隣接するグリッド点gp2(グリッド点tとも称する)による、グリッド点gpへの影響度を表す。集合Vは、グリッド点gpの集合である。集合Eは、グリッドgdにおいて隣接関係にあるグリッド点sとグリッド点tとを結ぶ辺の集合である。 In the calculation of the error score E(x), the UAV control unit 110 assumes a grid point gp in which the altitude x s (for example, h1, h2,...) Is sequentially changed at each grid point gp, and the assumed grid point PS To generate. The UAV control unit 110 may calculate the error score E(x) by adding the cost of the first term on the right side and the influence degree of the second term on the right side. The first term of Expression (1) represents the cost of a single grid point gp (also referred to as grid point s) to be searched. The second term represents the degree of influence on the grid point gp by the grid point gp2 (also referred to as the grid point t) adjacent to the search target grid point gp. The set V is a set of grid points gp. The set E is a set of sides connecting the grid points s and t that are adjacent to each other in the grid gd.

式(1)において、xは、グリッド点sの高度を表す。xは、グリッド点tの高度を表す。wは、現在の撮像位置(つまり無人航空機100の位置)からグリッド点sに対応する実空間上の位置までの距離に基づく関数を表す。wstは、グリッド点sとグリッド点tとの距離に基づく関数を表す。w,wstは、それぞれ、距離が長い程、小さな値となり、w,wstが存在する項(第1項又は第2項)の値が小さくなり、誤差スコアE(X)に与える影響が小さくなる。 In Expression (1), x s represents the altitude of the grid point s. x t represents the altitude of the grid point t. w s represents a function based on the distance from the current imaging position (that is, the position of the unmanned aerial vehicle 100) to the position in the real space corresponding to the grid point s. w st represents a function based on the distance between the grid point s and the grid point t. w s and w st each have a smaller value as the distance is longer, and the value of the term (first term or second term) in which w s and w st exist becomes smaller and is given to the error score E(X). The effect is small.

また、φ(x)は、複数の撮像画像間の仮定グリッド点PSの再投影位置(仮想投影位置)の類似度を示し、式(2)で表される。

Figure 2020095519
π(x)は、i位置で無人航空機100の撮像部220によって撮像された撮像画像における、グリッド点sの画素位置(仮想投影位置に相当)を示す。π(x)は、j位置で無人航空機100の撮像部220によって撮像された撮像画像における、グリッド点sの画素位置(仮想投影位置に相当)を示す。NCCは、画像間の類似度を表す関数の一例であり、画素位置π(x)の画像と画素位置π(x)の画像の類似度を表す。画像間の再投影位置の類似度が高い場合、φ(x)は、小さな値となり、つまり誤差スコアE(X)が小さくなる。一方、画像間の再投影位置の類似度が低い場合、φ(x)は、大きな値となり、つまり誤差スコアE(X)が大きくなる。 Further, φ s (x s ) indicates the similarity of the reprojection position (virtual projection position) of the hypothetical grid point PS between the plurality of captured images, and is represented by Expression (2).
Figure 2020095519
π i (x s ) indicates the pixel position (corresponding to the virtual projection position) of the grid point s in the captured image captured by the imaging unit 220 of the unmanned aerial vehicle 100 at the i position. π j (x s ) indicates the pixel position (corresponding to the virtual projection position) of the grid point s in the captured image captured by the imaging unit 220 of the unmanned aerial vehicle 100 at the j position. NCC is an example of a function representing the similarity between images, and represents the similarity between the image at the pixel position π i (x s ) and the image at the pixel position π j (x s ). When the reprojection position similarity between images is high, φ s (x s ) has a small value, that is, the error score E(X) is small. On the other hand, when the reprojection position similarity between images is low, φ s (x s ) has a large value, that is, the error score E(X) is large.

stは、隣接関係のコストを示し、例えば隣接するグリッド点間の平滑度の情報を含んでよい。Xst(x,x)は、グリッド点sと隣接関係にあるグリッド点tとの2点間のコストを含み、式(3)で表される。式(3)の場合、グリッド点s,t間の距離(ノルム)を示す。

Figure 2020095519
X st indicates the cost of the adjacency relationship, and may include, for example, information on the smoothness between adjacent grid points. X st (x s , x t ) includes the cost between two points of the grid point s and the grid point t that is in the adjacent relationship, and is represented by the equation (3). In the case of Formula (3), the distance (norm) between grid points s and t is shown.
Figure 2020095519

平滑度の情報は、メモリ160に保持されてよいし、UAV制御部110によって外部サーバから取得されてよい。平滑度の情報は、例えば、地形の気腹の激しい土地(山地など)である場合、平滑度が低いことを示す情報を含んでよく、地形が平野や水面(海面、川面)である場合、平滑度が高いことを示す情報を含んでよい。 The smoothness information may be held in the memory 160 or may be acquired by the UAV control unit 110 from an external server. The information on the smoothness may include information indicating that the smoothness is low, for example, in the case of a land where the topography is extremely hungry (mountainous region), and when the topography is a plain or water surface (sea surface, river surface), It may include information indicating that the smoothness is high.

式(4)に示されるXであるargmin関数は、関数である誤差スコアE(X)が最小となるxを引数として渡す関数である。argmin関数の関数値は、探索対象のグリッド点sの各撮像画像への再投影誤差を最小化するための関数である。なお、argmin関数の最適化解法(つまりグリッド形状の最適化解法)として、ツリー重み再配分メッセージ伝達法(TRW−S)等の、MRF最適化手法が用いられる。

Figure 2020095519
The argmin function, which is X shown in Expression (4), is a function that passes x, which is a function, which minimizes the error score E(X), as an argument. The function value of the argmin function is a function for minimizing the reprojection error of the search target grid point s on each captured image. An MRF optimization method such as a tree weight redistribution message transmission method (TRW-S) is used as an optimization solution method for the argmin function (that is, an optimization solution method for the grid shape).
Figure 2020095519

UAV制御部110は、式(4)に従い、誤差スコアE(x)が閾値th3未満(例えば最小)となるようなグリッド点sの高度xを導出する。これにより、UAV制御部110は、撮像部220で撮像された複数の撮像画像を基に、各グリッド点gpの高度を最適化できる。 The UAV control unit 110 derives the altitude x s of the grid point s such that the error score E(x) is less than the threshold th3 (for example, the minimum) according to the equation (4). Accordingly, the UAV control unit 110 can optimize the altitude of each grid point gp based on the plurality of captured images captured by the image capturing unit 220.

例えば、撮像画像に障害物が映り込んでいる場合、各撮像画像における仮定グリッド点PSの投影において、仮定投影位置に障害物が映り込む可能性があり、この場合、仮定投影位置の画素値が変化する。よって、障害物を地形の一部として誤推定することがあり得る。これに対し、本実施形態では、UAV制御部110は、探索対象のグリッド点sだけでなく、その隣接に位置するグリッド点tとの関係性も考慮してグリッド形状を推定する。よって、無人航空機100は、障害物等の画像ノイズが存在する場合でも、探索対象の周辺のグリッド点の状況も加味することで、地面形状をより高精度に生成できる。 For example, when an obstacle is reflected in the captured image, the obstacle may be reflected in the assumed projection position in the projection of the assumed grid point PS in each captured image. In this case, the pixel value of the assumed projection position is Change. Therefore, the obstacle may be erroneously estimated as a part of the terrain. On the other hand, in the present embodiment, the UAV control unit 110 estimates the grid shape in consideration of not only the grid point s to be searched but also the relationship with the grid point t located adjacent to the grid point s. Therefore, the unmanned aerial vehicle 100 can generate the ground shape with higher accuracy by considering the situation of grid points around the search target even when image noise such as an obstacle is present.

このように、本実施形態では、実施形態1と比較すると、探索対象のグリッド点sの周囲のグリッド点tとの関係性を加味するので、無人航空機100は、例えば、撮像画像に障害物が映り込んでいる場合でも、障害物を地形の一部と誤って推定することを抑制できる。 As described above, in the present embodiment, as compared with the first embodiment, the relationship with the grid points t around the grid point s to be searched is taken into consideration, so that the unmanned aerial vehicle 100, for example, has an obstacle in the captured image. Even when the image is reflected, it is possible to prevent the obstacle from being mistakenly estimated as a part of the terrain.

以上のように、UAV制御部110は、仮定投影位置PS1aと仮定投影位置PS1b)との類似度(例えばφ(x))に基づいて、仮定投影位置PS1aと仮定投影位置PS1bとの画素値の誤差を示す誤差スコアE(X)を算出してよい。UAV制御部110は、誤差スコアE(X)に基づいて、グリッド点gp(グリッド点s)の高度を推定してよい。 As described above, the UAV control unit 110 determines the pixels of the hypothetical projection position PS1a and the hypothetical projection position PS1b based on the similarity (for example, φ s (x s )) between the hypothetical projection position PS1a and the hypothetical projection position PS1b. An error score E(X) indicating a value error may be calculated. The UAV control unit 110 may estimate the altitude of the grid point gp (grid point s) based on the error score E(X).

これにより、無人航空機100は、各撮像画像GM1,GM2に同一位置(例えば仮定グリッド点PS1)が投影された各仮定投影位置PS1a、PS2bの類似度を基に、誤差スコアを用いて、簡単にグリッド点の高度を推定できる。 Accordingly, the unmanned aerial vehicle 100 can easily use the error score based on the similarity between the hypothetical projected positions PS1a and PS2b at which the same position (for example, the hypothetical grid point PS1) is projected on the captured images GM1 and GM2. The altitude of grid points can be estimated.

また、UAV制御部110は、グリッドgdにおける探索対象のグリッド点s(第1のグリッドの一例)と隣接するグリッド点t(例えば第2のグリッドの一例)との間隔(例えばXst)に基づいて、誤差スコアE(x)を算出してよい。 In addition, the UAV control unit 110 is based on the interval (for example, X st ) between the grid point s (for example, the first grid) to be searched in the grid gd and the adjacent grid point t (for example, the second grid). Then, the error score E(x) may be calculated.

これにより、無人航空機100は、探索対象のグリッド点sと隣接するグリッド点tとの間隔(距離)を加味して、3次元復元の形状調整への影響度を調整できる。例えば、無人航空機100は、グリッド点s,tの間隔が長い程、3次元復元の形状調整への影響を小さくできる。グリッド点gpの間隔が広くなると、地面形状の起伏等により隣接するグリッド点s,t同士の関係性が小さくなるためである。なお、ある程度以上(例えば閾値th4以上)距離が離れた場合、誤差スコアE(x)の第2項(式(1)の右辺の後半の項)を値0にして、隣接するグリッド点tによるグリッド点sへの影響を無くしてもよい。 As a result, the unmanned aerial vehicle 100 can adjust the degree of influence of the three-dimensional reconstruction on the shape adjustment by taking into consideration the distance (distance) between the grid point s to be searched and the adjacent grid point t. For example, in the unmanned aerial vehicle 100, the longer the distance between the grid points s and t, the smaller the influence of the three-dimensional reconstruction on the shape adjustment. This is because if the spacing between the grid points gp becomes wider, the relationship between the adjacent grid points s and t becomes smaller due to the undulation of the ground shape or the like. In addition, when the distance is more than a certain degree (for example, the threshold value th4 or more), the second term of the error score E(x) (the latter term of the right side of the equation (1)) is set to a value of 0, and the adjacent grid points t are used. The influence on the grid points s may be eliminated.

また、UAV制御部110は、グリッド点sとグリッド点tとの間の平滑度に基づいて、誤差スコアE(x)を算出してよい。 Further, the UAV control unit 110 may calculate the error score E(x) based on the smoothness between the grid points s and t.

グリッド点s,t間の地形が平滑であるかないかに応じて、隣接するグリッド点s,t同士の関係性が異なる。UAV制御部110は、平滑度を加味して上記の類似度を補正し、誤差スコアE(x)を算出してよい。無人航空機100は、例えば、隣り合うグリッド点s,t間の地形が平坦な地形である場合には、補正された類似度を高く(誤差スコアE(X)を低く)でき、隣り合うグリッド点s,t間の地形が起伏に富んだ地形である場合には、補正された類似度が低く(誤差スコアE(X)を大きく)できる。よって、隣接するグリッド点s,t間が平坦である程、誤差スコアE(X)が小さくなり易く、無人航空機100は、探索対象のグリッド高度を、小さな誤差で推定し易くできる。 The relationship between adjacent grid points s and t differs depending on whether the topography between the grid points s and t is smooth. The UAV control unit 110 may calculate the error score E(x) by correcting the above-mentioned similarity by taking the smoothness into consideration. The unmanned aerial vehicle 100 can increase the corrected similarity (lower the error score E(X)) when, for example, the terrain between adjacent grid points s and t is flat terrain, and the adjacent grid points When the terrain between s and t is a terrain with rich undulations, the corrected similarity can be low (the error score E(X) is large). Therefore, the flatter the distance between the adjacent grid points s and t, the smaller the error score E(X), and the unmanned aerial vehicle 100 can easily estimate the grid height to be searched with a small error.

以上、実施形態を用いて本開示を説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operations, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is "preceding" or "prior to prior". It is possible to realize in any order unless the output of the previous process is used in the subsequent process. The operation flow in the claims, the description, and the drawings, even if it is described by using "first", "next", etc. for convenience, means that it is essential to carry out in this order. is not.

10 飛行システム
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
GM1,GM2 撮像画像
gd グリッド
gp グリッド点
P1〜P4 疎な点
PS1,PS2,PS3,PS4 仮定グリッド点
PS1a,PS1b,PS2a,PS2b 仮定投影位置
sf1〜sf3 サーフェス
za〜ze 探索範囲
10 Flight system 80 Terminal 81 Terminal control unit 83 Operation unit 85 Communication unit 87 Memory 88 Display unit 89 Storage 100 Unmanned aerial vehicle 110 UAV control unit 150 Communication interface 160 Memory 170 Storage 200 Gimbal 210 Rotary wing mechanism 220, 230 Imaging unit 240 GPS reception Machine 250 Inertia measuring device 260 Magnetic compass 270 Barometric altimeter 280 Ultrasonic sensor 290 Laser measuring device GM1, GM2 Captured image gd Grid gp Grid points P1 to P4 Sparse points PS1, PS2, PS3, PS4 Assumed grid points PS1a, PS1b, PS2a , PS2b Assumed projection positions sf1 to sf3 Surfaces za to ze Search range

Claims (20)

飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置であって、
前記3次元形状の推定に関する処理を行う処理部を備え、
前記処理部は、
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成し、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得し、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得し、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定し、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出し、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出し、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定し、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定する、
形状推定装置。
A shape estimating device for estimating a three-dimensional shape based on a plurality of picked-up images picked up by a flying object,
A processing unit that performs processing relating to the estimation of the three-dimensional shape,
The processing unit is
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device,
Acquiring information on the three-dimensional position of the imaging device and the imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of the first grid point in the plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
For a plurality of assumed altitudes, the degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image is derived,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point;
Shape estimation device.
前記処理部は、
前記第1の撮像画像及び前記第2の撮像画像に基づいて、疎な点群データを生成し、
前記疎な点群データを基に面データを生成し、
前記面データを基に、前記第1のグリッド点の初期高度を導出し、
前記第1のグリッド点の高度を、前記初期高度から順に仮定する、
請求項1に記載の形状推定装置。
The processing unit is
Generating sparse point cloud data based on the first captured image and the second captured image,
Generate surface data based on the sparse point cloud data,
Deriving an initial altitude of the first grid point based on the surface data,
Assuming the altitudes of the first grid points in order from the initial altitude,
The shape estimation device according to claim 1.
前記第1の撮像画像は、1つ以上の既存の撮像画像であり、
前記第2の撮像画像は、1つ以上の最新の撮像画像であり、
前記処理部は、
前記第1の撮像画像を基に生成された第1の点群データを取得し、
前記第2の撮像画像に基づいて、第2の点群データを生成し、
前記第1の点群データと前記第2の点群データを基に、前記面データを生成する、
請求項2に記載の形状推定装置。
The first captured image is one or more existing captured images,
The second captured image is one or more latest captured images,
The processing unit is
Acquiring first point cloud data generated based on the first captured image,
Generate second point cloud data based on the second captured image,
Generating the surface data based on the first point cloud data and the second point cloud data,
The shape estimation device according to claim 2.
前記処理部は、
前記類似度に基づいて、前記第1の仮定投影位置と前記第2の仮定投影位置との誤差を示す誤差スコアを算出し、
前記誤差スコアに基づいて、前記第1のグリッド点の高度を推定する、
請求項1〜3のいずれか1項に記載の形状推定装置。
The processing unit is
An error score indicating an error between the first assumed projection position and the second assumed projection position is calculated based on the similarity,
Estimating the altitude of the first grid point based on the error score;
The shape estimation device according to claim 1.
前記処理部は、前記グリッドにおける前記第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、前記誤差スコアを算出する、
請求項4に記載の形状推定装置。
The processing unit calculates the error score based on a distance between the first grid point and an adjacent second grid point in the grid.
The shape estimation device according to claim 4.
前記処理部は、前記第1のグリッド点と前記グリッドにおける第2のグリッド点との間の平滑度に基づいて、前記誤差スコアを算出する、
請求項4または5に記載の形状推定装置。
The processing unit calculates the error score based on a smoothness between the first grid point and a second grid point in the grid.
The shape estimation device according to claim 4 or 5.
前記第1のグリッド点は、前記グリッドにおける全グリッド点である、
請求項1〜6のいずれか1項に記載の形状推定装置。
The first grid points are all grid points in the grid,
The shape estimation device according to any one of claims 1 to 6.
前記第1のグリッド点は、前記グリッドにおける一部のグリッド点である、
請求項1〜6のいずれか1項に記載の形状推定装置。
The first grid points are some grid points in the grid,
The shape estimation device according to any one of claims 1 to 6.
前記処理部は、前記グリッドの各点の間隔を設定する、
請求項1〜8のいずれか1項に記載の形状推定装置。
The processing unit sets an interval between points of the grid,
The shape estimation device according to claim 1.
飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定方法であって、
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、を含む、
形状推定方法。
A shape estimation method for estimating a three-dimensional shape based on a plurality of picked-up images picked up by an air vehicle,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point.
Shape estimation method.
前記第1のグリッド点の高度を複数仮定するステップは、
前記第1の撮像画像及び前記第2の撮像画像に基づいて、点群データを生成するステップと、
前記点群データを基に面データを生成するステップと、
前記面データを基に、前記第1のグリッド点の初期高度を導出するステップと、
前記第1のグリッド点の高度を、前記初期高度から順に仮定するステップと、を含む、
請求項10に記載の形状推定方法。
The step of assuming a plurality of altitudes of the first grid points includes
Generating point cloud data based on the first captured image and the second captured image;
Generating surface data based on the point cloud data,
Deriving an initial altitude of the first grid point based on the surface data,
Assuming the altitudes of the first grid points in order from the initial altitude.
The shape estimation method according to claim 10.
前記第1の撮像画像は、1つ以上の既存の撮像画像であり、
前記第2の撮像画像は、1つ以上の最新の撮像画像であり、
前記点群データを生成するステップは、
前記第1の撮像画像を基に生成された第1の点群データを取得するステップと、
前記第2の撮像画像に基づいて、第2の点群データを生成するステップと、を含み、
前記面データを生成するステップは、前記第1の点群データと前記第2の点群データを基に、前記面データを生成するステップを含む、
請求項11に記載の形状推定方法。
The first captured image is one or more existing captured images,
The second captured image is one or more latest captured images,
The step of generating the point cloud data includes
Acquiring first point cloud data generated based on the first captured image;
Generating second point cloud data based on the second captured image,
The step of generating the surface data includes a step of generating the surface data based on the first point cloud data and the second point cloud data.
The shape estimation method according to claim 11.
前記第1のグリッド点の高度を推定するステップは、
前記類似度に基づいて、前記第1の仮定投影位置と前記第2の仮定投影位置との画素値の誤差を示す誤差スコアを算出するステップと、
前記誤差スコアに基づいて、前記第1のグリッド点の高度を推定するステップと、を含む、
請求項10〜12のいずれか1項に記載の形状推定方法。
The step of estimating the altitude of the first grid point comprises:
Calculating an error score indicating an error in pixel value between the first hypothetical projected position and the second hypothetical projected position based on the similarity;
Estimating the altitude of the first grid point based on the error score.
The shape estimation method according to claim 10.
前記誤差スコアを算出するステップは、前記グリッドにおける前記第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、前記誤差スコアを算出するステップを含む、
請求項13に記載の形状推定方法。
The step of calculating the error score includes the step of calculating the error score based on a distance between the first grid point and an adjacent second grid point in the grid.
The shape estimation method according to claim 13.
前記誤差スコアを算出するステップは、前記第1のグリッド点と前記グリッドにおける第2のグリッド点との間の平滑度に基づいて、前記誤差スコアを算出するステップを含む、
請求項13または14に記載の形状推定方法。
The step of calculating the error score includes the step of calculating the error score based on the smoothness between the first grid points and the second grid points in the grid.
The shape estimation method according to claim 13.
前記第1のグリッド点は、前記グリッドにおける全グリッド点である、
請求項10〜15のいずれか1項に記載の形状推定方法。
The first grid points are all grid points in the grid,
The shape estimation method according to any one of claims 10 to 15.
前記第1のグリッド点は、前記グリッドにおける一部のグリッド点である、
請求項10〜15のいずれか1項に記載の形状推定方法。
The first grid points are some grid points in the grid,
The shape estimation method according to any one of claims 10 to 15.
前記グリッドを生成するステップは、前記グリッドの各点の間隔を設定するステップを含む、
請求項10〜17のいずれか1項に記載の形状推定方法。
The step of generating the grid includes the step of setting an interval between points of the grid,
The shape estimation method according to any one of claims 10 to 17.
飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、を実行させるためのプログラム。
A shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
A step of estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point.
飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
A shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point;
A computer-readable recording medium in which a program for executing is recorded.
JP2018233603A 2018-12-13 2018-12-13 Shape estimation device, shape estimation method, program, and recording medium Ceased JP2020095519A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018233603A JP2020095519A (en) 2018-12-13 2018-12-13 Shape estimation device, shape estimation method, program, and recording medium
PCT/CN2019/123314 WO2020119572A1 (en) 2018-12-13 2019-12-05 Shape inferring device, shape inferring method, program, and recording medium
CN201980008243.0A CN111788457A (en) 2018-12-13 2019-12-05 Shape estimation device, shape estimation method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018233603A JP2020095519A (en) 2018-12-13 2018-12-13 Shape estimation device, shape estimation method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2020095519A true JP2020095519A (en) 2020-06-18

Family

ID=71077122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233603A Ceased JP2020095519A (en) 2018-12-13 2018-12-13 Shape estimation device, shape estimation method, program, and recording medium

Country Status (3)

Country Link
JP (1) JP2020095519A (en)
CN (1) CN111788457A (en)
WO (1) WO2020119572A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598350A (en) * 2020-12-24 2021-04-02 山西迪奥普科技有限公司 Point cloud scanning-based warehouse stockpile management method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229388A (en) * 2000-02-18 2001-08-24 Hitachi Ltd Matching method for image data
JP2002063580A (en) * 2000-08-22 2002-02-28 Asia Air Survey Co Ltd Inter-image expansion image matching method using indefinite shape window

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3661187B2 (en) * 2002-03-27 2005-06-15 ソニー株式会社 3D terrain information generation system and method, and computer program
JP4624287B2 (en) * 2006-03-17 2011-02-02 株式会社パスコ Building shape change detection method and building shape change detection system
DE102010029091B4 (en) * 2009-05-21 2015-08-20 Koh Young Technology Inc. Form measuring device and method
IL200637A0 (en) * 2009-08-30 2011-08-01 Rafael Advanced Defense Sys System and method for virtual range estimation
US8811719B2 (en) * 2011-04-29 2014-08-19 Microsoft Corporation Inferring spatial object descriptions from spatial gestures
CN105823438B (en) * 2012-05-22 2018-10-19 株式会社高永科技 The height measurement method of 3 d shape measuring apparatus
JP6326237B2 (en) * 2014-01-31 2018-05-16 株式会社トプコン Measuring system
JP5961207B2 (en) * 2014-03-28 2016-08-02 富士重工業株式会社 Outside environment recognition device
EP3062066A1 (en) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
DE102015224854A1 (en) * 2015-12-10 2017-06-14 Siemens Aktiengesellschaft Method of creating a depth map
WO2018158927A1 (en) * 2017-03-02 2018-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Method for estimating three-dimensional shape, flying vehicle, mobile platform, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229388A (en) * 2000-02-18 2001-08-24 Hitachi Ltd Matching method for image data
JP2002063580A (en) * 2000-08-22 2002-02-28 Asia Air Survey Co Ltd Inter-image expansion image matching method using indefinite shape window

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598350A (en) * 2020-12-24 2021-04-02 山西迪奥普科技有限公司 Point cloud scanning-based warehouse stockpile management method and system
CN112598350B (en) * 2020-12-24 2024-02-20 山西迪奥普科技有限公司 Warehouse stacking management method and system based on point cloud scanning

Also Published As

Publication number Publication date
WO2020119572A1 (en) 2020-06-18
CN111788457A (en) 2020-10-16

Similar Documents

Publication Publication Date Title
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
JP6962775B2 (en) Information processing equipment, aerial photography route generation method, program, and recording medium
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
WO2018120350A1 (en) Method and device for positioning unmanned aerial vehicle
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
JP6788094B2 (en) Image display methods, image display systems, flying objects, programs, and recording media
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP6875196B2 (en) Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
JP2020095519A (en) Shape estimation device, shape estimation method, program, and recording medium
US20210256732A1 (en) Image processing method and unmanned aerial vehicle
JP6997164B2 (en) Image processing equipment, image processing methods, programs, and recording media
WO2020001629A1 (en) Information processing device, flight path generating method, program, and recording medium
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
WO2020108290A1 (en) Image generating device, image generating method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220426