JP2020095519A - Shape estimation device, shape estimation method, program, and recording medium - Google Patents
Shape estimation device, shape estimation method, program, and recording medium Download PDFInfo
- Publication number
- JP2020095519A JP2020095519A JP2018233603A JP2018233603A JP2020095519A JP 2020095519 A JP2020095519 A JP 2020095519A JP 2018233603 A JP2018233603 A JP 2018233603A JP 2018233603 A JP2018233603 A JP 2018233603A JP 2020095519 A JP2020095519 A JP 2020095519A
- Authority
- JP
- Japan
- Prior art keywords
- grid
- captured image
- assumed
- captured
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Abstract
Description
本開示は、複数の撮像画像に基づいて3次元形状を推定する形状推定装置、形状推定方法、プログラム、及び記録媒体に関する。 The present disclosure relates to a shape estimation device, a shape estimation method, a program, and a recording medium that estimates a three-dimensional shape based on a plurality of captured images.
従来、予め設定された固定経路を通りながら撮像を行うプラットフォーム(無人機)が知られている。このプラットフォームは、地上基地から撮像指示を受け、撮像対象を撮像する。このプラットフォームは、撮像対象を撮像する場合、固定経路を飛行しながら、プラットフォームと撮像対象との位置関係により、プラットフォームの撮像機器を傾けて撮像する(特許文献1参照)。 Conventionally, a platform (unmanned aerial vehicle) that performs imaging while passing through a preset fixed path is known. The platform receives an imaging instruction from the ground base and images the imaging target. When capturing an image of an imaging target, this platform tilts the imaging device of the platform to capture an image while flying on a fixed path, depending on the positional relationship between the platform and the imaging target (see Patent Document 1).
特許文献1の無人機で撮像された複数の画像を用いて、地面の三次元形状が推定可能である。しかし、3次元形状推定の計算は複雑であり、計算コストが高く、オフラインでしかできない。例えば、従来の3次元形状推定の処理では、素点生成(例えばsfm:Structure from Motion)、密点生成(例えばmvs:Multi-View Stereo)、メッシュ生成、テクスチャ生成、等を順に行う必要があり、3次元形状推定のための処理負荷が高い。そのため、無人機が画像を撮像しながらリアルタイムに地面の三次元形状を推定することは困難である。 The three-dimensional shape of the ground can be estimated using a plurality of images captured by the drone of Patent Document 1. However, the calculation of the three-dimensional shape estimation is complicated, the calculation cost is high, and it can be done only offline. For example, in the conventional processing of three-dimensional shape estimation, it is necessary to sequentially perform raw point generation (for example, sfm: Structure from Motion), dense point generation (for example, mvs: Multi-View Stereo), mesh generation, texture generation, and the like. The processing load for three-dimensional shape estimation is high. Therefore, it is difficult for the drone to estimate the three-dimensional shape of the ground in real time while capturing an image.
一態様において、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置であって、3次元形状の推定に関する処理を行う処理部を備え、処理部は、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成し、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得し、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得し、複数のグリッド点における第1のグリッド点の高度を複数仮定し、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出し、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出し、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定し、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定してよい。 In one aspect, a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object, including a processing unit that performs processing relating to the estimation of the three-dimensional shape, and the processing unit is a flying object. Generate a grid having a plurality of grid points in an imaging range imaged by the imaging device, and obtain a first captured image and a second captured image captured by the imaging device, and obtain a first captured image and a second captured image. The information about the three-dimensional position of the image pickup device and the image pickup direction by the image pickup device when the two picked-up images are picked up is obtained, a plurality of altitudes of the first grid point in the plurality of grid points are assumed, and the plurality of assumed altitudes are A first hypothetical projection position where the first grid point is projected on the first captured image, and the first grid point is the second captured image based on the three-dimensional position of the image capturing device and the image capturing direction of the image capturing device. A second hypothetical projection position projected on the image, and a plurality of hypothetical altitudes, a first hypothetical projection position in the first captured image and a second hypothetical projected position in the second captured image. Of the three-dimensional imaging range based on the estimated altitude of the first grid point based on the similarity of a plurality of assumed altitudes. The shape may be estimated.
処理部は、第1の撮像画像及び第2の撮像画像に基づいて3次元復元を行い、点群データを取得し、点群データを基に面データを生成し、面データを基に、第1のグリッド点の初期高度を導出し、第1のグリッド点の高度を、初期高度から順に仮定してよい。 The processing unit performs three-dimensional reconstruction based on the first captured image and the second captured image, acquires point cloud data, generates surface data based on the point cloud data, and generates a first surface data based on the surface data. The initial altitude of one grid point may be derived, and the altitude of the first grid point may be assumed in order from the initial altitude.
第1の撮像画像は、1つ以上の既存の撮像画像でよい。第2の撮像画像は、1つ以上の最新の撮像画像でよい。処理部は、第1の撮像画像を基に生成された第1の点群データを取得し、第2の撮像画像に基づいて、第2の点群データを生成し、第1の点群データと第2の点群データを基に、面データを生成してよい。 The first captured image may be one or more existing captured images. The second captured image may be one or more latest captured images. The processing unit acquires the first point cloud data generated based on the first captured image, generates the second point cloud data based on the second captured image, and generates the first point cloud data. Surface data may be generated based on and the second point cloud data.
処理部は、類似度に基づいて、第1の仮定投影位置と第2の仮定投影位置との誤差を示す誤差スコアを算出し、誤差スコアに基づいて、第1のグリッド点の高度を推定してよい。 The processing unit calculates an error score indicating an error between the first assumed projection position and the second assumed projection position based on the degree of similarity, and estimates the altitude of the first grid point based on the error score. You may.
処理部は、グリッドにおける第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、誤差スコアを算出してよい。 The processing unit may calculate the error score based on the interval between the first grid point and the adjacent second grid point in the grid.
処理部は、第1のグリッド点とグリッドにおける第2のグリッド点との間の平滑度に基づいて、誤差スコアを算出してよい。 The processing unit may calculate the error score based on the smoothness between the first grid point and the second grid point in the grid.
第1のグリッド点は、グリッドにおける全グリッド点であってよい。 The first grid points may be all grid points in the grid.
第1のグリッド点は、グリッドにおける一部のグリッド点であってよい。 The first grid points may be some grid points in the grid.
処理部は、グリッドの各点の間隔を設定してよい。 The processing unit may set the interval between the points of the grid.
一態様において、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定方法であって、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を含む。 In one aspect, the method is a shape estimation method for estimating a three-dimensional shape based on a plurality of captured images captured by an air vehicle, and when performing processing related to the estimation of the three-dimensional shape, the image is captured by an imaging device included in the air vehicle. Generating a grid having a plurality of grid points in an image capturing range, acquiring a first captured image and a second captured image captured by the image capturing device, a first captured image and a second captured image A step of acquiring information on a three-dimensional position of the image pickup device and an image pickup direction by the image pickup device when an image is taken; a step of assuming a plurality of altitudes of a first grid point among a plurality of grid points; and a plurality of assumed altitudes Regarding the three-dimensional position of the imaging device and the imaging direction of the imaging device, the first assumed projection position where the first grid point is projected on the first captured image, and the first grid point is the second projection position. Deriving a second hypothetical projection position projected on the captured image, a plurality of hypothesized altitudes, a first hypothetical projection position on the first captured image, and a second hypothesis on the second captured image. A step of deriving a similarity to the projection position, a step of estimating the altitude of the first grid point based on the similarities of a plurality of assumed altitudes, and a step of estimating the altitude of the first grid point And estimating the three-dimensional shape of the imaging range.
第1のグリッド点の高度を複数仮定するステップは、第1の撮像画像及び第2の撮像画像に基づいて3次元復元を行い、点群データを取得するステップと、点群データを基に面データを生成するステップと、面データを基に、第1のグリッド点の初期高度を導出するステップと、第1のグリッド点の高度を、初期高度から順に仮定するステップと、を含んでよい。 The step of assuming a plurality of altitudes of the first grid points includes three-dimensional reconstruction based on the first captured image and the second captured image to obtain point cloud data, and a plane based on the point cloud data. It may include a step of generating data, a step of deriving an initial altitude of the first grid point based on the surface data, and a step of sequentially assuming the altitude of the first grid point from the initial altitude.
第1の撮像画像は、1つ以上の既存の撮像画像でよい。第2の撮像画像は、1つ以上の最新の撮像画像でよい。点群データを生成するステップは、第1の撮像画像を基に生成された第1の点群データを取得するステップと、第2の撮像画像に基づいて、第2の点群データを生成するステップと、を含んでよい。面データを生成するステップは、第1の点群データと第2の点群データを基に、面データを生成するステップを含んでよい。 The first captured image may be one or more existing captured images. The second captured image may be one or more latest captured images. The step of generating the point cloud data includes a step of acquiring the first point cloud data generated based on the first captured image and a step of generating the second point cloud data based on the second captured image. And steps. The step of generating surface data may include a step of generating surface data based on the first point cloud data and the second point cloud data.
第1のグリッド点の高度を推定するステップは、類似度に基づいて、第1の仮定投影位置と第2の仮定投影位置との誤差を示す誤差スコアを算出するステップと、誤差スコアに基づいて、第1のグリッド点の高度を推定するステップと、を含んでよい。 The step of estimating the altitude of the first grid point includes the steps of calculating an error score indicating an error between the first assumed projection position and the second assumed projection position based on the similarity, and based on the error score. , Estimating the altitude of the first grid point.
誤差スコアを算出するステップは、グリッドにおける第1のグリッド点と隣接する第2のグリッド点との間隔に基づいて、誤差スコアを算出するステップを含んでよい。 The step of calculating the error score may include the step of calculating the error score based on the interval between the first grid point and the adjacent second grid point in the grid.
誤差スコアを算出するステップは、第1のグリッド点とグリッドにおける第2のグリッド点との間の平滑度に基づいて、誤差スコアを算出するステップを含んでよい。 The step of calculating the error score may include the step of calculating the error score based on the smoothness between the first grid points and the second grid points in the grid.
第1のグリッド点は、グリッドにおける全グリッド点であってよい。 The first grid points may be all grid points in the grid.
第1のグリッド点は、グリッドにおける一部のグリッド点であってよい。 The first grid points may be some grid points in the grid.
グリッドを生成するステップは、グリッドの各点の間隔を設定するステップを含んでよい。 The step of generating a grid may include the step of setting the spacing between points of the grid.
一態様において、プログラムは、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を実行させるための、プログラムである。 In one aspect, the program causes a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by the flying object to be captured by an imaging device included in the flying object when performing processing related to the estimation of the three-dimensional shape. Generating a grid having a plurality of grid points in an image capturing range, acquiring a first captured image and a second captured image captured by an image capturing device, a first captured image and a second captured image. A step of acquiring information on a three-dimensional position of the image pickup apparatus and an image pickup direction of the image pickup apparatus when the picked-up image is picked up, a step of assuming a plurality of altitudes of the first grid points in the plurality of grid points, and a plurality of assumptions are made. Regarding the altitude, based on the three-dimensional position of the imaging device and the imaging direction by the imaging device, the first assumed projection position at which the first grid point is projected on the first captured image and the first grid point at the second Deriving a second hypothetical projection position projected on the captured image of the first hypothetical projection position, and a plurality of hypothesized altitudes, the first hypothetical projection position on the first pictorial image and the second hypothetical projection position on the second pictorial image. The step of deriving the similarity with the assumed projection position, the step of estimating the altitude of the first grid point based on the similarities for the plurality of assumed altitudes, and the step of estimating the altitude of the first grid point And a step of estimating a three-dimensional shape of the imaging range based on the program.
一態様において、記録媒体は、飛行体により撮像された複数の撮像画像に基づいて3次元形状を推定する形状推定装置に、3次元形状の推定に関する処理を行う際、飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、第1の撮像画像及び第2の撮像画像を撮像した際の撮像装置の3次元位置及び撮像装置による撮像方向の情報を取得するステップと、複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、複数仮定された高度について、撮像装置の3次元位置及び撮像装置による撮像方向に基づいて、第1のグリッド点が第1の撮像画像に投影された第1の仮定投影位置と、第1のグリッド点が第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、複数仮定された高度について、第1の撮像画像における第1の仮定投影位置と第2の撮像画像における第2の仮定投影位置との類似度を導出するステップと、複数仮定された高度についての類似度に基づいて、第1のグリッド点の高度を推定するステップと、推定された第1のグリッド点の高度に基づいて、撮像範囲の3次元形状を推定するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。 In one aspect, the recording medium is configured such that a shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object is used by the imaging device included in the flying object when performing processing related to the estimation of the three-dimensional shape. A step of generating a grid having a plurality of grid points in an image capturing range, a step of acquiring a first captured image and a second captured image captured by an image capturing device, a first captured image and a second captured image A plurality of hypotheses, a step of acquiring information on a three-dimensional position of the image pickup apparatus and an image pickup direction of the image pickup apparatus when the picked-up image is captured, a step of assuming a plurality of altitudes of the first grid points in the plurality of grid points, For the altitude, the first assumed projection position where the first grid point is projected on the first captured image and the first grid point are determined based on the three-dimensional position of the image capturing device and the image capturing direction of the image capturing device. Deriving a second hypothetical projection position projected on the second picked-up image, and a plurality of hypothesized altitudes, the first hypothetical projection position on the first picked-up image and the second hypothetical position on the second picked-up image. Of deriving the similarity with the assumed projection position of, the step of estimating the altitude of the first grid point based on the similarities of the plurality of assumed altitudes, and the estimated altitude of the first grid point And a step of estimating a three-dimensional shape of an imaging range based on the above, and a computer-readable recording medium recording a program for executing the step.
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all the features of the present disclosure. Further, a sub-combination of these feature groups can also be an invention.
以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of the features described in the embodiments are essential to the solution means of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction of any of these documents by anyone as it appears in the Patent Office file or record. However, in all other cases, all copyrights are reserved.
以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。また、形状推定システムとして、飛行システムを例示する。形状推定装置として、無人航空機を主に例示するが、端末であってもよい。端末は、スマートフォン、タブレット端末PC(Personal Computer)、又はその他の装置を含んでよい。形状推定方法は、形状推定装置における動作が規定されたものである。また、記録媒体は、プログラム(例えば形状推定装置に各種の処理を実行させるプログラム)が記録されたものである。 In the following embodiments, an unmanned aerial vehicle (UAV) is exemplified as a flying body. Unmanned aerial vehicles include aircraft moving in the air. In the drawings attached to this specification, an unmanned aerial vehicle is referred to as a "UAV". A flight system is exemplified as the shape estimation system. Although an unmanned aerial vehicle is mainly exemplified as the shape estimation device, it may be a terminal. The terminal may include a smartphone, a tablet terminal PC (Personal Computer), or another device. The shape estimation method defines the operation of the shape estimation device. Further, the recording medium has recorded therein a program (for example, a program for causing the shape estimation device to execute various processes).
(実施形態1)
図1は、実施形態1における飛行システム10の第1構成例を示す図である。飛行システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。
(Embodiment 1)
FIG. 1 is a diagram illustrating a first configuration example of a
なお、飛行システムは、無人航空機、送信機(プロポ)、及び携帯端末を備えた構成であってよい。送信機を備える場合、送信機の前面に配置された左右の制御棒を使って、ユーザは、無人航空機の飛行を制御可能である。また、この場合、無人航空機、送信機、及び携帯端末は、相互に有線通信又は無線通信により通信可能である。 The flight system may include an unmanned aerial vehicle, a transmitter (propo), and a mobile terminal. When equipped with a transmitter, the left and right control rods located on the front of the transmitter allow the user to control the flight of the unmanned aerial vehicle. Further, in this case, the unmanned aerial vehicle, the transmitter, and the mobile terminal can communicate with each other by wire communication or wireless communication.
図2は、実施形態1における飛行システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。
FIG. 2 is a schematic diagram showing a second configuration example of the
図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は移動体の一例である。
FIG. 3 is a diagram showing an example of a specific appearance of unmanned
図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定される。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定される。 As shown in FIG. 3, the roll axis (see the x-axis) is set in the direction parallel to the ground and along the movement direction STV0. In this case, a pitch axis (see y-axis) is set in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (z-axis) is set in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. (See) is set.
無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。
The unmanned
UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でよい。
The
撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラである。
The
複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラである。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データが生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。
The plurality of
図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。
FIG. 4 is a block diagram showing an example of the hardware configuration of unmanned
UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を空撮してよい。
The
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。
The
UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。
The
UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。
The
UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。
The
UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。
The
UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。
The
撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。
The imaging range refers to a geographical range in which an image is captured by the
UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。
The
UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。
The
UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。
The
撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。
When the
通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報(メタデータ)を、端末80に送信してよい。
The
メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。
In the
ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、空撮画像を記録してよい。
The
メモリ160又はストレージ170は、端末80又は無人航空機100により生成された空撮位置や空撮経路の情報を保持してよい。空撮位置や空撮経路の情報は、無人航空機100により予定された空撮に係る空撮パラメータ、又は、無人航空機100により予定された飛行に係る飛行パラメータ、の1つとして、UAV制御部110により設定されてよい。この設定情報は、メモリ160又はストレージ170に保持されてよい。
The
ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。
The
回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでよいし、その他の数でよい。また、無人航空機100は、回転翼を有さない固定翼機でよい。
The
撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。撮像部220は、撮像部の一例である。
The
撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。
The
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
The
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。
超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。
The
レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。
図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御を希望するユーザに所持され得る。
FIG. 5 is a block diagram showing an example of the hardware configuration of the terminal 80. The terminal 80 includes a
端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
端末制御部81は、通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報(例えば各種パラメータ)を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報(例えば位置、速度、飛行経路の情報)を送信させてよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。
The
操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100へ送信されてよい。
The
通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。
The
メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
The
表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。
The
ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100から取得された空撮画像やその付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。
The
次に、飛行システム10の動作について説明する。飛行システム10の無人航空機100又は端末80は、無人航空機100により撮像された複数の撮像画像に基づいて、地面の3次元形状を推定(地形推定)するための処理を行う。なお、ここでの地形には、撮像部220により地面方向を撮像した際に撮像範囲に映り込む物体(例えば地面、建物、その他のオブジェクト)の形状を広く含まれてよい。
Next, the operation of the
図6は、地形推定処理手順の一例を示すフローチャートである。一例として、この処理は、無人航空機100のUAV制御部110がメモリ160に記憶されたプログラムを実行することによって行われてよい。また、端末80は、地形推定処理を補助する動作を行ってよい。例えば、端末80は、ユーザ操作を受け付けたり、ユーザに情報を表示したりしてよい。
FIG. 6 is a flowchart showing an example of a terrain estimation processing procedure. As an example, this process may be performed by the
UAV制御部110は、飛行範囲と各種パラメータを取得する(S1)。この場合、ユーザが、端末80に対し、飛行範囲とパラメータを入力してよい。端末制御部81は、操作部83を介してユーザ入力を受け付け、入力された飛行範囲とパラメータを取得してよい。端末制御部81は、飛行範囲とパラメータを、通信部85を介して端末80へ送信してよい。
The
端末制御部81は、通信部85を介して、外部サーバから地図情報を取得してよい。飛行範囲の情報は、例えば、飛行範囲を矩形の範囲に設定する場合、ユーザが地図情報における矩形の四隅の位置(緯度,経度)を入力することで得られてよい。また、飛行範囲の情報は、飛行範囲を円形の範囲に設定する場合、ユーザが飛行位置を中心とする円の半径を入力することで得られてよい。また、飛行範囲の情報は、ユーザが地域や特定の地名(例えば東京)等の情報を入力することで、地図情報を基に得られてよい。また、端末制御部81は、メモリ87やストレージ89に保持された飛行範囲を、メモリ87やストレージ89から取得してよい。飛行範囲は、無人航空機100が飛行する予定の範囲でよい。
The
パラメータは、撮像部220による撮像に関する撮像パラメータや無人航空機100の飛行に関する飛行パラメータでよい。撮像パラメータは、撮像位置、撮像日時、被写体までの距離、撮像画角、撮像時の無人航空機100の姿勢、撮像方向、撮像条件、カメラパラメータ(シャッタスピード、露出値、撮像モード、等)を含んでよい。飛行パラメータは、飛行位置(3次元位置又は2次元位置)、飛行高度、飛行速度、飛行加速度、飛行経路、飛行日時、等を含んでよい。端末制御部81は、メモリ87やストレージ89に保持された各種パラメータを、メモリ87やストレージ89から取得してよい。端末制御部81は、通信部85を介して、取得された飛行範囲と各種パラメータを無人航空機100に送信してよい。
The parameters may be imaging parameters related to imaging by the
無人航空機100では、UAV制御部110は、通信インタフェース150を介して端末80から飛行範囲と各種パラメータを取得してよい。なお、UAV制御部110自身が、飛行範囲と各種パラメータを、通信インタフェース150を介して外部サーバから取得したり、メモリ160から取得したり、無人航空機100内の各センサ(例えばGPS受信機240、慣性計測装置250)から取得したり、導出したりしてもよい。UAV制御部110は、飛行範囲と各種パラメータを基に飛行経路や撮像位置を決定してよい。
In the unmanned
UAV制御部110は、メッシュパターンとして初期グリッド(初期状態のグリッドgd)を生成する(S2)。
The
グリッドgdには、形状の推定対象となる撮像範囲の地形が仮想的に表現される。よって、グリッドgdは、撮像範囲と同じ範囲、又は撮像範囲に含まれる範囲に設定される。そして、実空間における撮像範囲における各点の高度の仮定や推定が行われると、仮想空間におけるグリッドgdにおけるグリッド点の高度の仮定や推定が行われる。グリッドgdは、格子状、三角形、その他の多角形、その他の形状でよく、グリッドgdの頂点であるグリッド点gpを含む。 In the grid gd, the terrain in the image capturing range whose shape is to be estimated is virtually represented. Therefore, the grid gd is set to the same range as the imaging range or a range included in the imaging range. When the altitude of each point in the imaging range in the real space is assumed or estimated, the altitude of the grid point in the grid gd in the virtual space is assumed or estimated. The grid gd may have a grid shape, a triangle, another polygon, or another shape, and includes a grid point gp that is the apex of the grid gd.
各グリッド点gpの高度は、初期状態では全て値0でよい。なお、グリッド点gpの初期状態の高度は、端末80の操作部83を介してユーザが設定した任意の高度の値でもよい。この場合、UAV制御部110は、通信インタフェース150を介して端末80から高度の値を取得してよい。
All the altitudes of the grid points gp may be 0 in the initial state. The initial altitude of the grid point gp may be an arbitrary altitude value set by the user via the
各グリッド点gpの間隔(グリッド間隔)は、所定の値でもよいし、UAV制御部110によって任意に設定されてもよい。グリッド間隔は、1m、2m、等であってよい。例えば、端末80の端末制御部81が、操作部83を介してグリッド間隔を指定し、通信部85を介してグリッド間隔の情報を無人航空機100に送信してよい。UAV制御部110は、通信インタフェース150を介してグリッド間隔の情報を取得し、設定してよい。
The interval (grid interval) between the grid points gp may be a predetermined value or may be arbitrarily set by the
また、撮像範囲の概略形状の情報が用意されている場合、UAV制御部110は、概略形状の情報を取得してよい。UAV制御部110は、概略形状をグリッド点gpでサンプリングし、各グリッド点gpでの高度を得て、グリッド点gpの高度に設定してよい。例えば、UAV制御部110は、通信インタフェース150を介して接続されたネットワーク上の地図サーバと連動し、撮像範囲の地形情報を概略形状の情報として取得してよい。地形情報は、撮像範囲の各グリッド点gpの位置情報(緯度、経度、高度)を含んでよい。また、地形情報は、建物、山、森林、鉄塔等の地表面の形状の情報やオブジェクトの情報を含んでよい。
Further, when the information on the rough shape of the imaging range is prepared, the
UAV制御部110は、決定された飛行経路に従って飛行を制御し、撮像部220に画像を撮像(例えば空撮)させ、撮像画像をストレージ170に保持させる(S3)。この撮像は、飛行経路に沿った各撮像位置において行われ、複数の撮像画像がストレージ170に保持されてよい。また、UAV制御部110は、撮像画像に関する付加情報をストレージ170に保持させてよい。この付加情報は、上記の各種パラメータ(例えば飛行パラメータ、撮像パラメータ)と同様の情報を含んでよい。よって、UAV制御部110は、撮像画像を撮像した際の撮像部220(つまり無人航空機100)の撮像位置、撮像時の姿勢、撮像方向、等の情報を取得してよい。
The
UAV制御部110は、撮像部220又はストレージ170から複数の撮像画像を取得する。UAV制御部110は、各撮像画像に含まれる複数の特徴点を抽出してよい。特徴点は、撮像画像上の任意の位置の点でよい。UAV制御部110は、各撮像画像に含まれる複数の特徴点に対し、同じ特徴点同士を対応させるマッチング処理を行い、対応する特徴点としての対応点を生成してよい。UAV制御部110は、複数の対応点を含む疎な点群を生成してよい。UAV制御部110は、例えばsfmに従って、疎な点群を生成してよい。疎な点群の数は、例えば1画像当たり数100点程でよい。疎な点群に含まれる点のデータには、3次元位置を示すデータが含まれてよい。このように、UAV制御部110は、複数の撮像画像を基に、疎な点群を生成する(S5)。
The
なお、疎な点群は、グリッドgdのグリッド点gpとは一致しなくてよい。疎な点群の2次元平面における位置(実空間における高度を考慮しない位置)は、グリッド点gpの2次元平面における位置(グリッド高度を考慮しない位置)と一致しなくてよく、初期グリッドではグリッド高度も厳密に定められていないためである。 Note that the sparse point group does not have to match the grid point gp of the grid gd. The position of the sparse point group on the two-dimensional plane (the position that does not consider the altitude in the real space) does not have to match the position of the grid point gp on the two-dimensional plane (the position that does not consider the grid altitude). This is because the altitude is not strictly defined.
UAV制御部110は、生成された特徴点、対応点、疎な点群のデータを、メモリ160又はストレージ170に蓄積してよい。これにより、UAV制御部110は、次回以降の疎な点群の生成では、新たに取得された撮像画像に基づく疎な点群を生成すればよく、今回以前の疎な点群は、メモリ160又はストレージ170から取得すればよい。例えば、今回以前の撮像では撮像されていなかった場所について次回以降に撮像され、新たな特徴点、対応点、疎な点群データが生成されてよい。また、今回以前の撮像で撮像された場所であるが、今回以前の撮像における撮像方向や撮像角度が異なり、同じ場所についての情報量が不足していた場合においても、新たな特徴点、対応点、疎な点群データが生成されてよい。つまり、UAV制御部110は、新たな撮像画像に基づく疎な点群を、既存の撮像画像についての疎な点群に追加してよい。この場合、無人航空機100は、疎な点群データを生成するための処理負荷を低減でき、処理時間を短縮でき、リアルタイム性を向上できる。したがって、UAV制御部110は、画像撮像、撮像された画像についての疎な点群生成の後に、新たな画像撮像、新たな画像についての疎な点群生成、を逐次的に繰り返してよい。
The
UAV制御部110は、ドロネー(Delaunay)三角化、PSR(Poisson Surface Reconstruction)等のメッシュ化技術により、疎な点群に含まれる複数の点(例えば3点)を頂点とするサーフェス(面)sfを生成する。つまり、UAV制御部110は、疎な点群を基に、疎な点群に含まれる複数の点を含むサーフェスsfの形状を生成する。また、サーフェスsfは、形状推定の推定対象の表面の形状に対応してよい。UAV制御部110は、疎な点群で形成されるサーフェスsfに、グリッドgdにおけるグリッド点gpが含まれるように、グリッド点gp(各グリッド点gpのグリッド高度)を補正し、グリッド初期値とする(S6)。なお、グリッド点gpにおけるグリッド初期値(グリッドのグリッド高度の初期値)が、地形に対応する高度を示すものとは限らない。グリッド初期値を起点として、そのグリッド点gpにおける高度を変更しながら、地形に対応する高度が探索されてよい。
The
UAV制御部110は、グリッド初期値を起点として、グリッド高度を探索するための探索軸(地面を示すグリッド面に垂直な軸)に沿ってグリッド高度を変更しながら、グリッド高度を仮定する。よって、UAV制御部110は、仮定されたグリッド高度を有する仮定グリッド点PSを生成する。グリッド高度は、例えば、グリッド点に対応する推定対象や地形の高度に対応する。UAV制御部110は、複数の撮像画像において同一の仮定グリッド点PSが投影されるそれぞれの仮定投影位置について、画像(画素)の類似度を導出(例えば算出)してよい。UAV制御部110は、この画素の類似度に基づいて、探索軸Ax1上の複数の仮定グリッド点PSのうち、最適な(地面に近いと思われる)グリッド点psを推定する。UAV制御部110は、類似度が閾値th1以上(例えば最大)となる仮定グリッド点PSをグリッド点gpとして推定してよい。なお、UAV制御部110は、単一の画素の類似度を基にグリッド点(グリッド高度)を推定する代わりに、隣接する複数の画素を含む所定の画素範囲の類似度を基にグリッド点を推定してもよい。
The
UAV制御部110により探索軸Ax1に沿ってグリッド点gpの高度を探索する探索方式は、全探索法でもよいし、最適法(例えば二分探索法、LM探索法)でもよい。UAV制御部110は、各撮像画像における各仮定投影位置の類似度を、NCC(Normalized Cross-Correlation)、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)等を用いて算出してよい。
The search method for searching the altitude of the grid point gp along the search axis Ax1 by the
なお、各撮像画像における各仮定投影位置の画素の類似度を、グリッド点gp(グリッド高度)を推定するための指標とすることは一例であり、UAV制御部110は、他の指標を基に、最適なグリッド点gpを推定してもよい。例えば、UAV制御部110は、上記の類似度が高い場合に低いスコアとなるような誤差スコアを想定し、誤差スコアを基に、最適なグリッド点を推定してもよい。この場合、UAV制御部110は、例えば誤差スコアが閾値th2以下(例えば最小)となるように、最適なグリッド点を推定してよい。
Note that the similarity of the pixels at each assumed projection position in each captured image is used as an index for estimating the grid point gp (grid altitude), and the
UAV制御部110は、グリッド点gpの高度の探索は、撮像範囲に対応するグリッドgdにおける各グリッド点gpに対して行われる。なお、ここでの各グリッド点gpとは、グリッドgdにおける全てのグリッド点gpでもよい、一部のグリッド点gpでもよい。
The
このようにして、UAV制御部110は、グリッド点gpの高度を推定する。UAV制御部110は、各グリッド点gpの高度を推定することで、グリッド形状を推定する(S7)。グリッド形状は、各グリッド点gpの実際の高度が推定された結果を反映したグリッドgdの形状となり、撮像範囲における地面の形状に相当する。
In this way, the
UAV制御部110は、無人航空機100が備える撮像部220による撮像(例えば空撮)が完了したか否かを判別する(S8)。UAV制御部110は、例えば、無人航空機100が、予定されていた飛行経路に従って飛行し、予定されていた撮像位置での画像の撮像が終了した場合に、空撮が完了したと判別してよい。UAV制御部110は、端末80の操作部83を介してユーザが空撮の終了を指示し、この指示の情報が通信部85を介して取得された場合に、空撮が完了したと判別してよい。空撮が完了していない場合、UAV制御部110は、S3に戻り、空撮を継続する。空撮が完了した場合、UAV制御部110は、図6の処理を終了する。
The
無人航空機100は、地面方向の撮像とグリッド形状の推定とを反復して行う。したがって、反復回数が大きくなるに連れ、生成される疎な点群の数が増えてゆく。そのため、グリッド形状の推定として得られる地形形状は、徐々に、実際の地形形状に近づいていく。この場合でも、UAV制御部110は、新たに追加された撮像画像から抽出された疎な点群を、既存の撮像画像から抽出された疎な点群に追加して、新たな疎な点群を生成可能である。よって、無人航空機100は、撮像画像を取得する度に計算量が増えることを抑制でき、リアルタイム性の高いグリッド形状の推定、つまり地形推定を実現できる。
The unmanned
なお、UAV制御部110は、S7において推定されたグリッド形状の情報を、通信インタフェース150を介して端末80に送信してよい。端末80では、通信部85を介し推定されたグリッド形状の情報を取得し、表示部88を介して表示させてよい。これにより、推定されたグリッド形状、つまり飛行範囲における推定された地面形状を、ユーザが確認できる。
Note that the
なお、撮像部220により撮像された撮像画像ではなく、撮像部230により撮像された撮像画像を基に、グリッド形状推定が行われてもよい。
Note that the grid shape estimation may be performed based on the captured image captured by the
なお、図6の地形推定処理の少なくとも一部の処理が、端末80により実行されてもよい。例えば、端末制御部81は、S3において撮像画像を無人航空機100から取得し、疎な点群の生成(S5)、グリッド初期値の生成(S6)、グリッド形状推定(S7)、等を行ってよい。また、端末制御部81は、S9において空撮が完了したか否かの情報を無人航空機100から取得してよい。また、無人航空機100と端末80とで、地形推定処理を分担して実施してもよい。
It should be noted that at least a part of the terrain estimation processing of FIG. 6 may be executed by the terminal 80. For example, the
次に、図6の各ステップにおける処理を補足する。 Next, the processing in each step of FIG. 6 will be supplemented.
図7は、初期グリッドの生成例を示す図である。初期グリッドの形状は、撮像範囲を基に、決定されてよい。図7では、初期グリッドの形状は、平面的な矩形である。図7では、隣接する4つのグリッド点gpを頂点する四角形を組み合わせて、グリッドgdが生成されている。隣接するグリッド点gpにより他の形状(例えば三角形)が生成され、他の形状が組み合わされてグリッドgdが生成されてもよい。つまり、グリッドgdにおける各グリッド点gpを頂点とする単位グリッドは、三角形でも四角形でもその他の形状でもよい。 FIG. 7 is a diagram showing an example of generating an initial grid. The shape of the initial grid may be determined based on the imaging range. In FIG. 7, the shape of the initial grid is a planar rectangle. In FIG. 7, a grid gd is generated by combining quadrangles having four adjacent grid points gp as vertices. Other shapes (for example, triangles) may be generated by the adjacent grid points gp, and the other shapes may be combined to generate the grid gd. That is, the unit grid having the apex at each grid point gp in the grid gd may be a triangle, a quadrangle, or any other shape.
図8は、疎な点群の生成例を示す図である。疎な点群は、撮像画像に含まれる特徴点を基に、UAV制御部110によって生成されてよい。図8では、4つの疎な点群(点P1〜P4)が生成される。4つの疎な点群(点P1〜P4)のうち、疎な点P2の高度が最も低く、疎な点P3,P4の高度が高い。
FIG. 8 is a diagram illustrating an example of generating a sparse point cloud. The sparse point cloud may be generated by the
図9は、疎な点群(点P1〜P4)で囲まれるサーフェスsf1〜sf3の生成例を示す図である。疎な点群の形状を表すサーフェスsf(sf1,sf2,sf3,・・・)は、前述したメッシュ化技術により生成されてよい。サーフェスsf1は、疎な点P1,P2,P4で囲まれる面である。サーフェスsf2は、疎な点P1,P2,P3で囲まれる面である。サーフェスsf3は、疎な点P2,P3,P4で囲まれる面である。3つのサーフェスsf1〜sf3で表現される全体の面は、中央(疎な点P2)が凹んだ形状を有する。 FIG. 9 is a diagram showing a generation example of the surfaces sf1 to sf3 surrounded by the sparse point group (points P1 to P4). The surface sf (sf1, sf2, sf3,...) Representing the shape of the sparse point cloud may be generated by the meshing technique described above. The surface sf1 is a surface surrounded by the sparse points P1, P2, and P4. The surface sf2 is a surface surrounded by the sparse points P1, P2, and P3. The surface sf3 is a surface surrounded by the sparse points P2, P3, and P4. The entire surface represented by the three surfaces sf1 to sf3 has a shape in which the center (sparse point P2) is recessed.
図10は、グリッド初期値gpaの生成例を示す図である。疎な点群(点P1〜P4)で囲まれたサーフェスsf1〜sf3にグリッド点gpが含まれるように、グリッド点gpの高度が補正される。例えば、初期状態では高度=0であった点がサーフェスに合わせて補正されたり、図6の処理の前回ループ時において推定されたグリッド点gpの高度が、今回生成された疎な点群に基づくサーフェスsfに合わせて補正されたりする。この補正後の高度を有するグリッド点gpが、今回ループ時のグリッド初期値gpaとなる。全てのグリッド点gpに対し、同様の補正が行われ、グリッド点毎にグリッド初期値gpaが生成されてよい。 FIG. 10 is a diagram illustrating an example of generating the grid initial value gpa. The altitude of the grid points gp is corrected so that the surfaces sf1 to sf3 surrounded by the sparse point group (points P1 to P4) include the grid points gp. For example, the point where the altitude is 0 in the initial state is corrected according to the surface, or the altitude of the grid point gp estimated in the previous loop of the process of FIG. 6 is based on the sparse point group generated this time. It may be corrected according to the surface sf. The grid point gp having the altitude after this correction becomes the grid initial value gpa at the time of this loop. The same correction may be performed on all grid points gp to generate a grid initial value gpa for each grid point.
図10では、各グリッド点の高度が補正されたグリッド初期値が、グリッド初期値gpa1,gpa2,gpa3,gpa4,gpa5である。高度が補正されたグリッド点gpは、各グリッド点gpの高度=0の初期グリッドと比較すると、上方に盛り上がったような形状となる。 In FIG. 10, the grid initial values in which the altitude of each grid point has been corrected are grid initial values gpa1, gpa2, gpa3, gpa4, gpa5. The altitude-corrected grid point gp has a shape that is bulged upward as compared with the initial grid of altitude=0 at each grid point gp.
図11は、グリッド点gpの高度(グリッド高度)の探索例を説明する図である。撮像画像GM1,GM2を用いたグリッド高度の探索例を示す。図11では、飛行中の無人航空機100が複数の撮像画像GM1,GM2を撮像するので、撮像位置及び撮像方向が異なっている。なお、図11では、実際の地面SGは、グリッド高度h2の仮定グリッド点PS2の近傍を通ることを想定する。
FIG. 11 is a diagram illustrating an example of searching the altitude of the grid point gp (grid altitude). An example of a grid altitude search using the captured images GM1 and GM2 is shown. In FIG. 11, the unmanned
UAV制御部110は、グリッド初期値gpaを起点として、探索軸ax1に沿ってグリッド高度を変更しながら最適なグリッド高度を探索する。図11では、グリッド初期値gpaは、仮定されるグリッド高度のうち最高のグリッド高度を有する仮定グリッド点PS1であり、順次グリッド高度を低くしながら探索が行われる。なお、グリッド初期値gpaの高度は、仮定されるグリッド高度のうち最低のグリッド高度を有する仮定グリッド点PS6とされ、順次グリッド高度を高くしながら探索が行われてもよい。また、探索軸ax1における端部ではなく中間部分のグリッド高度を有する仮定グリッド点(例えば仮定グリッド点PS3)をグリッド初期値の高度としてもよい。
The
まず、UAV制御部110は、グリッド高度h1であると仮定する。この場合、撮像画像GM1において、グリッド高度h1の仮定グリッド点PS1が投影された仮定投影位置PS1aには、地面における位置sg1a(画素)が描画される。撮像画像GM2において、グリッド高度h1の仮定グリッド点PS1が投影された仮定投影位置PS1bには、地面における位置sg1b(画素)が描画される。したがって、2つの撮像画像GM1,GM2において、仮定投影位置PS1a,PS1bに、地面であると仮定した同じ仮定グリッド点PS1が描画されるのではなく、異なる実際の地面SGの位置sg1a,sg1bが描画される。よって、仮定投影位置PS1a,PS1bに描画された画像の類似度(画素の類似度)が低くなる。
First, the
次に、UAV制御部110は、グリッド高度h2であると仮定する。この場合、撮像画像GM1において、グリッド高度h2の仮定グリッド点PS2が投影された仮定投影位置PS2aには、地面における位置sg2a(画素)が描画される。撮像画像GM1において、グリッド高度h2の仮定グリッド点PS2が投影された仮定投影位置PS2bには、地面における位置sg2b(画素)が描画される。したがって、2つの撮像画像GM1,GM2において、仮定投影位置PS2a,PS2bに、地面であると仮定した同じ仮定グリッド点PS2に近い実際の地面SGの位置sg2a,sg2bが描画される。よって、グリッド高度h2と仮定した場合の仮定投影位置PS2a,PS2bに描画された画像の類似度(画素の類似度)は、グリッド高度h1と仮定した場合よりも高くなる。
Next, the
よって、UAV制御部110は、複数の撮像画像GM1,GM2における仮定投影位置(PS1aとPS1b又はPS2aとPS2b)に描画される画像の類似度を算出し、算出された類似度を基に、最適な(実際の地面と推定される)グリッド高度のグリッド点を推定してよい。例えば、導出された複数の類似度の中で閾値th1以上(例えば最大)の類似度に対応するグリッド高度を、グリッド点gpの高度として推定してよい。
Therefore, the
なお、撮像画像GM1,GM2の双方が、ストレージ170に蓄積された既存の撮像画像でなく、今回撮像部220により撮像された画像であってよい。また、撮像画像GM1がストレージ170に蓄積された既存の撮像画像であり、撮像画像GM2が今回撮像部220により撮像された最新の撮像画像であってよい。また、グリッド高度を推定するための撮像画像が、3枚以上あってもよい。既存の撮像画像が複数あってもよい。最新の撮像画像が複数あってもよい。
Note that both of the captured images GM1 and GM2 may be images captured by the
図12は、グリッド形状の推定例を説明する図である。図12では、UAV制御部は110、上記画素の類似度に基づいて、グリッド初期値gpaに対して上方に移動した仮定グリッド点PS2が、最適な(最も確からしい)グリッド点gpであると推定する。UAV制御部110は、撮像部220で撮像された複数枚の画像の類似度を算出し、類似度が最も高くなるグリッド高度を、最適化されたグリッド点gppの高度と推定してよい。図12では、グリッド高度がそれぞれ探索範囲za〜ze内で調整されてよい。
FIG. 12 is a diagram illustrating an example of grid shape estimation. In FIG. 12, the
このように、実施形態1の飛行システム10では、UAV制御部110は、疎な点群に基づき、グリッド初期値を導出してよい。UAV制御部110は、グリッド初期値を起点としてグリッド高度を複数仮定し、仮定されたグリッド高度を有する仮定グリッド点PSが投影された仮定投影位置の画素の類似度を基に、グリッド高度を最適化できる。つまり、UAV制御部110は、グリッド点gpを異なる撮像画像に再投影し、再投影された各場所(仮定投影位置)の類似度を計算できる。UAV制御部110は、撮像位置と撮像方向とを基に、撮像画像に含まれる撮像範囲を認識可能である。よって、UAV制御部110は、撮像画像における仮定投影位置を特定できる。UAV制御部110は、上記の類似度に基づいて、実際のグリッド高度(真値)を推定できる。
As described above, in the
UAV制御部110は、疎な点群を生成する際、蓄積された撮像画像の全てを用いて疎な点群を生成する必要はない。UAV制御部110は、一度生成された疎な点群の情報を蓄積しておき、新たな撮像画像については疎な点群を生成してよい。UAV制御部110は、蓄積された疎な点群に新たな疎な点群を追加し、サーフェスsfを生成するためのデータとして使用可能である。よって、無人航空機100は、処理負荷が大きく演算時間が比較的長い疎な点群の生成処理を簡略化でき、UAV制御部110の処理負荷を低減でき、処理時間を短縮できる。したがって、無人航空機100は、地面の三次元形状を推定する際のリアルタイム性を向上できる。
When generating the sparse point group, the
このように、無人航空機100(形状推定装置の一例)は、無人航空機100(飛行体)により撮像された複数の撮像画像に基づいて、地形の3次元形状を推定する。無人航空機100は、地形の3次元形状の推定に関する処理を行うUAV制御部110(処理部の一例)を備える。UAV制御部110は、無人航空機100が備える撮像部220(撮像装置)により撮像される撮像範囲において、複数のグリッド点gpを有するグリッドgdを生成してよい。UAV制御部110は、撮像部220により撮像された撮像画像GM1(第1の撮像画像の一例)及び撮像画像GM2(第2の撮像画像の一例)を取得してよい。UAV制御部110は、撮像画像GM1,GM2を撮像した際の撮像部220の3次元位置及び撮像部220による撮像方向(撮像部220の姿勢に相当)の情報を取得してよい。UAV制御部110は、複数のグリッド点gpにおける仮定グリッド点PS(第1のグリッド点に一例)の高度を複数仮定してよい。仮定グリッド点PSの高度は、例えば、グリッド点に対応する推定対象や地形の高度に対応する。UAV制御部110は、複数仮定された高度に対し、撮像部220の3次元位置及び撮像部220による撮像方向に基づいて、仮定グリッド点PSが撮像画像GM1に投影された仮定投影位置PS1a(第1の仮定投影位置の一例)と、撮像画像GM2に投影された仮定投影位置PS1b(第2の仮定投影位置の一例)と、を導出(例えば算出)してよい。UAV制御部110は、複数仮定された高度について、撮像画像GM1における仮定投影位置PS1aと撮像画像GM2における仮定投影位置PS1bとの類似度を導出してよい。UAV制御部110は、複数仮定された高度についての類似度に基づいて、グリッド点gpの高度を推定する。UAV制御部110は、推定されたグリッド点gpの高度に基づいて、撮像範囲の3次元形状を推定してよい。
As described above, the unmanned aerial vehicle 100 (an example of a shape estimation device) estimates the three-dimensional shape of the terrain based on the plurality of captured images captured by the unmanned aerial vehicle 100 (aircraft). The unmanned
これにより、無人航空機100は、高度を変更しながら、各撮像画像における各仮定投影位置について類似度を算出し、類似度を最適化することで(例えば最大の類似度を導出することで)グリッド点gpの高度を推定でき、3次元形状推定を行う際の計算を単純化できる。したがって、無人航空機100は、従来のような素点生成(例えばsfm)、密点生成(例えばMVS:Multi-View Stereo)、メッシュ生成、テクスチャ生成、等の処理の全てを順に行う必要が無くなる。そのため、無人航空機100は、3次元形状の推定処理を行うための処理負荷を低減でき、オンラインで3次元形状の推定を実施できる。また、無人航空機100は、リアルタイム性を向上できることで、現場で3次元形状の推定処理の結果を得ることもできる。
Accordingly, the unmanned
例えば、類似度が大きい場合、複数の撮像画像に同一位置(仮定グリッド点PS)が投影されたそれぞれの画素(画素範囲)が最も類似しているので、これらの画素が同一の対象を表している可能性が高い。無人航空機100は、この場合の仮定グリッド点PSの高度を、この画素が存在する撮像画像における画像位置に対応する実空間の位置の高度と推定することができる。
For example, when the degree of similarity is large, each pixel (pixel range) in which the same position (the assumed grid point PS) is projected on a plurality of captured images is the most similar, and therefore these pixels represent the same target. There is a high possibility that The unmanned
また、UAV制御部110は、撮像画像GM1,GM2に基づいて、例えばsfm(Structure from Motion)による手法により、疎な点群データ(点群データの一例)を生成してよい。UAV制御部110は、疎な点群データを基にサーフェスsf(面データの一例)を生成してよい。UAV制御部110は、サーフェスsfを基に、仮定グリッド点PSの初期のグリッド高度h1(グリッド初期値gpa)(第1のグリッド点の初期高度の一例)を導出してよい。UAV制御部110は、仮定グリッド点PSの高度を、グリッド高度h1から順に仮定してよい。
In addition, the
これにより、無人航空機100は、グリッド点gp(仮定グリッド点PS)のグリッド高度h1を疎な点群データに基づくサーフェスsfを基に設定でき、グリッド点gpの高度を導出するための探索時間を短縮できる。また、無人航空機100は、グリッド点gpの初期高度が真値(実際の高度)から大きくずれていても、真値を探索し易くできる。
Accordingly, the unmanned
また、第1の撮像画像は、1つ以上の既存の撮像画像(例えば前回以前に撮像された撮像画像)でよい。第2の撮像画像は、1つ以上の最新の撮像画像(例えば今回撮像された撮像画像)でよい。UAV制御部110は、第1の撮像画像を基に生成された第1の点群データを取得し、第2の撮像画像に基づいて、第2の点群データを生成し、第1の点群データと第2の点群データを基に、サーフェスsfを生成してよい。
In addition, the first captured image may be one or more existing captured images (for example, captured images captured before the previous time). The second captured image may be one or more latest captured images (for example, the captured image captured this time). The
これにより、無人航空機100は、既存の画像(例えば第1の撮像画像)を用いることで、既存の点群データを計算することが不要であり、最新の画像(例えば第2の撮像画像)に基づく点群データうぃ生成するための演算で済む。よって、無人航空機100は、複数の撮像画像を用いて迅速に三次元形状推定でき、リアルタイム性を向上できる。
As a result, the unmanned
また、グリッド点gpは、グリッドgdにおける全グリッド点でよい。これにより、無人航空機100は、例えば撮像範囲全体の3次元形状を、リアルタイム性高く迅速に推定できる。
The grid points gp may be all grid points in the grid gd. As a result, the unmanned
また、グリッド点gpは、グリッドgdにおける一部のグリッド点gpでよい。これにより、無人航空機100は、例えば撮像範囲において物体が存在する特定の範囲の3次元形状の推定を、リアルタイム性高く迅速に推定でき、計算コストを小さくできる。
The grid points gp may be some grid points gp in the grid gd. As a result, the unmanned
また、UAV制御部110は、グリッドgdの各グリッド点gpの間隔を設定してよい。例えば、端末制御部81が、操作部83を介して、各グリッド点gpの間隔を設定するための操作情報を取得し、通信部85を介してこの操作情報を送信してよい。UAV制御部110は、通信インタフェース150を介して操作情報を取得し、操作情報に応じて各グリッド点gpの間隔を設定してよい。
Further, the
これにより、無人航空機100は、グリッドgdの細かさ(グリッド点gpの多さ)を設定でき、ユーザ所望の3次元形状推定の細やかさを実現できる。
As a result, the unmanned
(実施形態2)
実施形態1では、グリッド高度の探索対象において複数の高度を仮定し、複数の高度についての複数の撮像画像での仮定投影位置の画素(画素範囲)の類似度を基に、グリッド高度を推定することを想定した。一方、実施形態1では、探索対象以外のグリッドによる探索対象のグリッドへの高度の推定の影響を加味していない。実施形態2では、グリッドの隣接関係を考慮して、グリッド形状を推定する場合を示す。なお、本実施形態では、UAV制御部110が主導してグリッド形状を推定することを例示するが、端末制御部81が主導してグリッド形状を推定してもよい。
(Embodiment 2)
In the first embodiment, a plurality of altitudes are assumed in the search target of the grid altitudes, and the grid altitudes are estimated based on the similarity of pixels (pixel ranges) at the assumed projection positions in the plurality of captured images for the plurality of altitudes. I assumed that. On the other hand, in the first embodiment, the influence of the altitude estimation on the search target grid by the grid other than the search target is not taken into consideration. The second embodiment shows a case where the grid shape is estimated in consideration of the adjacency relationship of the grids. Although the
実施形態2の飛行システムは実施形態1とほぼ同一の構成を有する。実施形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 The flight system of the second embodiment has substantially the same configuration as that of the first embodiment. The same reference numerals are used for the same components as in the first embodiment, and the description thereof will be omitted.
UAV制御部110は、複数の撮像画像を基に、各グリッド点gpの高度を最適化する。この場合、UAV制御部110は、第1の実施形態で導出される類似度に基づいて、誤差スコアE(X)を算出してよい。UAV制御部110は、誤差スコアE(X)の算出結果を基に、各グリッド点gpの高度を推定してよい。誤差スコアE(X)は、仮定グリッド点PSを複数の撮像画像に投影しようとした場合に、各撮像画像における各仮定投影位置が示す実空間上の位置の誤差に相当する。各仮定投影位置が示す実空間上の位置の誤差が大きいと、各撮像画像における仮定投影位置の画素の類似度が低くなる。各仮定投影位置が示す実空間上の位置が小さいと、各撮像画像における仮定投影位置の画素の類似度が高くなる。誤差スコアE(x)は、例えば式(1)で表されてよい。
The
誤差スコアE(x)の算出では、UAV制御部110は、各グリッド点gpにおいて、高度xs(例えばh1、h2、・・・)を順次変更したグリッド点gpを仮定し、仮定グリッド点PSを生成する。UAV制御部110は、右辺における第1項のコストと、右辺における第2項の影響度とを足し合わせることで、誤差スコアE(x)を算出してよい。式(1)の第1項は、探索対象のグリッド点gp(グリッド点sとも称する)単体のコストを表す。第2項は、探索対象のグリッド点gpに隣接するグリッド点gp2(グリッド点tとも称する)による、グリッド点gpへの影響度を表す。集合Vは、グリッド点gpの集合である。集合Eは、グリッドgdにおいて隣接関係にあるグリッド点sとグリッド点tとを結ぶ辺の集合である。
In the calculation of the error score E(x), the
式(1)において、xsは、グリッド点sの高度を表す。xtは、グリッド点tの高度を表す。wsは、現在の撮像位置(つまり無人航空機100の位置)からグリッド点sに対応する実空間上の位置までの距離に基づく関数を表す。wstは、グリッド点sとグリッド点tとの距離に基づく関数を表す。ws,wstは、それぞれ、距離が長い程、小さな値となり、ws,wstが存在する項(第1項又は第2項)の値が小さくなり、誤差スコアE(X)に与える影響が小さくなる。 In Expression (1), x s represents the altitude of the grid point s. x t represents the altitude of the grid point t. w s represents a function based on the distance from the current imaging position (that is, the position of the unmanned aerial vehicle 100) to the position in the real space corresponding to the grid point s. w st represents a function based on the distance between the grid point s and the grid point t. w s and w st each have a smaller value as the distance is longer, and the value of the term (first term or second term) in which w s and w st exist becomes smaller and is given to the error score E(X). The effect is small.
また、φs(xs)は、複数の撮像画像間の仮定グリッド点PSの再投影位置(仮想投影位置)の類似度を示し、式(2)で表される。
Xstは、隣接関係のコストを示し、例えば隣接するグリッド点間の平滑度の情報を含んでよい。Xst(xs,xt)は、グリッド点sと隣接関係にあるグリッド点tとの2点間のコストを含み、式(3)で表される。式(3)の場合、グリッド点s,t間の距離(ノルム)を示す。
平滑度の情報は、メモリ160に保持されてよいし、UAV制御部110によって外部サーバから取得されてよい。平滑度の情報は、例えば、地形の気腹の激しい土地(山地など)である場合、平滑度が低いことを示す情報を含んでよく、地形が平野や水面(海面、川面)である場合、平滑度が高いことを示す情報を含んでよい。
The smoothness information may be held in the
式(4)に示されるXであるargmin関数は、関数である誤差スコアE(X)が最小となるxを引数として渡す関数である。argmin関数の関数値は、探索対象のグリッド点sの各撮像画像への再投影誤差を最小化するための関数である。なお、argmin関数の最適化解法(つまりグリッド形状の最適化解法)として、ツリー重み再配分メッセージ伝達法(TRW−S)等の、MRF最適化手法が用いられる。
UAV制御部110は、式(4)に従い、誤差スコアE(x)が閾値th3未満(例えば最小)となるようなグリッド点sの高度xsを導出する。これにより、UAV制御部110は、撮像部220で撮像された複数の撮像画像を基に、各グリッド点gpの高度を最適化できる。
The
例えば、撮像画像に障害物が映り込んでいる場合、各撮像画像における仮定グリッド点PSの投影において、仮定投影位置に障害物が映り込む可能性があり、この場合、仮定投影位置の画素値が変化する。よって、障害物を地形の一部として誤推定することがあり得る。これに対し、本実施形態では、UAV制御部110は、探索対象のグリッド点sだけでなく、その隣接に位置するグリッド点tとの関係性も考慮してグリッド形状を推定する。よって、無人航空機100は、障害物等の画像ノイズが存在する場合でも、探索対象の周辺のグリッド点の状況も加味することで、地面形状をより高精度に生成できる。
For example, when an obstacle is reflected in the captured image, the obstacle may be reflected in the assumed projection position in the projection of the assumed grid point PS in each captured image. In this case, the pixel value of the assumed projection position is Change. Therefore, the obstacle may be erroneously estimated as a part of the terrain. On the other hand, in the present embodiment, the
このように、本実施形態では、実施形態1と比較すると、探索対象のグリッド点sの周囲のグリッド点tとの関係性を加味するので、無人航空機100は、例えば、撮像画像に障害物が映り込んでいる場合でも、障害物を地形の一部と誤って推定することを抑制できる。
As described above, in the present embodiment, as compared with the first embodiment, the relationship with the grid points t around the grid point s to be searched is taken into consideration, so that the unmanned
以上のように、UAV制御部110は、仮定投影位置PS1aと仮定投影位置PS1b)との類似度(例えばφs(xs))に基づいて、仮定投影位置PS1aと仮定投影位置PS1bとの画素値の誤差を示す誤差スコアE(X)を算出してよい。UAV制御部110は、誤差スコアE(X)に基づいて、グリッド点gp(グリッド点s)の高度を推定してよい。
As described above, the
これにより、無人航空機100は、各撮像画像GM1,GM2に同一位置(例えば仮定グリッド点PS1)が投影された各仮定投影位置PS1a、PS2bの類似度を基に、誤差スコアを用いて、簡単にグリッド点の高度を推定できる。
Accordingly, the unmanned
また、UAV制御部110は、グリッドgdにおける探索対象のグリッド点s(第1のグリッドの一例)と隣接するグリッド点t(例えば第2のグリッドの一例)との間隔(例えばXst)に基づいて、誤差スコアE(x)を算出してよい。
In addition, the
これにより、無人航空機100は、探索対象のグリッド点sと隣接するグリッド点tとの間隔(距離)を加味して、3次元復元の形状調整への影響度を調整できる。例えば、無人航空機100は、グリッド点s,tの間隔が長い程、3次元復元の形状調整への影響を小さくできる。グリッド点gpの間隔が広くなると、地面形状の起伏等により隣接するグリッド点s,t同士の関係性が小さくなるためである。なお、ある程度以上(例えば閾値th4以上)距離が離れた場合、誤差スコアE(x)の第2項(式(1)の右辺の後半の項)を値0にして、隣接するグリッド点tによるグリッド点sへの影響を無くしてもよい。
As a result, the unmanned
また、UAV制御部110は、グリッド点sとグリッド点tとの間の平滑度に基づいて、誤差スコアE(x)を算出してよい。
Further, the
グリッド点s,t間の地形が平滑であるかないかに応じて、隣接するグリッド点s,t同士の関係性が異なる。UAV制御部110は、平滑度を加味して上記の類似度を補正し、誤差スコアE(x)を算出してよい。無人航空機100は、例えば、隣り合うグリッド点s,t間の地形が平坦な地形である場合には、補正された類似度を高く(誤差スコアE(X)を低く)でき、隣り合うグリッド点s,t間の地形が起伏に富んだ地形である場合には、補正された類似度が低く(誤差スコアE(X)を大きく)できる。よって、隣接するグリッド点s,t間が平坦である程、誤差スコアE(X)が小さくなり易く、無人航空機100は、探索対象のグリッド高度を、小さな誤差で推定し易くできる。
The relationship between adjacent grid points s and t differs depending on whether the topography between the grid points s and t is smooth. The
以上、実施形態を用いて本開示を説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present disclosure.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operations, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is "preceding" or "prior to prior". It is possible to realize in any order unless the output of the previous process is used in the subsequent process. The operation flow in the claims, the description, and the drawings, even if it is described by using "first", "next", etc. for convenience, means that it is essential to carry out in this order. is not.
10 飛行システム
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
GM1,GM2 撮像画像
gd グリッド
gp グリッド点
P1〜P4 疎な点
PS1,PS2,PS3,PS4 仮定グリッド点
PS1a,PS1b,PS2a,PS2b 仮定投影位置
sf1〜sf3 サーフェス
za〜ze 探索範囲
10
Claims (20)
前記3次元形状の推定に関する処理を行う処理部を備え、
前記処理部は、
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成し、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得し、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得し、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定し、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出し、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出し、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定し、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定する、
形状推定装置。 A shape estimating device for estimating a three-dimensional shape based on a plurality of picked-up images picked up by a flying object,
A processing unit that performs processing relating to the estimation of the three-dimensional shape,
The processing unit is
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device,
Acquiring information on the three-dimensional position of the imaging device and the imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of the first grid point in the plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
For a plurality of assumed altitudes, the degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image is derived,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point;
Shape estimation device.
前記第1の撮像画像及び前記第2の撮像画像に基づいて、疎な点群データを生成し、
前記疎な点群データを基に面データを生成し、
前記面データを基に、前記第1のグリッド点の初期高度を導出し、
前記第1のグリッド点の高度を、前記初期高度から順に仮定する、
請求項1に記載の形状推定装置。 The processing unit is
Generating sparse point cloud data based on the first captured image and the second captured image,
Generate surface data based on the sparse point cloud data,
Deriving an initial altitude of the first grid point based on the surface data,
Assuming the altitudes of the first grid points in order from the initial altitude,
The shape estimation device according to claim 1.
前記第2の撮像画像は、1つ以上の最新の撮像画像であり、
前記処理部は、
前記第1の撮像画像を基に生成された第1の点群データを取得し、
前記第2の撮像画像に基づいて、第2の点群データを生成し、
前記第1の点群データと前記第2の点群データを基に、前記面データを生成する、
請求項2に記載の形状推定装置。 The first captured image is one or more existing captured images,
The second captured image is one or more latest captured images,
The processing unit is
Acquiring first point cloud data generated based on the first captured image,
Generate second point cloud data based on the second captured image,
Generating the surface data based on the first point cloud data and the second point cloud data,
The shape estimation device according to claim 2.
前記類似度に基づいて、前記第1の仮定投影位置と前記第2の仮定投影位置との誤差を示す誤差スコアを算出し、
前記誤差スコアに基づいて、前記第1のグリッド点の高度を推定する、
請求項1〜3のいずれか1項に記載の形状推定装置。 The processing unit is
An error score indicating an error between the first assumed projection position and the second assumed projection position is calculated based on the similarity,
Estimating the altitude of the first grid point based on the error score;
The shape estimation device according to claim 1.
請求項4に記載の形状推定装置。 The processing unit calculates the error score based on a distance between the first grid point and an adjacent second grid point in the grid.
The shape estimation device according to claim 4.
請求項4または5に記載の形状推定装置。 The processing unit calculates the error score based on a smoothness between the first grid point and a second grid point in the grid.
The shape estimation device according to claim 4 or 5.
請求項1〜6のいずれか1項に記載の形状推定装置。 The first grid points are all grid points in the grid,
The shape estimation device according to any one of claims 1 to 6.
請求項1〜6のいずれか1項に記載の形状推定装置。 The first grid points are some grid points in the grid,
The shape estimation device according to any one of claims 1 to 6.
請求項1〜8のいずれか1項に記載の形状推定装置。 The processing unit sets an interval between points of the grid,
The shape estimation device according to claim 1.
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、を含む、
形状推定方法。 A shape estimation method for estimating a three-dimensional shape based on a plurality of picked-up images picked up by an air vehicle,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point.
Shape estimation method.
前記第1の撮像画像及び前記第2の撮像画像に基づいて、点群データを生成するステップと、
前記点群データを基に面データを生成するステップと、
前記面データを基に、前記第1のグリッド点の初期高度を導出するステップと、
前記第1のグリッド点の高度を、前記初期高度から順に仮定するステップと、を含む、
請求項10に記載の形状推定方法。 The step of assuming a plurality of altitudes of the first grid points includes
Generating point cloud data based on the first captured image and the second captured image;
Generating surface data based on the point cloud data,
Deriving an initial altitude of the first grid point based on the surface data,
Assuming the altitudes of the first grid points in order from the initial altitude.
The shape estimation method according to claim 10.
前記第2の撮像画像は、1つ以上の最新の撮像画像であり、
前記点群データを生成するステップは、
前記第1の撮像画像を基に生成された第1の点群データを取得するステップと、
前記第2の撮像画像に基づいて、第2の点群データを生成するステップと、を含み、
前記面データを生成するステップは、前記第1の点群データと前記第2の点群データを基に、前記面データを生成するステップを含む、
請求項11に記載の形状推定方法。 The first captured image is one or more existing captured images,
The second captured image is one or more latest captured images,
The step of generating the point cloud data includes
Acquiring first point cloud data generated based on the first captured image;
Generating second point cloud data based on the second captured image,
The step of generating the surface data includes a step of generating the surface data based on the first point cloud data and the second point cloud data.
The shape estimation method according to claim 11.
前記類似度に基づいて、前記第1の仮定投影位置と前記第2の仮定投影位置との画素値の誤差を示す誤差スコアを算出するステップと、
前記誤差スコアに基づいて、前記第1のグリッド点の高度を推定するステップと、を含む、
請求項10〜12のいずれか1項に記載の形状推定方法。 The step of estimating the altitude of the first grid point comprises:
Calculating an error score indicating an error in pixel value between the first hypothetical projected position and the second hypothetical projected position based on the similarity;
Estimating the altitude of the first grid point based on the error score.
The shape estimation method according to claim 10.
請求項13に記載の形状推定方法。 The step of calculating the error score includes the step of calculating the error score based on a distance between the first grid point and an adjacent second grid point in the grid.
The shape estimation method according to claim 13.
請求項13または14に記載の形状推定方法。 The step of calculating the error score includes the step of calculating the error score based on the smoothness between the first grid points and the second grid points in the grid.
The shape estimation method according to claim 13.
請求項10〜15のいずれか1項に記載の形状推定方法。 The first grid points are all grid points in the grid,
The shape estimation method according to any one of claims 10 to 15.
請求項10〜15のいずれか1項に記載の形状推定方法。 The first grid points are some grid points in the grid,
The shape estimation method according to any one of claims 10 to 15.
請求項10〜17のいずれか1項に記載の形状推定方法。 The step of generating the grid includes the step of setting an interval between points of the grid,
The shape estimation method according to any one of claims 10 to 17.
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、を実行させるためのプログラム。 A shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
A step of estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point.
前記飛行体が備える撮像装置により撮像される撮像範囲において複数のグリッド点を有するグリッドを生成するステップと、
前記撮像装置により撮像された第1の撮像画像及び第2の撮像画像を取得するステップと、
前記第1の撮像画像及び第2の撮像画像を撮像した際の前記撮像装置の3次元位置及び前記撮像装置による撮像方向の情報を取得するステップと、
前記複数のグリッド点における第1のグリッド点の高度を複数仮定するステップと、
複数仮定された高度について、前記撮像装置の3次元位置及び前記撮像装置による撮像方向に基づいて、前記第1のグリッド点が前記第1の撮像画像に投影された第1の仮定投影位置と、前記第1のグリッド点が前記第2の撮像画像に投影された第2の仮定投影位置と、を導出するステップと、
複数仮定された高度について、前記第1の撮像画像における前記第1の仮定投影位置と前記第2の撮像画像における前記第2の仮定投影位置との類似度を導出するステップと、
複数仮定された高度についての前記類似度に基づいて、前記第1のグリッド点の高度を推定するステップと、
推定された前記第1のグリッド点の高度に基づいて、前記撮像範囲の3次元形状を推定するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。 A shape estimation device that estimates a three-dimensional shape based on a plurality of captured images captured by a flying object,
Generating a grid having a plurality of grid points in an imaging range imaged by an imaging device included in the flying object,
Acquiring a first captured image and a second captured image captured by the image capturing device;
A step of acquiring information about a three-dimensional position of the imaging device and an imaging direction of the imaging device when the first captured image and the second captured image are captured,
Assuming a plurality of altitudes of a first grid point at said plurality of grid points,
A plurality of assumed altitudes, based on a three-dimensional position of the imaging device and an imaging direction by the imaging device, a first hypothetical projection position at which the first grid points are projected on the first captured image; Deriving a second hypothetical projection position at which the first grid point is projected on the second captured image,
Deriving a degree of similarity between the first assumed projection position in the first captured image and the second assumed projection position in the second captured image for a plurality of assumed altitudes,
Estimating the altitude of the first grid point based on the similarities for a plurality of assumed altitudes;
Estimating a three-dimensional shape of the imaging range based on the estimated altitude of the first grid point;
A computer-readable recording medium in which a program for executing is recorded.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018233603A JP2020095519A (en) | 2018-12-13 | 2018-12-13 | Shape estimation device, shape estimation method, program, and recording medium |
PCT/CN2019/123314 WO2020119572A1 (en) | 2018-12-13 | 2019-12-05 | Shape inferring device, shape inferring method, program, and recording medium |
CN201980008243.0A CN111788457A (en) | 2018-12-13 | 2019-12-05 | Shape estimation device, shape estimation method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018233603A JP2020095519A (en) | 2018-12-13 | 2018-12-13 | Shape estimation device, shape estimation method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020095519A true JP2020095519A (en) | 2020-06-18 |
Family
ID=71077122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018233603A Ceased JP2020095519A (en) | 2018-12-13 | 2018-12-13 | Shape estimation device, shape estimation method, program, and recording medium |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2020095519A (en) |
CN (1) | CN111788457A (en) |
WO (1) | WO2020119572A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598350A (en) * | 2020-12-24 | 2021-04-02 | 山西迪奥普科技有限公司 | Point cloud scanning-based warehouse stockpile management method and system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001229388A (en) * | 2000-02-18 | 2001-08-24 | Hitachi Ltd | Matching method for image data |
JP2002063580A (en) * | 2000-08-22 | 2002-02-28 | Asia Air Survey Co Ltd | Inter-image expansion image matching method using indefinite shape window |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3661187B2 (en) * | 2002-03-27 | 2005-06-15 | ソニー株式会社 | 3D terrain information generation system and method, and computer program |
JP4624287B2 (en) * | 2006-03-17 | 2011-02-02 | 株式会社パスコ | Building shape change detection method and building shape change detection system |
DE102010029091B4 (en) * | 2009-05-21 | 2015-08-20 | Koh Young Technology Inc. | Form measuring device and method |
IL200637A0 (en) * | 2009-08-30 | 2011-08-01 | Rafael Advanced Defense Sys | System and method for virtual range estimation |
US8811719B2 (en) * | 2011-04-29 | 2014-08-19 | Microsoft Corporation | Inferring spatial object descriptions from spatial gestures |
CN105823438B (en) * | 2012-05-22 | 2018-10-19 | 株式会社高永科技 | The height measurement method of 3 d shape measuring apparatus |
JP6326237B2 (en) * | 2014-01-31 | 2018-05-16 | 株式会社トプコン | Measuring system |
JP5961207B2 (en) * | 2014-03-28 | 2016-08-02 | 富士重工業株式会社 | Outside environment recognition device |
EP3062066A1 (en) * | 2015-02-26 | 2016-08-31 | Hexagon Technology Center GmbH | Determination of object data by template-based UAV control |
DE102015224854A1 (en) * | 2015-12-10 | 2017-06-14 | Siemens Aktiengesellschaft | Method of creating a depth map |
WO2018158927A1 (en) * | 2017-03-02 | 2018-09-07 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Method for estimating three-dimensional shape, flying vehicle, mobile platform, program, and recording medium |
-
2018
- 2018-12-13 JP JP2018233603A patent/JP2020095519A/en not_active Ceased
-
2019
- 2019-12-05 CN CN201980008243.0A patent/CN111788457A/en active Pending
- 2019-12-05 WO PCT/CN2019/123314 patent/WO2020119572A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001229388A (en) * | 2000-02-18 | 2001-08-24 | Hitachi Ltd | Matching method for image data |
JP2002063580A (en) * | 2000-08-22 | 2002-02-28 | Asia Air Survey Co Ltd | Inter-image expansion image matching method using indefinite shape window |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598350A (en) * | 2020-12-24 | 2021-04-02 | 山西迪奥普科技有限公司 | Point cloud scanning-based warehouse stockpile management method and system |
CN112598350B (en) * | 2020-12-24 | 2024-02-20 | 山西迪奥普科技有限公司 | Warehouse stacking management method and system based on point cloud scanning |
Also Published As
Publication number | Publication date |
---|---|
WO2020119572A1 (en) | 2020-06-18 |
CN111788457A (en) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
JP6962775B2 (en) | Information processing equipment, aerial photography route generation method, program, and recording medium | |
JP6675537B1 (en) | Flight path generation device, flight path generation method and program, and structure inspection method | |
JP6138326B1 (en) | MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE | |
WO2018120350A1 (en) | Method and device for positioning unmanned aerial vehicle | |
US20210185235A1 (en) | Information processing device, imaging control method, program and recording medium | |
JP6788094B2 (en) | Image display methods, image display systems, flying objects, programs, and recording media | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
JP6875196B2 (en) | Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media | |
CN111344650B (en) | Information processing device, flight path generation method, program, and recording medium | |
US20200217665A1 (en) | Mobile platform, image capture path generation method, program, and recording medium | |
JP2020095519A (en) | Shape estimation device, shape estimation method, program, and recording medium | |
US20210256732A1 (en) | Image processing method and unmanned aerial vehicle | |
JP6997164B2 (en) | Image processing equipment, image processing methods, programs, and recording media | |
WO2020001629A1 (en) | Information processing device, flight path generating method, program, and recording medium | |
JP6974290B2 (en) | Position estimation device, position estimation method, program, and recording medium | |
WO2020108290A1 (en) | Image generating device, image generating method, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210628 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20220426 |