JP2020030204A - 距離測定方法、プログラム、距離測定システム、および可動物体 - Google Patents
距離測定方法、プログラム、距離測定システム、および可動物体 Download PDFInfo
- Publication number
- JP2020030204A JP2020030204A JP2019139104A JP2019139104A JP2020030204A JP 2020030204 A JP2020030204 A JP 2020030204A JP 2019139104 A JP2019139104 A JP 2019139104A JP 2019139104 A JP2019139104 A JP 2019139104A JP 2020030204 A JP2020030204 A JP 2020030204A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- target
- images
- movable object
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 97
- 238000000691 measurement method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000033001 locomotion Effects 0.000 claims abstract description 62
- 238000004422 calculation algorithm Methods 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 26
- 238000006073 displacement reaction Methods 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 10
- 230000001010 compromised effect Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 claims 32
- 230000001131 transforming effect Effects 0.000 claims 2
- 238000003384 imaging method Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 16
- 230000010354 integration Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
- G01C11/08—Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C19/00—Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、距離測定方法、プログラム、距離測定システム、および可動物体を提供することを主な目的とする。
測定の対象である目標物を特定することと、
可動物体の移動中であってカメラが前記目標物を追跡しているときに、前記カメラによって前記目標物を撮影し、複数の画像を取得することと、
前記複数の画像の取得時点に対応する可動物体の動き情報を収集することと、
前記動き情報と前記複数の画像とに基づいて前記目標物と前記可動物体との間、または測定対象物と前記可動物体との間の距離を計算することと、
を備える。
プロセッサと、
前記プロセッサに距離測定を実行させるためのプログラムを格納するメモリと、
可動物体から送信される複数の画像の表示を可能にするとともに、表示される画像を用いてユーザが目標物を特定するためのユーザインタフェイスと、
を備え、
前記複数の画像は、可動物体の移動中に前記目標物を追跡しているときに可動物体のカメラにより撮影されて前記プロセッサに送信され、
前記プロセッサは、ユーザによる前記目標物の特定を受けて前記目標物を追跡するための指示信号を生成して可動物体に送信し、さらに、前記複数の画像の取得時点に対応する可動物体の動き情報を収集し、収集した動き情報と前記複数の画像とに基づいて前記目標物と可動物体との間の距離を計算する。
可動物体本体と、
前記可動物体本体に揚力および推力の少なくともいずれかを与えて任意の移動を可能にする推進機構と、
前記可動物体本体に搭載され、可動物体の移動中に画像を撮影するカメラを含む検知装置と、
ユーザからの指示信号を受けて目標物を特定し、前記カメラからの複数の画像の取得時点に対応する前記可動物体の動き情報を収集し、該動き情報と前記複数の画像とに基づいて前記目標物と前記可動物体との間、または測定対象物と前記可動物体との間の距離を計算するプロセッサと、
を備える。
図1は、本発明のいくつかの例示的実施形態における距離測定のための動作環境の概略を示すブロック図の一例である。
以下、可動物体の一例としてUAVを取り上げて本発明に係る可動物体のいくつかの例示的実施形態について説明する。
以下、本発明に係る距離測定システムのいくつかの実施の形態について図面を参照しながら説明する。以下では、図4に示すコンピューティングデバイス400を取り上げて説明するが、勿論これに限ることなく他の様々な実施形態が可能である。
上述したUAVまたは距離測定システムを用いた距離測定について、本発明に係る距離測定方法の一実施形態として図面を参照しながら以下に説明する。
1)複数の画像のうちの1つに含まれる目標物以外の少なくとも1つの物体を自動的に特定する
2)測定対象物を指定するユーザ指示を受信する
3)前記ユーザ指示に基づいて、前記特定された少なくとも1つの物体から前記測定対象物を取得する。
ここで、Ix,Iyは点Iの偏導関数である。像点に対応するx方向およびy方向の勾配情報Mcは次のように定義することができる。
ここで、
であり、 F(x)は、G(x)より早く取り込まれ、w(x)は重み付け関数であり、xは位置を表すベクトルである。さらに、前の画像hに対する現在の画像の変位を取得した後、現在の画像h’に対する前の画像の変位を取得するために逆計算を実行することができる。理論的にはh=−h’である。実際の計算が理論的条件すなわち、h=−h’を満たす場合、特徴点が正しく追跡されている、すなわち、ある画像内の特徴点が別の画像内の特徴点と一致すると判断することができる。いくつかの実施形態では、追跡された特徴点はキーフレームのいくつかまたはすべてにおいて特定することができ、各追跡された特徴点は少なくとも2つの連続したフレームにおいて特定することができる。
ここで、iは、追跡されたi番目の三次元点(例えば、S5083からの追跡された特徴点)を表し、nは追跡された点の数であり、biはi番目の点の三次元位置を表す。jは、j番目の画像(例えば、S5081からのキーフレーム)を示し、mは画像の数を示し、ajは、回転情報R、並進情報T、および固有パラメータKの少なくともいずれかを含む、j番目の画像のカメラ姿勢情報を示す。vijiはi番目の点がi番目の画像に射影があるかどうかを示す。もしj番目の画像がi番目の点を含んでいればvij=1であり、そうでなければvij=0である。Q(aj,bi)は、カメラの姿勢情報ajに基づくj番目の画像内のi番目の点の予測投影である。xijは、j番目の画像内のi番目の点の実際の投影を記述するベクトルである(たとえば、画像内のその点の2次元座標)。d(x1,x2)はベクトルx1とベクトルx2とで表される像点間のユークリッド距離を表す。
キーフレーム内の特徴点の2D位置を追跡すること(S5083)は、中心点を特徴点に追加することと、目標特徴点のオプティカルフローベクトルに基づいて得られた中心点のオプティカルフローベクトルに従って、キーフレーム内の目標物の中心点の2D位置を追跡することをさらに含み得る。いくつかの実施形態において、ターゲット特徴点は、S5082から抽出され、目標物の領域内に位置する特徴点であり得る。すなわち、中心点をBAアルゴリズム計算のための追跡点として追加することによって、中心点の3D位置は、BAアルゴリズムの結果から直接得ることができる。数学的にxiは、i番目の目標特徴点のオプティカルフローベクトルを表し、目標物に対応する領域内に特徴点がnあると仮定すると、中心点x0のオプティカルフローベクトルは次のようにして得ることができる。
ここで、wiは、中心点とi番目の目標特徴点との間の距離に基づくi番目の目標特徴点に対応する重みである。一実施形態では、wiは以下のようにガウス分布に基づいて得ることができる:
ここで、σは経験に基づいて調整することができ、diは画像上の中心点とi番目の目標特徴点との間の距離、すなわち、
であり、ここで、 (ui,vi)はi番目の目標特徴点の2D画像位置であり、 (u0,v0)は中心点の2D画像位置を表す。
別の実施形態では、中心点がS5082から抽出された特徴点に含まれていない場合、目標物に関連付けられた1つまたは複数の特徴点の3D位置に従って目標物までの距離を計算すること(S5085)は、複数の目標特徴点の3D位置に基づいて中心点の3D位置を決定することをさらに含んでよい。2D画像内の中心点の範囲内に位置する特徴点を特定することができ、特定された特徴点の深度情報をそれらの3D位置に基づいて得ることができる。一例では、特定された特徴点の大部分は、事前設定された分散範囲内で同じ深度情報または類似の深度情報を有することがあり、目標物と同じ画像平面内に位置すると見なすことができる。すなわち、特定された特徴点の大部分の深度は、目標物の深度、すなわち目標物とUAVとの間の距離と見なすことができる。別の例では、特定された特徴点の深度の加重平均は、目標物の深度として決定することができる。中心点と特定された特徴点との間の距離に基づいて重みを決定することができる。
ここで、pk+1は、現在の画像フレームを取り込むときのUAVの推定3D位置であり、pkは、(例えば、IMU、VO回路、およびGPSセンサの少なくともいずれかに基づいて計算される)日常の動作からのデータに基づく前の画像フレームを取り込むときのUAVの3D位置である。vk+1は現在の画像フレームを取り込むときのUAVの速度であり、vkは前の画像フレームを取り込むときのUAVの速度である。qk+1は現在の画像フレームを取り込むときはUAVの4元数であり、qkは前の画像フレームを取り込むときはUAVの4元数である。そして、(ba)k+1(ba)kおよび(bω)k+1は、現在の画像フレームと前の画像フレームを取り込むときのそれぞれの加速度計バイアスである。(bω)k+1および(bω)kは、現在の画像フレームと前の画像フレームを取り込むときのそれぞれのジャイロスコープバイアスである。Δtは現在の画像フレームk+1を取り込む瞬間と前の画像フレームkを取り込む瞬間との間の時間差である。amは加速度計の現在の読み値、gは重力加速度、ωはジャイロスコープの現在の読み値を表する。Δqは、現在の画像フレームと前の画像フレームとの間の回転推定値であり、q{ }は、オイラー角表現から4元数表現への変換を表す。RwiはUAV座標系と世界座標系との間の回転関係を示し、四元数qから得ることができる。
である場合、UAVは定常移動状態にあると判定することができ、定常移動状態で取得された画像を距離測定に使用することができる。また、定常的な移動状態で撮影されていない画像は、キーフレームとして選択されないことがある。
と記述できる。プリセット条件は、以下の不等式
を満たすことを含み得る。ここで、α_thは回転閾値である。位置/並進変化tは
によって記述することができる。事前設定条件は、以下の不等式
を満たすことを含み得る。ここで、dthは変位閾値である。
上述した距離測定方法の一連の手順は、プログラムに組み込んでコンピュータに読込ませて実行させてもよい。これにより、本発明にかかる距離測定方法を、UAVに通信可能に接続される汎用のコンピュータを用いて実現することができる。
また、上述したパターン計測方法の一連の手順を組込んだプログラムをインターネット等の通信回線(無線通信を含む)を介して頒布してもよい。さらに、上述したパターン計測方法の一連の手順を組込んだプログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、又は記録媒体に収納して頒布してもよい。
102…可動物体本体
104…リモートコントローラ
106…目標物
200…UAV
202…検知システム
204…推進システム
206…通信回路
208…搭載コントローラ
400…コンピューティングデバイス
402…記憶媒体
404…プロセッサ
406…トランシーバ
408…ディスプレイ
602…初期画像
604,702…目標領域
606…目標物に対応する領域
704,706,708…スーパーピクセル
1022,2022…カメラ
1024…支持機構
2024…前方視システム
2026…下方視システム
Claims (33)
- カメラを搭載した可動物体を使用して距離を測定する方法であって、
測定の対象である目標物を特定することと、
可動物体の移動中であってカメラが前記目標物を追跡しているときに、前記カメラによって前記目標物を撮影し、複数の画像を取得することと、
前記複数の画像の取得時点に対応する可動物体の動き情報を収集することと、
前記動き情報と前記複数の画像とに基づいて前記目標物と前記可動物体との間、または測定対象物と前記可動物体との間の距離を計算することと、
を備える距離測定方法。 - 前記動き情報は、可動物体自身の慣性航法データと、可動物体自体の姿勢情報を特定するためのセンサデータとを統合することにより、取得される請求項1に記載の距離測定方法。
- 前記複数の画像の取得時点に対応する前記動き情報に基づいて前記複数の画像のそれぞれに対応して複数の推定カメラ姿勢を取得することと、
可動物体の姿勢情報を特定するためのデータを可動物体のセンサから取得することと、
取得したセンサデータに基づいて前記複数の画像の一つであるキーフレームと、該キーフレームの後に取り込まれた画像フレームとの間のカメラ姿勢関係を取得し、該カメラ姿勢関係が予め設定された条件を満たすかどうかを判定し、前記条件を満たすカメラ姿勢関係に応じて、複数の画像のうちの1つとして画像フレームを選択することと、
をさらに備え、
前記画像フレームの選択は、
第1のカメラ姿勢関係が事前設定条件を満たさないことに応答して、前記キーフレームと、第1の画像フレームの後に取り込まれた第2の画像フレームとの間の第2のカメラ姿勢関係を取得することと、
第2のカメラ姿勢関係が前記事前設定条件を満たすかどうかを判定し、前記第2のカメラ姿勢関係が前記事前設定条件を満たすことに応答して、第2の画像フレームを複数の画像のうちの1つとして選択することと、
を含む請求項1に記載の距離測定方法。 - 前記複数の画像の取得時点に対応する前記動き情報に基づいて前記複数の画像のそれぞれに対応して複数の推定カメラ姿勢を取得することと、
可動物体の姿勢情報を特定するためのデータを可動物体のセンサから取得することと、
取得したセンサデータに基づいて前記複数の画像の一つであるキーフレームと、該キーフレームの後に取り込まれた画像フレームとの間のカメラ姿勢関係を取得し、該カメラ姿勢関係が事前設定条件を満たすかどうかを判定し、前記事前設定条件を満たすカメラ姿勢関係に応じて、複数の画像のうちの1つとして画像フレームを選択することと、
をさらに備え、
前記事前設定条件は、回転閾値または変位閾値の少なくともいずれかを含み、
前記カメラ姿勢関係は、前記キーフレームを捉える瞬間から画像フレームを捉える瞬間までの回転変化、および、前記キーフレームを捉える瞬間から画像フレームを捉える瞬間までの前記カメラの位置変化のうちの少なくともいずれかを含み、
前記カメラ姿勢関係が事前設定条件を満たすかどうかを判断することは、
回転変化が回転閾値未満であることに応答して、カメラ姿勢関係が前記予め設定された条件を満たすと判定すること、および、回転変化が回転閾値よりも小さく、位置変化が変位閾値よりも大きいことに応答して、前記カメラ姿勢関係が前記予め設定された条件を満たすと判定すること、の少なくともいずれかを含む、
請求項1に記載の距離測定方法。 - 前記可動物体は支持機構を介して複数のカメラを支持し、前記方法は、
前記複数の画像の取得時点に対応する動き情報に基づいて複数の推定カメラの姿勢を取得することを備え、
前記支持機構のステータス情報は、前記複数の画像の取得時点に対応し、
前記方法は、
前記複数のカメラの各々から取得された複数の画像の各々から複数の特徴点を抽出することと、
前記複数の特徴点に対し、それらの二次元(2D)位置を追跡することと、
前記複数の画像内の前記複数の特徴点の2D位置に基づいて、前記複数の特徴点の3次元(3D)位置と、カメラ姿勢情報とを取得することと、
前記目標物または前記測定対象物に関連付けられた少なくとも1つの特徴点の3D位置と、カメラ姿勢情報によって示されるカメラの3D位置とに従って、前記目標物と前記可動物体との間、または前記測定対象物と前記可動物体との間の距離を計算することと、
をさらに備える請求項1に記載の距離測定方法。 - 前記複数の特徴点の前記2D位置を追跡することは、
前記複数の画像のうちの連続する2つの画像間の複数の特徴点の変位を追跡することと、
追跡された変位に従って複数の特徴点のオプティカルフローベクトルを取得することと、
をさらに備える請求項4に記載の距離測定方法。 - 前記複数の特徴点は目標物の中心点を含み、
前記複数の画像内の前記複数の特徴点の2D位置を追跡することは、前記複数の画像から特定された、目標物の領域内にある複数の目標特徴点のオプティカルフローベクトルに基づいて、前記複数の画像内の前記目標物の中心点の2D位置を追跡することを含み、
前記複数の特徴点の3D位置を取得することは、前記複数の画像内の中心点の2D位置と前記複数の画像の取得時点に対応する複数の推定カメラ姿勢とに基づいて中心点の3D位置を取得することを含み、
前記目標物と前記可動物体との間の距離を計算することは、前記カメラ姿勢情報によって指示される前記中心点の3D位置および前記カメラの3D位置に従って前記距離を計算することを含む、
請求項5に記載の距離測定方法。 - 前記中心点の前記2D位置を追跡することは、
前記複数の画像における中心点と目標特徴点との位置関係を決定することと、
前記位置関係に従って、目標特徴点のオプティカルフローベクトルに対応する重みを割り当てることと、
前記目標特徴点のオプティカルフローベクトルと対応する重みとに基づいて前記中心点のオプティカルフローベクトルをフィッティングすることと、
を含む請求項7に記載の距離測定方法。 - 前記複数の特徴点の前記3D位置と、前記カメラ姿勢情報とを取得することは、
全再投影誤差を最小化するバンドル調整アルゴリズムに基づく最適化問題を解くことによって、複数の特徴点および複数の推定カメラ姿勢の3D位置を同時に改良し、複数の特徴点の3次元位置およびカメラを取得することと、
を含む請求項5に記載の距離測定方法。 - 前記目標物を特定することは、
前記カメラによって取得された、前記目標物を含む初期画像を取得し、
前記初期画像内で目標領域のユーザ選択を取得し、
画素の画像特徴に基づいて前記初期画像の画素をクラスタリングすることによって前記初期画像のスーパーピクセルを取得することと、
前記目標領域に位置する少なくとも一つのスーパーピクセルを取得することと、
前記少なくとも一つのスーパーピクセルによって形成される画像領域を、目標物を表す領域として特定することと、
を含む請求項1に記載の距離測定方法。 - 前記目標物を特定した後に、畳み込みニューラルネットワーク(CNN)を使用して前記目標物が可動物体であるかどうかを判定することをさらに備え、
前記目標物が可動物体であると決定されたことに応答して、妥協された測定精度が存在することを示す警告メッセージが提示される、
請求項1に記載の距離測定方法。 - 前記目標物を特定した後に、前記目標物に対応する目標特徴点を抽出することと、
目標特徴点の量が予め設定された量閾値より少ないかどうかを判定することと、
をさらに備え、
目標特徴点の量が事前設定量閾値未満であることに応答して、妥協された測定精度が存在することを示す警告メッセージが提示される、
請求項1に記載の距離測定方法。 - 前記目標物と前記可動物体との間の推定距離である初期半径を決定することと、
前記初期半径に基づいて初期速度を決定ことと、
目標物の周囲に前記初期半径を有する曲線経路に沿って初期速度で前記可動物体を移動させることと、
をさらに備える請求項1に記載の距離測定方法。 - 前記複数の画像のうちの1つに含まれる目標物以外の少なくとも1つの物体を自動的に特定し、前記測定対象物を指定するユーザ指示を受け取り、該ユーザ指示に基づいて前記少なくとも1つの物体から前記測定対象物を取得することにより、前記複数の画像のうちの1つに含まれる前記測定対象物を特定すること
をさらに備える請求項1に記載の距離測定方法。 - 請求項1から14のいずれか一項に記載の距離測定方法をコンピュータに実行させるためのプログラム。
- カメラを搭載した外部の可動物体を使用して距離を測定するシステムであって、
プロセッサと、
前記プロセッサに距離測定を実行させるためのプログラムを格納するメモリと、
可動物体から送信される複数の画像の表示を可能にするとともに、表示される画像を用いてユーザが目標物を特定するためのユーザインタフェイスと、
を備え、
前記複数の画像は、可動物体の移動中に前記目標物を追跡しているときに可動物体のカメラにより撮影されて前記プロセッサに送信され、
前記プロセッサは、ユーザによる前記目標物の特定を受けて前記目標物を追跡するための指示信号を生成して可動物体に送信し、さらに、前記複数の画像の取得時点に対応する可動物体の動き情報を収集し、収集した動き情報と前記複数の画像とに基づいて前記目標物と可動物体との間の距離を計算する、
距離測定システム。 - 前記動き情報は、可動物体自身の慣性航法データと、可動物体自体の姿勢情報を特定するための可動物体が搭載するセンサからのセンサデータとを含み、
前記プロセッサは、前記慣性航法データと、前記センサデータとを統合することにより、前記動き情報を取得する請求項16に記載の距離測定システム。 - 前記プロセッサは、
前記複数の画像の取得時点に対応する前記動き情報に基づいて前記複数の画像のそれぞれに対応して複数の推定カメラ姿勢を取得し、可動物体の姿勢情報を特定するためのデータを可動物体のセンサから取得し、取得したセンサデータに基づいて前記複数の画像の一つであるキーフレームと、該キーフレームの後に取り込まれた画像フレームとの間のカメラ姿勢関係を取得し、該カメラ姿勢関係が事前設定条件を満たすかどうかを判定し、前記事前設定条件を満たすカメラ姿勢関係に応じて、複数の画像のうちの1つとして画像フレームを選択し、さらに、
第1のカメラ姿勢関係が前記事前設定条件を満たさないことに応答して、前記キーフレームと、第1の画像フレームの後に取り込まれた第2の画像フレームとの間の第2のカメラ姿勢関係を取得し、第2のカメラ姿勢関係が前記事前設定条件を満たすかどうかを判定し、前記事前設定条件を満たす第2のカメラ姿勢関係に応答して、第2の画像フレームを複数の画像のうちの1つとして選択することにより、前記画像フレームを選択する、
請求項16に記載の距離測定システム。 - 前記可動物体は支持機構を介して複数のカメラを支持し、
前記プロセッサは、
前記複数の画像の取得時点に対応する動き情報に基づいて複数の推定カメラの姿勢を取得し、前記複数のカメラの各々から取得された複数の画像の各々から複数の特徴点を抽出し、該複数の特徴点に対し、それらの二次元(2D)位置を追跡し、前記複数の画像内の前記複数の特徴点の2D位置に基づいて、前記複数の特徴点の3次元(3D)位置と、カメラ姿勢情報とを取得し、前記複数の画像の取得時点に対応する支持機構のステータス情報と、前記目標物に関連付けられた少なくとも1つの特徴点の3D位置と、カメラ姿勢情報によって示されるカメラの3D位置と、に従って、前記目標物と前記可動物体との間の距離を計算する、
請求項16に記載の距離測定システム。 - 前記プロセッサは、
前記複数の画像のうちの連続する2つの画像間の複数の特徴点の変位を追跡し、追跡された変位に従って複数の特徴点のオプティカルフローベクトルを取得することにより、前記複数の特徴点に対して、それらの二次元(2D)位置を追跡する、
請求項19に記載の距離測定システム。 - 前記複数の特徴点は目標物の中心点を含み、
前記プロセッサは、
前記複数の画像から特定された、目標物の領域内にある複数の目標特徴点のオプティカルフローベクトルに基づいて、複数の画像内の前記目標物の中心点の2D位置を追跡することにより前記複数の特徴点の2D位置を追跡し、
前記複数の画像内の中心点の2D位置と前記複数の画像の取得時点に対応する複数の推定カメラ姿勢とに基づいて中心点の3D位置を取得することにより前記複数の特徴点の3D位置を取得し、
前記カメラ姿勢情報によって指示される前記中心点の3D位置および前記カメラの3D位置に従って前記距離を計算することにより前記目標物と前記可動物体との間の距離を計算する、
請求項19に記載の距離測定システム。 - 前記プロセッサは、
前記複数の画像における中心点と目標特徴点との位置関係を決定し、前記位置関係に従って、目標特徴点のオプティカルフローベクトルに対応する重みを割り当て、前記目標特徴点のオプティカルフローベクトルと対応する重みとに基づいて前記中心点のオプティカルフローベクトルをフィッティングすることにより、前記目標物の中心点の2D位置を追跡する、
請求項16に記載の距離測定システム。 - 前記プロセッサは、
全再投影誤差を最小化するバンドル調整アルゴリズムに基づく最適化問題を解くことによって、複数の特徴点および複数の推定カメラ姿勢の3D位置を同時に改良することにより、前記複数の特徴点の3次元(3D)位置と、前記カメラ姿勢情報とを取得する、
請求項19に記載の距離測定システム。 - 可動物体本体と、
前記可動物体本体に揚力および推力の少なくともいずれかを与えて任意の移動を可能にする推進機構と、
前記可動物体本体に搭載され、可動物体の移動中に画像を撮影するカメラを含む検知装置と、
ユーザからの指示信号を受けて目標物を特定し、前記カメラからの複数の画像の取得時点に対応する可動物体の動き情報を収集し、該動き情報と前記複数の画像とに基づいて前記目標物と前記可動物体との間、または測定対象物と前記可動物体との間の距離を計算するプロセッサと、
を備える可動物体。 - 前記検知装置は、前記可動物体の空間配置、速度、および加速度の少なくともいずれかを検出するセンサを含み、
前記プロセッサは、前記可動物体の慣性航法データと、前記可動物体の姿勢情報を特定するためのセンサデータとを統合することにより、前記動き情報を取得する請求項24に記載の可動物体。 - 前記プロセッサは、前記目標物と前記可動物体との間の推定距離から初期半径を決定し、該初期半径に基づいて前記可動物体の初期速度を決定し、前記目標物の周囲に前記初期半径を持つ曲線パスに沿って前記初期速度で前記可動物体を移動する請求項24に記載の可動物体。
- 前記プロセッサは、
複数の画像のそれぞれの取得時点に対応する動き情報に基づいて前記複数の画像のそれぞれに対応して複数の推定カメラ姿勢を取得し、
前記センサからの検出データに基づいて前記複数の画像の一つであるキーフレームと、該キーフレームの後に取り込まれた画像フレームとの間のカメラ姿勢関係を取得し、該カメラ姿勢関係が事前設定条件を満たすかどうかを判定し、前記事前設定条件を満たすカメラ姿勢関係に応じて、複数の画像のうちの1つとして画像フレームを選択する、
請求項25に記載の可動物体。 - 前記プロセッサは、
第1のカメラ姿勢関係が前記事前設定条件を満たさないことに応答して、前記キーフレームと、第1の画像フレームの後に取り込まれた第2の画像フレームとの間の第2のカメラ姿勢関係を取得することと、
第2のカメラ姿勢関係が前記事前設定条件を満たすかどうかを判定し、前記第2のカメラ姿勢関係が前記事前設定条件を満たすことに応答して、第2の画像フレームを複数の画像のうちの1つとして選択することにより、前記画像フレームを選択する請求項27に記載の可動物体。 - 前記事前設定条件は、回転閾値または変位閾値の少なくともいずれかを含み、
前記カメラ姿勢関係は、前記キーフレームを捉える瞬間から画像フレームを捉える瞬間までの回転変化、および、前記キーフレームを捉える瞬間から画像フレームを捉える瞬間までの前記カメラの位置変化のうちの少なくともいずれかを含み、
前記カメラ姿勢関係が事前設定条件を満たすかどうかを判断することは、
回転変化が回転閾値未満であることに応答して、カメラ姿勢関係が前記予め設定された条件を満たすと判定すること、および、
回転変化が回転閾値よりも小さく、位置変化が変位閾値よりも大きいことに応答して、前記カメラ姿勢関係が前記予め設定された条件を満たすと判定すること、
の少なくともいずれかを含む、請求項27に記載の可動物体。 - 前記可動物体本体は支持機構を介して複数のカメラを支持し、
前記プロセッサは、
前記複数のカメラからの複数の画像のそれぞれに対応する動き情報に基づいて、複数の推定カメラ姿勢を取得し、
複数の画像内の複数の特徴点の二次元(2D)位置を追跡し、
複数の特徴点の3次元(3D)位置および複数の画像内の複数の特徴点の2D位置に基づいてカメラ姿勢情報と、複数の画像の取得時点に対応する可動物体のカメラを支持する支持機構のステータス情報とを取得し、さらに、前記目標物または前記測定対象物に関連付けられた1つまたは複数の特徴点の3D位置と、カメラ姿勢情報によって示されるカメラの3D位置とに従って、前記目標物または前記測定対象物と前記可動物体との間の距離を計算する、
請求項24に記載の可動物体。 - 前記可動物体本体は支持機構を介して複数のカメラを支持し、
前記センサは、加速度計およびジャイロスコープの少なくともいずれかを含み、
前記動き情報は、前記加速度計、前記ジャイロスコープ、および前記支持機構のうちの少なくとも1つによって収集されたデータを含む、
請求項25に記載の可動物体。 - 前記プロセッサは、
前記目標物と前記可動物体との間の距離に基づいて前記目標物または前記測定対象物のサイズを計算する請求項24に記載の可動物体。 - 前記プロセッサは、前記複数の画像のうちの1つに含まれる目標物以外の少なくとも1つの物体を自動的に特定し、ユーザからの指示に基づいて、特定された前記物体から前記測定対象物を取得する請求項24に記載の可動物体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/101510 WO2020037492A1 (en) | 2018-08-21 | 2018-08-21 | Distance measuring method and device |
CNPCT/CN2018/101510 | 2018-08-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020030204A true JP2020030204A (ja) | 2020-02-27 |
Family
ID=69592395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139104A Pending JP2020030204A (ja) | 2018-08-21 | 2019-07-29 | 距離測定方法、プログラム、距離測定システム、および可動物体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210012520A1 (ja) |
EP (1) | EP3837492A1 (ja) |
JP (1) | JP2020030204A (ja) |
CN (1) | CN112567201B (ja) |
WO (1) | WO2020037492A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111977006A (zh) * | 2020-08-11 | 2020-11-24 | 深圳市道通智能航空技术有限公司 | 一种关节角的初始化方法、装置及飞行器 |
KR102245220B1 (ko) * | 2020-11-09 | 2021-04-27 | 주식회사 엔닷라이트 | 딥러닝 기반으로 2차원 이미지로부터 3차원 모델을 복원하는 장치 및 그 방법 |
KR102504743B1 (ko) * | 2021-08-24 | 2023-03-03 | 한국철도기술연구원 | 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치 및 보정방법 |
CN115953328A (zh) * | 2023-03-13 | 2023-04-11 | 天津所托瑞安汽车科技有限公司 | 一种目标矫正方法、系统及电子设备 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108680185B (zh) * | 2018-04-26 | 2020-09-22 | 广东宝乐机器人股份有限公司 | 移动机器人的陀螺仪数据校正方法、装置和设备 |
NL2022442B1 (nl) * | 2019-01-24 | 2020-01-07 | Lely Patent Nv | Positiebepalingsinrichting |
KR102235589B1 (ko) * | 2019-02-19 | 2021-04-02 | 주식회사 아르고스다인 | 무인기 착륙 시스템 |
CN112073748B (zh) * | 2019-06-10 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 全景视频的处理方法、装置及存储介质 |
US11022972B2 (en) * | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
CN111457895B (zh) * | 2020-03-31 | 2022-04-22 | 彩虹无人机科技有限公司 | 一种无人机光电载荷的目标尺寸计算与显示方法 |
US11370124B2 (en) * | 2020-04-23 | 2022-06-28 | Abb Schweiz Ag | Method and system for object tracking in robotic vision guidance |
CN111505577A (zh) * | 2020-04-27 | 2020-08-07 | 湖南大学 | 基于可见光通信的移动车辆定位方法 |
WO2022015238A1 (en) * | 2020-07-15 | 2022-01-20 | Singapore University Of Technology And Design | Aerial vehicle and method of forming the same, method of determining dimension of object |
EP3957954A1 (en) * | 2020-08-19 | 2022-02-23 | Honeywell International Inc. | Active gimbal stabilized aerial visual-inertial navigation system |
US20220207769A1 (en) * | 2020-12-28 | 2022-06-30 | Shenzhen GOODIX Technology Co., Ltd. | Dual distanced sensing method for passive range finding |
CN113179387B (zh) * | 2021-03-31 | 2022-07-26 | 深圳市紫光照明技术股份有限公司 | 一种智能监控系统和方法 |
CN113379591B (zh) * | 2021-06-21 | 2024-02-27 | 中国科学技术大学 | 速度确定方法、速度确定装置、电子设备及存储介质 |
CN113686867A (zh) * | 2021-07-15 | 2021-11-23 | 昆山丘钛微电子科技股份有限公司 | 一种点胶质量检测方法、装置、介质及摄像头调焦机 |
CN113419563A (zh) * | 2021-07-23 | 2021-09-21 | 广东电网有限责任公司 | 一种无人机定位装置、方法、设备及介质 |
CN113686314B (zh) * | 2021-07-28 | 2024-02-27 | 武汉科技大学 | 船载摄像头的单目水面目标分割及单目测距方法 |
US20230109909A1 (en) * | 2021-10-07 | 2023-04-13 | Motional Ad Llc | Object detection using radar and lidar fusion |
US20230133480A1 (en) * | 2021-11-01 | 2023-05-04 | Brookhurst Garage, Inc. | Thin object detection and avoidance in aerial robots |
CN114295099B (zh) * | 2021-12-28 | 2024-01-30 | 合肥英睿系统技术有限公司 | 基于单目摄像头的测距方法、车载测距设备以及存储介质 |
CN114018215B (zh) * | 2022-01-04 | 2022-04-12 | 智道网联科技(北京)有限公司 | 基于语义分割的单目测距方法、装置、设备及存储介质 |
CN116132798B (zh) * | 2023-02-02 | 2023-06-30 | 深圳市泰迅数码有限公司 | 一种智能摄像头的自动跟拍方法 |
CN117406777B (zh) * | 2023-11-17 | 2024-03-19 | 广州源颢工程信息技术有限公司 | 用于水利测绘的无人机云台智能控制方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017004799A1 (en) * | 2015-07-08 | 2017-01-12 | SZ DJI Technology Co., Ltd. | Camera configuration on movable objects |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101600862B1 (ko) * | 2014-08-26 | 2016-03-08 | 연세대학교 산학협력단 | 복수의 uav를 이용한 스테레오 비전 시스템 |
WO2017008224A1 (zh) * | 2015-07-13 | 2017-01-19 | 深圳市大疆创新科技有限公司 | 一种移动物体的距离检测方法、装置及飞行器 |
CN108139757A (zh) * | 2015-09-11 | 2018-06-08 | 深圳市大疆创新科技有限公司 | 用于检测和跟踪可移动物体的系统和方法 |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的系统和方法 |
CN108139758A (zh) * | 2015-10-09 | 2018-06-08 | 深圳市大疆创新科技有限公司 | 基于显著性特征的载运工具定位 |
KR20170136750A (ko) * | 2016-06-02 | 2017-12-12 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
CN107300377B (zh) * | 2016-11-01 | 2019-06-14 | 北京理工大学 | 一种绕飞轨迹下的旋翼无人机三维目标定位方法 |
CN106814753B (zh) * | 2017-03-20 | 2020-11-06 | 成都通甲优博科技有限责任公司 | 一种目标位置矫正方法、装置及系统 |
CN107255468B (zh) * | 2017-05-24 | 2019-11-19 | 纳恩博(北京)科技有限公司 | 目标跟踪方法、目标跟踪设备及计算机存储介质 |
CN108364304A (zh) * | 2018-04-11 | 2018-08-03 | 湖南城市学院 | 一种用于单目机载目标检测的系统和方法 |
-
2018
- 2018-08-21 WO PCT/CN2018/101510 patent/WO2020037492A1/en unknown
- 2018-08-21 EP EP18922099.9A patent/EP3837492A1/en not_active Withdrawn
- 2018-08-21 CN CN201880096593.2A patent/CN112567201B/zh active Active
-
2019
- 2019-07-29 JP JP2019139104A patent/JP2020030204A/ja active Pending
-
2020
- 2020-09-27 US US17/033,872 patent/US20210012520A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017004799A1 (en) * | 2015-07-08 | 2017-01-12 | SZ DJI Technology Co., Ltd. | Camera configuration on movable objects |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111977006A (zh) * | 2020-08-11 | 2020-11-24 | 深圳市道通智能航空技术有限公司 | 一种关节角的初始化方法、装置及飞行器 |
KR102245220B1 (ko) * | 2020-11-09 | 2021-04-27 | 주식회사 엔닷라이트 | 딥러닝 기반으로 2차원 이미지로부터 3차원 모델을 복원하는 장치 및 그 방법 |
WO2022097932A1 (ko) * | 2020-11-09 | 2022-05-12 | 주식회사 엔닷라이트 | 딥러닝 기반으로 2차원 이미지로부터 3차원 모델을 복원하는 장치 및 그 방법 |
KR102504743B1 (ko) * | 2021-08-24 | 2023-03-03 | 한국철도기술연구원 | 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치 및 보정방법 |
CN115953328A (zh) * | 2023-03-13 | 2023-04-11 | 天津所托瑞安汽车科技有限公司 | 一种目标矫正方法、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2020037492A1 (en) | 2020-02-27 |
CN112567201A (zh) | 2021-03-26 |
CN112567201B (zh) | 2024-04-16 |
US20210012520A1 (en) | 2021-01-14 |
EP3837492A1 (en) | 2021-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210012520A1 (en) | Distance measuring method and device | |
US11635775B2 (en) | Systems and methods for UAV interactive instructions and control | |
CN111527463B (zh) | 用于多目标跟踪的方法和系统 | |
CN108419446B (zh) | 用于激光深度图取样的系统及方法 | |
US11120560B2 (en) | System and method for real-time location tracking of a drone | |
US11906983B2 (en) | System and method for tracking targets | |
US20180190014A1 (en) | Collaborative multi sensor system for site exploitation | |
CN111344644B (zh) | 用于基于运动的自动图像捕获的技术 | |
JP6943988B2 (ja) | 移動可能物体の制御方法、機器およびシステム | |
JP6321202B2 (ja) | モバイルプラットフォームの運動を決定する方法、装置、及びシステム | |
WO2018120350A1 (zh) | 对无人机进行定位的方法及装置 | |
WO2020014987A1 (zh) | 移动机器人的控制方法、装置、设备及存储介质 | |
JP7153306B2 (ja) | 検出対象位置特定システム | |
WO2022077296A1 (zh) | 三维重建方法、云台负载、可移动平台以及计算机可读存储介质 | |
WO2021250914A1 (ja) | 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
US20200217665A1 (en) | Mobile platform, image capture path generation method, program, and recording medium | |
CN110730934A (zh) | 轨迹切换的方法和装置 | |
CN116349222A (zh) | 利用集成图像帧渲染基于深度的三维模型 | |
CN108416044B (zh) | 场景缩略图的生成方法、装置、电子设备及存储介质 | |
US20210256732A1 (en) | Image processing method and unmanned aerial vehicle | |
JP7437930B2 (ja) | 移動体及び撮像システム | |
CN107703954B (zh) | 用于无人机的目标位置勘测方法、装置及无人机 | |
WO2024057779A1 (ja) | 情報処理装置、プログラムおよび情報処理システム | |
Sambolek et al. | Determining the Geolocation of a Person Detected in an Image Taken with a Drone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221101 |