JP6333396B2 - モバイルプラットフォームの変位を計測する方法及び装置 - Google Patents

モバイルプラットフォームの変位を計測する方法及び装置 Download PDF

Info

Publication number
JP6333396B2
JP6333396B2 JP2016550777A JP2016550777A JP6333396B2 JP 6333396 B2 JP6333396 B2 JP 6333396B2 JP 2016550777 A JP2016550777 A JP 2016550777A JP 2016550777 A JP2016550777 A JP 2016550777A JP 6333396 B2 JP6333396 B2 JP 6333396B2
Authority
JP
Japan
Prior art keywords
frame
array
mobile platform
point
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016550777A
Other languages
English (en)
Other versions
JP2017524122A (ja
Inventor
ヂャン,ホンフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017524122A publication Critical patent/JP2017524122A/ja
Application granted granted Critical
Publication of JP6333396B2 publication Critical patent/JP6333396B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

開示されている実施形態は、一般に、モバイルプラットフォームの動作に関し、且つ、更に詳しくは、限定を伴うことなしに、モバイルプラットフォームの変位を検出する方法及び装置に関する。
無人航空機(「Unmanned Aerial Vehicle:UAV」)の変位の判定は、UAVのナビゲーション及び操作に常に必要とされる。変位を計測するための現時点において利用可能な技術は、特定の高さ範囲内などのように、特定の条件下における性能及び精度しか保証することができない。更には、現時点において利用可能な技術は、環境干渉に対して脆弱である。
現時点において利用可能な技術においては、単眼撮像デバイス及び超音波デバイスに基づいた解決策は、超音波デバイスの検出距離によって制限される可能性があり、従って、通常は、0.5〜5メートルという低高度においてしか適用可能ではない。更には、このような単眼型の解決策は、周辺環境に存在するノイズに対しても脆弱である可能性がある。双眼撮像デバイスに基づいた代替解決策は、双眼撮像デバイスの2つのレンズの間のベースラインの長さによって制限されており、且つ、1〜10メートルの高度においてしか適用可能ではない。全地球測位デバイス(「Global Positioning Device:GPS」)に基づいた別の解決策は、信頼性の高い信号の欠如に起因し、屋内環境又は複雑な周辺環境においては信頼性が低い。
上述の理由に鑑み、様々な高さにおけるモバイルプラットフォームの変位を効果的且つ効率的に計測する方法及び装置に対するニーズが存在している。
本明細書において開示されている態様によれば、モバイルプラットフォームの変位を検出する方法が開示され、方法は、
撮像デバイスによって第1フレーム及び第2フレームを取得するステップと、
第1フレーム及び第2フレームに基づいてモバイルプラットフォームの変位を判定するステップと、
を有する。
開示されている方法の例示用の実施形態においては、取得ステップは、モバイルプラットフォームの高さを取得するステップを有する。
開示されている方法の例示用の実施形態においては、高さを取得するステップは、バロメータ及び超音波デバイスのうちの少なくとも1つを介して高さを取得するステップを有する。
開示されている方法の例示用の実施形態においては、取得ステップは、グラウンドレベルとの関係において撮像デバイスの角度を取得するステップを有する。
開示されている方法の例示用の実施形態においては、角度を取得するステップは、慣性計測ユニット(「Inertial Measurement Unit:IMU」)を介して角度を取得するステップを有する。
開示されている方法の例示用の実施形態においては、取得ステップは、第1フレームとの関係においてIMUによってモバイルプラットフォームの回転角度を計測して回転データを生成するステップを更に有する。
開示されている方法の例示用の実施形態においては、取得するステップは、第1及び第2フレームをマッチングするステップを更に有し、
この場合に、第1フレームは、既定のパーセンテージだけ、第2フレームとオーバーラップしている。
開示されている方法の例示用の実施形態においては、取得ステップは、異なる時点において第1フレーム及び第2フレームを取得するステップを有する。
開示されている方法の例示用の実施形態においては、異なる時点において第1フレーム及び第2フレームを取得するステップは、1秒の60分の1を下回らず且つ1秒の20分の1を上回らないインターバルで第1フレーム及び第2フレームを取得するステップを有する。
開示されている方法の例示用の実施形態は、第1フレーム、モバイルプラットフォームの高さ、及びモバイルプラットフォームの角度のうちの少なくとも1つに基づいてステレオスコープ点群を取得するステップを更に有し、
この場合に、ステレオスコープ点群は、特徴点のアレイ{P1,P2,P3,...,Pn}である。
開示されている方法の例示用の実施形態は、ステレオスコープ点群に基づいて、第2フレームにおけるx−yプレーン内の第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を取得するステップを更に有する。
開示されている方法の例示用の実施形態においては、第2投影アレイを取得するステップは、
ステレオスコープ点群に基づいて、第1フレームにおけるx−yプレーン内の第1投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を取得するステップと、
第1投影アレイの複数の特徴点を第2フレーム上の点にマッチングして第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を生成するステップと
を有する。
開示されている方法の例示用の実施形態においては、複数の特徴点をマッチングするステップは、
第2フレームをスキャニングして第1フレームの選択された特徴点にマッチングする第2フレームの点を識別するステップと、
第1フレームの選択された特徴点と点との間の類似性を算出するステップと
を有する。
開示されている方法の例示用の実施形態においては、類似性を算出するステップは、第1フレームの選択された特徴点を第2フレーム上の点を中心としてセンタリングされた一定の範囲のピクセルエリアと比較するステップを有する。
開示されている方法の例示用の実施形態においては、ピクセルエリアを比較するステップは、カラー画像のそれぞれのピクセルのそれぞれの色成分ごとの差の合計又は白黒画像のそれぞれのピクセルのグレースケール値の差の合計を比較するステップを有する。
開示されている方法の例示用の実施形態は、回転データ、ステレオスコープ点群、及び第2投影アレイに基づいて変換アレイTを算出するステップを更に有する。
開示されている方法の例示用の実施形態においては、変換アレイTを算出するステップは、次式の関係を適用するステップを有し、

この場合に、Rは、回転計測値のアレイであり、Pjは、点であり、Tは、算出対象の変換アレイを表し、且つ、μは、ランダム数である。
開示されている方法の例示用の実施形態においては、次式を適用するステップは、

ステレオスコープ点群及び第2投影アレイのそれぞれのマッチングする2つの点から選択された少なくとも2つの点について式の組を解くことにより、Tを算出するステップを更に有する。
開示されている方法の例示用の実施形態は、ステレオスコープ点群及び第2投影アレイのそれぞれの対応する投影点から選択された複数の点を伴ってTを次式に導入してマッチング点のカウントを取得することにより、変換アレイTを検証するステップと、

マッチング点の最大カウントを有する変換アレイTを選択された変換アレイTとして選択するステップと
を更に有する。
開示されている方法の例示用の実施形態は、回転データ、選択された変換T、及び次式の関係により、ステレオスコープ点群を算出するステップを更に有する。



開示されている方法の例示用の実施形態は、選択された変換アレイTに基づいてモバイルプラットフォームの変位を算出するステップを更に有する。
開示されている方法の例示用の実施形態は、選択された変換アレイT及び第1及び第2フレームを取得するための時点の間のインターバルに基づいてモバイルプラットフォームの速度を算出するステップを更に有する。
開示されている方法の例示用の実施形態は、選択された変換アレイT及び第1フレームを取得するための時点におけるモバイルプラットフォームの場所情報に基づいてモバイルプラットフォームの場所を算出するステップを更に有する。
本明細書において開示されている別の態様によれば、モバイルプラットフォームの変位を検出する装置が開示され、装置は、
第1フレーム及び第2フレームを取得する撮像デバイスと、
第1フレーム及び第2フレームに基づいてモバイルプラットフォームの変位を判定するプロセッサと、
を有する。
開示されている装置の例示用の実施形態においては、プロセッサは、モバイルプラットフォームの高さを取得するように構成されている。
開示されている装置の別の例示用の実施形態においては、高さは、バロメータ及び超音波デバイスの少なくとも1つを介して提供される。
開示されている装置の別の例示用の実施形態においては、プロセッサは、グラウンドレベルとの関係において撮像デバイスの角度を取得するように構成されている。
開示されている装置の別の例示用の実施形態においては、モバイルプラットフォームの角度は、慣性計測ユニット(「IMU」)を介して取得される。
開示されている装置の別の例示用の実施形態においては、プロセッサは、第1フレームとの関係においてIMUによってモバイルプラットフォームの回転角度を計測して回転データを生成するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、第1及び第2フレームをマッチングさせるように構成されており、
この場合に、第1フレームは、既定のパーセンテージだけ、第2フレームとオーバーラップしている。
開示されている装置の別の例示用の実施形態においては、第1フレーム及び第2フレームは、異なる時点において取得される。
開示されている装置の別の例示用の実施形態においては、異なる時点は、1秒の60分の1を下回らず且つ1秒の20分の1を上回らない時点の間のインターバルを有する。
開示されている装置の別の例示用の実施形態においては、プロセッサは、第1フレーム、モバイルプラットフォームの高さ、及びモバイルプラットフォームの角度のうちの少なくとも1つに基づいてステレオスコープ点群を取得するように構成されており、
この場合に、ステレオスコープ点群は、特徴点のアレイ{P1,P2,P3,...,Pn}である。
開示されている装置の別の例示用の実施形態においては、プロセッサは、ステレオスコープ点群に基づいてx−yプレーン内の第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を取得するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、ステレオスコープ点群に基づいて、x−yプレーン内の第1投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を取得するように構成されており、且つ、
この場合に、プロセッサは、第1投影アレイの複数の特徴点を第2フレーム上にマッチングして第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を生成するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、第2フレームをスキャニングして第1フレームの選択された特徴点にマッチングする第2フレームの点を識別すると共に、第1フレームの選択された特徴点と点との間の類似性を算出する。
開示されている装置の別の例示用の実施形態においては、プロセッサは、第1フレームの選択された特徴点を第2フレーム上の点を中心としてセンタリングされた一定の範囲のピクセルエリアと比較することにより、類似性を算出する。
開示されている装置の別の例示用の実施形態においては、第1フレーム及び第2フレームの3×3ピクセルエリアは、カラー画像のそれぞれのピクセルのそれぞれの色成分ごとの差の合計又は白黒画像のそれぞれのピクセルのグレースケール値の差の合計と比較される。
開示されている装置の別の例示用の実施形態においては、プロセッサは、回転データ、ステレオスコープ点群、及び第2投影アレイに基づいて変換アレイTを算出するように構成されている。
開示されている装置の別の例示用の実施形態においては、変換アレイTは、次式の関係を適用することにより、算出され、

ここで、Rは、回転計測値のアレイであり、Pjは、点であり、Tは、算出対象の変換アレイを表し、且つ、μは、ランダム数である。
開示されている装置の別の例示用の実施形態においては、プロセッサは、ステレオスコープ点群及び第2投影アレイのそれぞれのマッチングする2つの点から選択された少なくとも2つの点について式の組を解くことにより、変換アレイTを算出するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、ステレオスコープ点群及び第2投影アレイのそれぞれの対応する投影点から選択された複数の点を伴ってTを次式に導入してマッチング点のカウントを取得することにより、変換アレイTを検証するように構成されており、

この場合に、プロセッサは、マッチング点の最大カウントを有する変換アレイTを選択された変換アレイTとして選択するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、選択された変換アレイTに基づいてモバイルプラットフォームの変位を算出するように構成されている。
開示されている装置の別の例示用の実施形態においては、第1及び第2フレームは、第1及び第2ステレオスコープフレームであり、プロセッサは、選択された変換アレイT及び第1及び第2ステレオスコープフレームを取得するための2つの時点の間のインターバルに基づいてモバイルプラットフォームの速度を算出するように構成されている。
開示されている装置の別の例示用の実施形態においては、プロセッサは、選択された変換アレイT及び第1ステレオスコープフレームを取得するための時点におけるモバイルプラットフォームの場所情報に基づいてモバイルプラットフォームの場所を算出するように構成されている。
モバイルプラットフォームの例示用の概略図である。 図1のモバイルプラットフォームの変位を判定する方法の例示用の最上位フローチャートである。 図2の方法の例示用の実施形態の例示用のフローチャートであり、この場合には、フレームのペアがマッチングされている。 図3の方法の代替実施形態の別の例示用のフローチャートであり、この場合には、フレームの投影アレイが算出されている。 図3の方法の別の代替実施形態の別の例示用のフローチャートであり、この場合には、第2フレームの運動が計測されている。 図3の方法の代替実施形態の例示用の図であり、2つの画像をオーバーラップエリアとマッチングする例示用の方法を示している。 図3の代替実施形態を示す例示用の図であり、この場合に、第1フレームは、複数の特徴点を有する第2フレームとマッチングされている。 図7の方法の代替実施形態を示す例示用の図であり、この場合に、それぞれの特徴点は、類似性を算出することにより、マッチングされている。
添付図面は、縮尺が正確ではなく、且つ、類似の構造又は機能の要素は、一般に、図面の全体を通じて、例示を目的として同一の参照符号によって表されていることに留意されたい。又、添付図面は、好適な実施形態の説明の促進を意図したものに過ぎないことにも留意されたい。添付図面は、記述されている実施形態の全ての側面を示すものではなく、且つ、本開示の範囲を限定するものでもない。
現時点において入手可能な視覚システムは、条件によって制限されていることから、様々な条件において様々な高さにおける飛行コースにおいてモバイルプラットフォームの変位を計測することに伴う要件を充足しうるモバイルプラットフォーム及び方法は、望ましいことが証明可能であり、且つ、UAVシステム及びその他のモバイルプラットフォームなどのシステムの場合に、変位の正確な計測のための基礎を提供することができる。この結果は、図1に開示されている一実施形態に従って実現することができる。
図1は、モバイルプラットフォーム200の例示用の概略図を示している。図1に示されているように、モバイルプラットフォーム200は、モバイルプラットフォーム200の変位dを検出することができる。撮像デバイス886が、UAV250などのモバイルプラットフォーム200上に設置されるものとして示されている。モバイルプラットフォーム200が空中にある際には、図1に示されているように、撮像デバイス886は、グラウンドレベル880との関係において高さH及び角度αを有することができる。撮像デバイス886は、単眼撮像デバイス又は多眼撮像デバイスを有することができる。換言すれば、撮像デバイス886は、任意の適切な数のレンズを含むことができる。好ましくは、撮像デバイス886の1つのレンズは、(図2に示されている)対象の物体の第1及び第2フレーム811a、811bを取得するための選択された時点において使用することができる。グラウンドレベル880は、実際のグラウンド、水位、又は任意の構造を有するグラウンドであってもよい。撮像デバイス886は、図1に示されているように、レベル882に位置してもよく、このレベル882は、高さHを有することができる。モバイルプラットフォーム200は、グラウンドレベル880との関係において第1角度を有することが可能であり、且つ、撮像デバイス886は、モバイルプラットフォーム200のプレーンとの関係において第2角度を有することができる。第1及び第2角度は、グラウンドレベル880との関係における撮像デバイス886の角度αとして組み合わせることができる。
幾つかの実施形態においては、高さHは、(図示されていない)バロメータ251及び/又は超音波デバイス252によって取得することができる。角度αは、図5との関係において以下において図示及び記述されている方式により、(図示されていない)同時ローカリゼーション及びマッピング(Simultaneous Localization And Mapping:SLAM)デバイスによって取得することができる。
図2は、(図1に集合的に示されている)モバイルプラットフォーム200の変位dを検出する方法100の例示用の実施形態を示している。図2の方法100は、810において、第1フレーム811a及び第2フレーム811bを取得するステップを含むものとして示されている。モバイルプラットフォーム200の変位dは、850において、第1及び第2ステレオスコープフレーム811a、811bに基づいて判定することができる。有利には、方法100は、SLAMと、バロメータ251及び/又は超音波デバイス252などの特定の高さ測定デバイスと、を有する単眼撮像システム886を使用することができる。
例示用の実施形態においては、画像の2つのフレーム811a、811bは、撮像デバイス886の移動経路に伴って第1時点及び第2時点という2つの異なる時点において取得することができる。幾つかの実施形態においては、第1フレーム811a及び第2フレーム811bは、ステレオスコープフレームであってもよい。好適な実施形態においては、2つのフレーム811a、811bは、少なくとも第1フレーム811a又は第2フレーム811bの既定のパーセンテージを有するオーバーラップ領域を有することができる。2つのフレーム811a、811bのオーバーラップ領域は、同一の物体を反映した2つのフレーム811a、811b上の点として定義される。このようなオーバーラップ領域を保証するべく、少なくとも1つの物体が両方のフレーム811a、811b上において反映されうるように、第1時点と第2時点との間の時間スパンを調節することができる。更には、撮像デバイス886は、オーバーラップを保証するべく、モバイルプラットフォーム200との関係において静止状態において留まるか、或いは、低速で運動する。
2つのフレーム811a、811bを取得する際には、第1時点と第2時点との間の時間スパンは、1秒の60分の1を下回ってもよく、且つ、1秒の20分の1を上回らなくてもよい。時間スパンは、実際の用途又は状況の要件に依存しうる。例示用の例として、モバイルプラットフォーム200が相対的に低速度で飛行している際には、時間スパンは、相対的に大きな値に設定されることが可能であり、その理由は、相対的に大きな時間スパンにおいても、2つのフレーム811a、811bの間のオーバーラップを保証することができるからである。その一方で、モバイルプラットフォーム200の速度が、相対的に高速度において飛行している際には、時間スパンは、2つのフレーム811a、811bの間のオーバーラップを保証するべく、相対的に小さな値に設定することができる。
850においては、2つのフレーム811a、811bを使用することにより、モバイルプラットフォーム200の変位を算出することができる。このような変位は、図3〜図5を参照して以下において図示及び記述されている方式に従って算出することができる。
方法100を実装するシステムは、有利には、1メートル〜100メートルという広い高さ範囲に適用可能であってもよく、且つ、任意の環境干渉に対して相対的に脆弱性が乏しくてもよい。更には、システムは、全地球測位システム(「GPS」)信号に依存しておらず、従って、屋内環境などのGPS信号を欠いた環境において適用可能であってもよい。バロメータ及び単眼撮像デバイスは、モバイルプラットフォーム上において容易に設置可能であり、従って、小さなサイズのUAV上に設置するのに好適である。
図3は、方法100の代替実施形態を示している。図3の方法100においては、(図1に示されている)モバイルプラットフォーム200の運動を算出することができる。図3に示されているように、810において、対象の物体の2つのフレーム811a、811bが取得された後に、820において、2つのフレーム811a、811bに基づいて、モバイルプラットフォーム200の高さHを算出することができる。好ましくは、モバイルプラットフォーム200の高さは、バロメータ251及び/又は超音波デバイス252によって判定することができる。2つのフレーム811a、811bが取得された後に高さHを取得するものとして図示及び記述されているが、モバイルプラットフォーム200の高さHは、第1フレーム811a及び/又は第2フレーム811bが取得される前、最中、又は後に、取得することもできる。
830において、第1フレーム811a上の(図6に示されている)特徴点355を第2フレーム811a、811b上の特定の点にマッチングすることにより、第2フレーム811bを第1フレーム811aにマッチングすることができる。本開示においては、2つのフレーム811a、811bは、2つのフレーム811a、811bのそれぞれの上部の同一の物体を反映した1つ又は複数の点が見出された際に、マッチングしている。換言すれば、同一の物体を反映した点が、2つのフレーム811a、811b上のオーバーラップ領域を定義している。第1フレーム811a上の特徴点355は、対象の物体を反映した点のうちから選択することができる。このような物体は、例えば、建物、樹木、道路、川、又はその他のタイプの構造を含むことができる。好ましくは、物体は、安定した物体又は低速で運動する物体であってもよい。2つのフレーム811a、811bのマッチングに関する更なる詳細については、図4を参照し、以下において図示及び説明することとする。
840において、モバイルプラットフォーム200の3つの平行運動及び3つの回転の形態の6つの運動を慣性計測ユニット(「IMU」)によって計測することが可能であると共に/又は、2つのステレオスコープフレーム811a、811bによって推定することができる。3つの平行運動は、x軸、y軸、及びz軸のそれぞれに沿ったモバイルプラットフォーム200の平行運動を含むことができる。3つの回転は、それぞれ、x軸、y軸、及びz軸を中心としたモバイルプラットフォーム200の回転を含むことができる。回転は、任意の従来型の方式によって取得することができる。回転を取得するための1つの従来型の方式は、IMU150の使用を含む。一実施形態においては、平行運動は、回転データに基づいて算出することが可能であり、これについては、図5を参照し、以下において図示及び説明する。6つの運動の算出に関する詳細は、図5を参照して以下において提供することとする。
850において、モバイルプラットフォーム200の変位を判定している。取得されたら、例えば、回転及び平行運動を適用することにより、モバイルプラットフォーム200の変位を算出することができる。幾つかの実施形態においては、平行運動を2つのフレーム811a、811bを取得するための時間スパンによって除算することにより、モバイルプラットフォーム200の速度を算出することができる。別の例示用の実施形態においては、算出された変換アレイT及び第1フレーム811aを取得するための時点におけるモバイルプラットフォームの場所情報に基づいて、一時点におけるモバイルプラットフォームの場所情報を取得することができる。この時点は、第2フレーム811bを取得するための時点であってもよい。
代替実施形態においては、850において、変位が判定された後に、画像の次のフレームを取得することが可能であり、且つ、システムは、新たに取得された1つ又は複数のフレームを算出するべく、プロセスを反復する。プロセスは、中断のない変位検出を実現するべく、繰り返し継続される。
図5は、方法100の別の代替実施形態を示している。図5を参照すれば、2つのフレーム811a、811bのマッチングが示されている。図5に示されているように、2つのフレーム811a、811bは、810において、図1を参照して図示及び記述されている方法のうちのいずれかを介して取得することができる。図4は、方法100が、830において、第2フレーム811bを第1フレーム811aとマッチングしうる1つの例示用の方式を示している。図4を参照すれば、フレーム811a、811bは、複数の点から構成されており、且つ、これらの点のそれぞれは、x、y、及びz座標値によって表される。本明細書において記述されている2つのフレーム811a、811bは、撮像デバイス100の移動経路と共に、異なる時点において取得することができる。
図4を参照すれば、832において、第1フレーム811a{P,P,P,...,P}に基づいて、ステレオスコープ点群を取得することができる。それぞれの点Pは、第1フレーム811aの特徴点355である。x−yプレーン内において、ステレオスコープ点群は、{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}によって表すことができる。取得される特徴点355の数は、処理速度、フレームのサイズ、フレームの分解能のみならず、(図示されていない)プロセッサの計算能力などに基づいて変化する。本明細書において開示されている典型的な実施形態においては、点又はピクセルの数は、100〜200ピクセルという例示用の範囲内であってもよい。
834において、第2投影アレイを第2フレーム811b{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}内において算出することができる。第2投影アレイの点(x ,y )のそれぞれは、第1フレーム811bのステレオスコープ点群の点P又は(x 、y )に対応するx−yプレーン内において投影されたマッチングした点を表している。第2投影アレイのサイズは、群アレイ内の全ての点{P,P,P,...,P}が第2フレーム811b上にマッチングされた場合には、群アレイのサイズと同一であってもよい。但し、大部分の場合に、第2投影アレイのサイズは、群アレイ{P,P,P,...,P}のサイズ未満であり、その理由は、第1フレーム811aの全ての点が第2フレーム811b上にマッチングできるわけではないからである。第1フレーム811aのステレオスコープ点群の第2フレーム811bに対するマッチングは、2つの点の類似性を判定するべく3×3ピクセルが比較される図6〜図8を参照して記述されている方法100によって実現することができる。
次に図5を再度参照すれば、方法100が、840において、第2フレーム811bの運動を計測しうる例示用の方式が示されている。図5の842において、(図示されていない)IMU150は、プロセッサ(図示されてはいない)に伝達されうる回転計測値を計測するように構成されうる。回転計測値は、3次元アレイRによって表すことができる。回転計測値アレイRにより、第1フレーム811aのステレオスコープ点群アレイと第2フレーム811bの投影点アレイとの間の関係は、次式のように表すことが可能であり、

式(6)
ここで、Rは、回転計測値を表す3次元アレイであり、Pjは、第1フレーム811aの点であり、Tは、計算対象の第2フレーム811bの平行運動の3次元アレイを表しており、且つ、μは、係数として機能するランダム数である。
IMUによって計測される相対的な回転アレイの精度の保証を支援するべく、第1フレーム811aが取得されうる第1時点と第2フレーム811bが取得されうる第2時点との間のインターバルは、相対的に短いものであってもよい。第1フレーム811aと第2フレーム811bの間の時間インターバルは、通常、図2を参照して記述されているように、実際の用途の要件に応じて、20分の1秒〜60分の1秒の範囲であってもよい。
式6においては、3つの未知数(Tx,Ty,Tz)が存在しており、従って、数学的原理により、3つの未知数を有する算出された変換アレイTを一緒に解くには、844において、3つの式が必要となりうる。但し、投影点のそれぞれは、x及びyという形態の2つの値しか有していない。従って、算出された変換アレイT内の3つの未知数を解決するために、2つのこのような点について利用可能な4つの式のうちの3つの式を結合することができる。
実際の用途においては、第1フレーム811aと第2フレーム811bとの間の点をマッチングする際の誤差及び不正確性に起因し、算出された変換アレイTは、不正確である可能性がある。846において、算出された変換アレイTを式6に導入すると共に計算することにより、式中において定義された関係に準拠した点の数を判定することができる。次いで、844において、算出された変換アレイTを解く際に、点の別のペアを使用することが可能であり、これは、次いで、846において式6の関係に準拠した点の数の判定の計算に使用することができる。このプロセスは、既定数の点のペアについて反復することが可能であり、且つ、この結果は、それぞれの変換アレイごとの式6に準拠した幾つかの点によって伴われる既定数の算出された変換アレイTであってもよい。
845において、準拠した点の数を算出された変換アレイTの間において比較することができる。最大数の準拠した点を有する算出された変換アレイTを選択することができる。図4を参照して記述されているプロセスを繰り返し反復することにより、連続的な変位検出を実行することができる。
図6は、第2フレーム811bの点を第1フレーム811aの対応する点355とマッチングする方法300の例示用の実施形態を示している。図6においては、3×3ピクセルブロックが、フレーム811a、811bのそれぞれからの中心における比較対象の点と共に、取得されている。第1及び第2フレーム811a及び811bがカラー画像である際には、3×3ピクセルブロックのそれぞれのピクセルごとに、色成分の値を比較することができる。逆に、フレーム811a及び811bが白黒画像である際には、それぞれのピクセルのグレースケール値を比較することができる。式5に基づいて、全ての9つのピクセルの値の差の最小合計を有する点をマッチング点として選択することができる。このプロセスは、第1フレーム811a上の全ての選択された特徴点について反復することができる。
或いは、この代わりに、第2フレーム811bの点を第1フレーム811aの対応する点355とマッチングさせるべく、二値安定独立基本特徴(「BRIEF」)記述子を使用する方法を使用することもできる。例示用の実施形態においては、領域のそれぞれの点ペアの強度を比較することにより、第1フレーム811aの選択された特徴点の周りの第1領域を表す第1二値ストリングを構築することができる。第1二値ストリングは、第1フレーム811aの選択された特徴点の第1BRIEF記述子であってもよい。
同様に、第2領域のそれぞれの点ペアの強度を比較することにより、第2フレーム811bの点355の周りの第2領域を表す第2二値ストリングを構築することができる。第2二値ストリングは、第2BRIEF記述子であってもよい。
第1BRIEF記述子と第2BRIEF記述子との間のハミング距離を比較することにより、第1フレーム811aの選択された特徴点と第2フレーム811bの点355との間における類似性を算出することができる。第1BRIEF記述子と第2BRIEF記述子との間のハミング距離が第1ハミング閾値未満である際に、第2フレーム811bの点355を第1フレーム811aの選択された特徴点とマッチングするものとして判定することができる。
次に図7を参照すれば、対象の物体198の特徴点355を介して不一致dを取得する方法300の例示用の実施形態が示されている。922において、対象の物体198上の複数の特徴点355を選択することができる。特徴点355は、様々な異なる方法のうちの1つ又は複数を使用することにより、選択することができる。例示用の一実施形態においては、特徴点355は、対象の物体198の予め定義された形状として識別することができる。別の実施形態においては、特徴点355は、特定の色又は強度を有する対象の物体198の1つ又は複数の部分として認識することができる。別の実施形態においては、特徴点355は、対象の物体198のランダムな部分として選択することができる。別の実施形態においては、特徴点355は、例えば、ピクセルごと、1つ飛ばしのピクセルごと、2つ飛ばしのピクセルごと、3つ飛ばしのピクセルごとなどのように、対象の物体198上において規則的に離隔したインターバルで選択することができる。特徴点355は、必要に応じて、変化する形状及びサイズを有することができる。幾つかの実施形態においては、上述の方法の組合せを使用することにより、特徴点355を選択することができる。
924において、選択された特徴点355を第1フレーム811aから第2フレーム811b上にマッチングすることができる。好適な実施形態においては、特徴点355のマッチングは、図8に示されているように、2つの手順から構成されている。図8の924Aにおいて、第1フレーム811aの特徴点355を選択することができる。算出された点から始まって、且つ、2つのフレーム811a、811bを捕えるために使用されるレンズ(図示されていない)のセンタリングされたラインに平行なラインに沿って、マッチング点をスキャニングすることができる。第1フレーム811a上の点の座標に基づいて、マッチング開始点を算出することができる。好ましくは、選択されたラインに沿った1つの方向のみに限定されているが、スキャニングは、1つ又は複数の既定の方向のうちのいずれかにおいて実行することができる。
924Bにおいて、それぞれの点ごとにスキャニングしている間に、図6を参照して本明細書において詳細に先程図示及び記述された方式により、2つの点の間において類似性が算出され、且つ、第1フレーム811aの特徴点355との間の差の最小合計を有する第2フレーム811bの点355を選択された特徴点355に対応するマッチング点として選択することができる。
図7を再度参照すれば、926において、2つのフレーム811a及び811bのそれぞれの特徴点355の間の特徴不一致dを見出すことができる。様々な方法のうちのいずれかを使用することにより、不一致dを判定することができる。一実施形態においては、不一致dは、特徴点355のそれぞれごとの不一致dの平均値に基づいて見出すことができる。例示用の平均値のタイプは、限定を伴うことなしに、数値平均、幾何学平均、メジアン、及び/又はモードを含むことができる。別の実施形態においては、不一致dは、特徴点355のうちの1つ又は複数を選択すると共に選択された特徴点355に基づいて不一致dを取得することにより、見出すことができる。
記述されている実施形態には、様々な変更及び代替形態が可能であり、且つ、これらの具体的な例は、例示を目的として、図面に図示され、且つ、本明細書において詳述されている。但し、記述されている実施形態は、開示されている特定の形態又は方法に限定されるものではなく、逆に、本開示は、全ての変更、均等物、及び代替肢を含むことを理解されたい。

Claims (34)

  1. モバイルプラットフォームの変位を検出する方法であって、
    撮像デバイスにより、第1フレーム及び第2フレームを取得し、且つ、前記モバイルプラットフォームの高さを取得するステップと、
    前記第1フレーム、前記第2フレーム、及び前記高さに基づいて、前記モバイルプラットフォームの前記変位を判定するステップとを有し、
    前記第1フレームにおけるx−yプレーン内の第1投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}の複数の特徴点を前記第2フレーム上にマッチングして第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を生成するステップを更に有し、
    前記複数の特徴点を前記第2フレーム上にマッチングすることは、前記第1フレームの選択された特徴点にマッチングする前記第2フレームの点を識別するステップと、前記第1フレームの前記選択された特徴点と前記点との間の類似性を算出するステップとを有する、
    方法。
  2. 前記高さを取得するステップは、バロメータ及び超音波デバイスのうちの少なくとも1つを介して前記高さを取得するステップを有する、請求項1に記載の方法。
  3. 前記取得ステップは、グラウンドレベルとの関係において前記撮像デバイスの角度を取得するステップを有する、請求項1又は2に記載の方法。
  4. 前記角度を取得する前記ステップは、慣性計測ユニット(「IMU」)を介して前記角度を取得するステップを有する、請求項3に記載の方法。
  5. 前記取得ステップは、前記第1フレームとの関係において前記IMUによって前記モバイルプラットフォームの回転角度を計測して回転データを生成するステップを更に有する、請求項4に記載の方法。
  6. 前記取得ステップは、前記第1及び第2フレームをマッチングするステップを更に有し、
    この場合に、前記第1フレームは、既定のパーセンテージだけ、前記第2フレームとオーバーラップしている、請求項5に記載の方法。
  7. 前記取得ステップは、前記第1フレーム及び前記第2フレームを異なる時点において取得するステップを有する、請求項5又は6に記載の方法。
  8. 前記第1フレーム及び前記第2フレームを異なる時点において取得する前記ステップは、1秒の60分の1を下回らず且つ1秒の20分の1を上回らないインターバルにおいて前記第1及び第2フレームを取得するステップを有する、請求項7に記載の方法。
  9. 前記類似性を算出する前記ステップは、前記第1フレームの前記選択された特徴点を前記第2フレーム上の前記点を中心としてセンタリングされた一定の範囲のピクセルエリアと比較するステップを有する、請求項に記載の方法。
  10. 前記比較するステップは、カラー画像のそれぞれのピクセルのそれぞれの色成分ごとの差の合計又は白黒画像のそれぞれのピクセルのグレースケール値の差の合計を比較するステップを有する、請求項に記載の方法。
  11. 前記回転データ、前記ステレオスコープ点群、及び第2投影アレイに基づいて変換アレイTを算出するステップを更に有する請求項10に記載の方法。
  12. 前記変換アレイTを算出する前記ステップは、次式の関係を適用するステップを有し、

    ここで、Rは、回転計測値のアレイであり、Pjは、点であり、Tは、算出対象の変換アレイを表し、且つ、μは、ランダム数である、請求項11に記載の方法。
  13. 次式を適用する前記ステップは、

    前記ステレオスコープ点群及び前記第2投影アレイのそれぞれのマッチングする2つの点から選択された少なくとも2つの点について式の組を解くことにより、Tを算出するステップを更に有する、請求項12に記載の方法。
  14. 前記ステレオスコープ点群及び前記第2投影アレイのそれぞれの対応する投影点から選択された複数の点を伴ってTを次式に導入してマッチング点のカウントを取得することにより、前記変換アレイTを検証するステップと

    マッチング点の最大カウントを有する変換アレイTを選択された変換アレイTとして選択するステップと
    を更に有する、請求項11乃至13のいずれか一項に記載の方法。
  15. 前記回転データ、前記選択された変換T、及び次式の関係により、前記ステレオスコープ点群を算出するステップを更に有する請求項14に記載の方法。
  16. 前記選択された変換アレイTに基づいて前記モバイルプラットフォームの前記変位を算出するステップを更に有する請求項15に記載の方法。
  17. 前記第1及び第2フレームは、第1及び第2ステレオスコープフレームであり、
    前記選択された変換アレイT及び前記第1及び第2ステレオスコープフレームを取得するための前記時点の間のインターバルに基づいて前記モバイルプラットフォームの速度を算出するステップを更に有する請求項16に記載の方法。
  18. 前記選択された変換アレイT及び前記第1ステレオスコープフレームを取得するための時点における前記モバイルプラットフォームの場所情報に基づいて前記モバイルプラットフォームの場所を算出するステップを更に有する請求項17に記載の方法。
  19. モバイルプラットフォームの変位を検出する装置であって、
    第1フレーム及び第2フレームを取得する撮像デバイスと、前記モバイルプラットフォームの高さを取得し、且つ、前記第1フレーム、前記第2フレーム、及び前記高さに基づいて前記モバイルプラットフォームの前記変位を判定するプロセッサと
    を有し、
    前記プロセッサは、前記第1フレームにおけるx−yプレーン内の第1投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}の複数の特徴点を前記第2フレーム上にマッチングして第2投影アレイ{(x ,y ),(x ,y ),(x ,y ),...,(x ,y )}を生成するように構成され、前記第1フレームの選択された特徴点にマッチングする前記第2フレームの点を識別すると共に、前記第1フレームの前記選択された特徴点と前記点との間の類似性を算出するように構成されている、
    装置。
  20. 前記高さは、バロメータ及び超音波デバイスのうちの少なくとも1つを介して提供される、請求項19に記載の装置。
  21. 前記プロセッサは、グラウンドレベルとの関係において前記撮像デバイスの角度を取得するように構成されている、請求項19又は20に記載の装置。
  22. 前記モバイルプラットフォームの前記角度は、慣性計測ユニット(「IMU」)を介して取得される、請求項21に記載の装置。
  23. 前記プロセッサは、前記第1フレームとの関係において前記IMUによって前記モバイルプラットフォームの回転角度を計測して回転データを生成するように構成されている、請求項22に記載の装置。
  24. 前記プロセッサは、前記第1及び第2フレームをマッチングするように構成されており、
    この場合に、前記第1フレームは、既定のパーセンテージだけ、前記第2フレームとオーバーラップしている、請求項23に記載の装置。
  25. 前記第1フレーム及び前記第2フレームは、異なる時点において取得される、請求項23又は24に記載の装置。
  26. 前記プロセッサは、前記第1フレームの前記選択された特徴点を前記第2フレーム上の前記点を中心としてセンタリングされた一定範囲のピクセルエリアと比較することにより、前記類似性を算出する、請求項25に記載の装置。
  27. 前記第1フレーム及び前記第2フレームの前記一定範囲のピクセルエリアは、カラー画像のそれぞれのピクセルのそれぞれの色成分ごとの差の合計又は白黒画像のそれぞれのピクセルのグレースケール値の差の合計と比較される、請求項26に記載の装置。
  28. 前記プロセッサは、前記回転データ、前記ステレオスコープ点群、及び前記第2投影アレイに基づいて変換アレイTを算出するように構成されている、請求項27に記載の装置。
  29. 前記変換アレイTは、次式の関係を適用することにより、算出され、

    ここで、Rは、回転計測値のアレイであり、Pjは、点であり、Tは、算出対象の変換アレイを表し、且つ、μは、ランダム数である、請求項28に記載の装置。
  30. 前記プロセッサは、前記ステレオスコープ点群及び前記第2投影アレイのそれぞれのマッチングする2つの点から選択された少なくとも2つの点について式の組を解くことにより、前記変換アレイTを算出するように構成されている、請求項29に記載の装置。
  31. 前記プロセッサは、前記ステレオスコープ点群及び前記第2投影アレイのそれぞれの対応する投影点から選択された複数の点を伴ってTを次式に導入してマッチング点のカウントを取得することにより、前記変換アレイTを検証するように構成されており、且つ、

    前記プロセッサは、マッチング点の最大カウントを有する前記変換アレイTを選択された変換アレイTとして選択するように構成されている、請求項29又は30に記載の装置。
  32. 前記プロセッサは、前記選択された変換アレイTに基づいて前記モバイルプラットフォームの前記変位を算出するように構成されている、請求項31に記載の装置。
  33. 前記第1及び第2フレームは、第1及び第2ステレオスコープフレームであり、
    前記プロセッサは、前記選択された変換アレイT及び前記第1及び前記第2ステレオスコープフレームを取得するための前記2つの時点の間のインターバルに基づいて前記モバイルプラットフォームの速度を算出するように構成されている、請求項32に記載の装置。
  34. 前記プロセッサは、前記選択された変換アレイT及び前記第1ステレオスコープフレームを取得するための時点における前記モバイルプラットフォームの場所情報に基づいて前記モバイルプラットフォームの場所を算出するように構成されている、請求項33に記載の装置。
JP2016550777A 2015-06-26 2015-06-26 モバイルプラットフォームの変位を計測する方法及び装置 Expired - Fee Related JP6333396B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/082525 WO2016206108A1 (en) 2015-06-26 2015-06-26 System and method for measuring a displacement of a mobile platform

Publications (2)

Publication Number Publication Date
JP2017524122A JP2017524122A (ja) 2017-08-24
JP6333396B2 true JP6333396B2 (ja) 2018-05-30

Family

ID=57584400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016550777A Expired - Fee Related JP6333396B2 (ja) 2015-06-26 2015-06-26 モバイルプラットフォームの変位を計測する方法及び装置

Country Status (6)

Country Link
US (3) US10527416B2 (ja)
EP (1) EP3155369B1 (ja)
JP (1) JP6333396B2 (ja)
CN (1) CN106489062B (ja)
ES (1) ES2788479T3 (ja)
WO (1) WO2016206108A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106489062B (zh) * 2015-06-26 2019-06-28 深圳市大疆创新科技有限公司 用于测量移动平台的位移的系统和方法
KR20180068411A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 무인 비행 전자 장치의 운행 제어 방법 및 이를 지원하는 전자 장치
US10365650B2 (en) * 2017-05-25 2019-07-30 GM Global Technology Operations LLC Methods and systems for moving object velocity determination
CN110741625B (zh) * 2018-07-23 2022-06-21 深圳市大疆创新科技有限公司 运动估计方法及摄影器材
CN113924505A (zh) * 2020-05-09 2022-01-11 深圳市大疆创新科技有限公司 测距装置、测距方法及可移动平台
US11808578B2 (en) * 2020-05-29 2023-11-07 Aurora Flight Sciences Corporation Global positioning denied navigation

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039397A (ja) * 1999-08-02 2001-02-13 Komatsu Ltd 水平回転翼を有した飛翔体
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
CN1670479A (zh) * 2004-03-15 2005-09-21 清华大学 基于视频图像测量飞行器飞行高度的方法
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
US8306747B1 (en) * 2007-01-19 2012-11-06 Starodub, Inc. Travel way measurement system
US20080195316A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
KR100882011B1 (ko) * 2007-07-29 2009-02-04 주식회사 나노포토닉스 회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치
US7970507B2 (en) * 2008-01-23 2011-06-28 Honeywell International Inc. Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle
FR2927262B1 (fr) * 2008-02-13 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante
US8422777B2 (en) * 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
CN101876535B (zh) * 2009-12-02 2015-11-25 北京中星微电子有限公司 一种高度测量方法、装置及监控系统
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
US9758239B2 (en) * 2011-04-14 2017-09-12 Hexagon Technology Center Gmbh System and method for controlling an unmanned air vehicle
US8447116B2 (en) * 2011-07-22 2013-05-21 Honeywell International Inc. Identifying true feature matches for vision based navigation
WO2013062557A1 (en) * 2011-10-27 2013-05-02 The Boeing Company Stereo video movies
JP6041535B2 (ja) * 2012-05-29 2016-12-07 株式会社トプコン 画像取得方法及び撮影装置
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
JP6055274B2 (ja) * 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
US9070289B2 (en) * 2013-05-10 2015-06-30 Palo Alto Research Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
US9584981B2 (en) * 2014-08-27 2017-02-28 Qualcomm Incorporated Method and apparatus for real-time, mobile-based positioning according to sensor and radio frequency measurements
DE102014224884A1 (de) * 2014-12-04 2016-06-23 Jungheinrich Aktiengesellschaft Verfahren und System zum Überwachen von Logistikeinrichtungen
US9689976B2 (en) * 2014-12-19 2017-06-27 Xidrone Systems, Inc. Deterent for unmanned aerial systems
US9830503B1 (en) * 2014-12-31 2017-11-28 Morphotrust Usa, Llc Object detection in videos
KR101738750B1 (ko) * 2015-06-11 2017-05-24 한국과학기술원 실외 환경에서의 강인한 위치 인식 방법 및 장치
CN106489062B (zh) * 2015-06-26 2019-06-28 深圳市大疆创新科技有限公司 用于测量移动平台的位移的系统和方法
CN105117022A (zh) * 2015-09-24 2015-12-02 北京零零无限科技有限公司 一种控制无人机随脸转动的方法和装置
CN105447853B (zh) * 2015-11-13 2018-07-13 深圳市道通智能航空技术有限公司 飞行装置、飞行控制系统及方法
JP2017100651A (ja) * 2015-12-04 2017-06-08 株式会社Soken 飛行装置
US11022407B2 (en) * 2015-12-15 2021-06-01 Tradewinds Technology, Llc UAV defense system
EP3438775A1 (en) * 2016-03-31 2019-02-06 Nikon Corporation Flight device, electronic device and program
US10112715B2 (en) * 2016-04-26 2018-10-30 Hewlett-Packard Development Company, L.P. Signaling print substances
EP3901728B1 (en) * 2016-08-26 2023-10-04 SZ DJI Technology Co., Ltd. Methods and system for autonomous landing
US9794516B1 (en) * 2016-11-16 2017-10-17 Raja Singh Tuli Telepresence system
JP6790932B2 (ja) * 2017-03-14 2020-11-25 富士通株式会社 飛行体運用システム、クレーン装置制御方法、及び制御プログラム
JP6963923B2 (ja) * 2017-07-06 2021-11-10 株式会社トプコン レーザスキャナ及び測量システム

Also Published As

Publication number Publication date
CN106489062B (zh) 2019-06-28
US11346666B2 (en) 2022-05-31
US10527416B2 (en) 2020-01-07
EP3155369A1 (en) 2017-04-19
US20180112979A1 (en) 2018-04-26
ES2788479T3 (es) 2020-10-21
EP3155369B1 (en) 2020-03-18
JP2017524122A (ja) 2017-08-24
WO2016206108A1 (en) 2016-12-29
US10760907B2 (en) 2020-09-01
US20200393246A1 (en) 2020-12-17
US20200149887A1 (en) 2020-05-14
EP3155369A4 (en) 2017-07-19
CN106489062A (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
JP6333396B2 (ja) モバイルプラットフォームの変位を計測する方法及び装置
US10884110B2 (en) Calibration of laser and vision sensors
US9826217B2 (en) System and method for adjusting a baseline of an imaging system with microlens array
US20140300736A1 (en) Multi-sensor camera recalibration
CN105043350A (zh) 一种双目视觉测量方法
CN107710091B (zh) 用于选择移动平台的操作模式的系统和方法
Kim et al. Calibration method between dual 3D lidar sensors for autonomous vehicles
Portugal-Zambrano et al. Robust range finder through a laser pointer and a webcam
KR101502071B1 (ko) 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
Negahdaripour On 3-D reconstruction from stereo FS sonar imaging
Shojaeipour et al. Robot path obstacle locator using webcam and laser emitter
KR101782299B1 (ko) 가스시설물 점검 방법
Ahrnbom et al. Calibration and absolute pose estimation of trinocular linear camera array for smart city applications
JP5409451B2 (ja) 3次元変化検出装置
JP2010107224A (ja) 位置特定装置及び異動建物検出装置
JP6867465B2 (ja) モバイルプラットフォームの動作モードを選択するシステム及び方法
Wang Novel calibration method for the multi-camera measurement system
CN110176034B (zh) 用于vslam的定位方法及扫描终端
KR20230163815A (ko) 영상 기반 속도 연산 시스템
Rezaei et al. Lucid Workspace for Stereo Vision
Kim et al. Algorithm of 6-DOF motion detection of curved surface object based on laser distance sensors
Zhu et al. A Novel Method for Perception and Map Construction of Environment Information Based on Laser Range Finder

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180424

R150 Certificate of patent or registration of utility model

Ref document number: 6333396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees