JP7101535B2 - Lidarセンサによってターゲットオブジェクトを検出し、自律的にトラッキングする方法 - Google Patents

Lidarセンサによってターゲットオブジェクトを検出し、自律的にトラッキングする方法 Download PDF

Info

Publication number
JP7101535B2
JP7101535B2 JP2018094263A JP2018094263A JP7101535B2 JP 7101535 B2 JP7101535 B2 JP 7101535B2 JP 2018094263 A JP2018094263 A JP 2018094263A JP 2018094263 A JP2018094263 A JP 2018094263A JP 7101535 B2 JP7101535 B2 JP 7101535B2
Authority
JP
Japan
Prior art keywords
target object
point cloud
lidar sensor
reference model
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018094263A
Other languages
English (en)
Other versions
JP2018197747A (ja
Inventor
シュミット,クリストフ
コルブ,フロリアン
Original Assignee
イェーナ-オプトロニク ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イェーナ-オプトロニク ゲーエムベーハー filed Critical イェーナ-オプトロニク ゲーエムベーハー
Publication of JP2018197747A publication Critical patent/JP2018197747A/ja
Application granted granted Critical
Publication of JP7101535B2 publication Critical patent/JP7101535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、LIDARセンサによってターゲットオブジェクト(target object)、特には非協力的なスペースクラフト(spacecraft)、を検出し、かつ、自律的にトラッキングする方法に関する。ここで、LIDARセンサは、既定の表面領域にわたりターゲットオブジェクトの上にレーザパルスを継続的に放射し、かつ、既定の時間間隔でターゲットオブジェクトによって反射された測定ポイントから3次元(3D)ポイントクラウド(point cloud)を生成し、そして、位置を推定するアルゴリズムに基づいて、ターゲットオブジェクトの6自由度の動きについて既定の時間間隔で、LIDARセンサに対するターゲットオブジェクトの現在の相対位置が計算される。
3次元LIDARシステム、例えばLIDARセンサ、によるスペースクラフト間の相対的ナビゲーションのためには、目標物(「ターゲット("target")」)の検出と自律的なトラッキングが非常に重要である。LIDARセンサは、例えば数キロメートルの距離から、対象物を識別し、かつ、その位置を追跡(track)できることが必要である。例えば、サービシング(servicing)やデオービット(deorbit)ミッションといった、非協力的なターゲットを伴うシナリオについては、レトロリフレクタ(retroreflector)といった、特徴的な識別要素が利用可能ではない。LIDARセンサは、従って、適切な方法の助けを借りて相対位置に関して分析される必要がある、ポイントクラウドを生成する。単純な平均化は、潜在的に非常に不正確であることが示されてきている。幅広く変動する反射率および放射の特性を伴うスペースフライト(space flight)における広範囲な材料の存在のせいで、ターゲットオブジェクト、例えば静止衛星(geostationary satellite)、上をサービシングミッションのフレームワークの中でレーザ光を用いてスウィープし、かつ、反射された放射を分析すること(「スキャン」("scan"))は、非常に不均一に分散したポイントクラウドを結果として生じる可能性がある。平均化は、このように、ひどい変動を導く可能性がある。理論的に、誤差の大きさは、ターゲットオブジェクトの寸法に到達することができ、そして、近い範囲においては、上位の(superordinate)いわゆるGNCシステム(LIDARセンサ、ガイダンス、ナビゲーションとコントロール、GNCを含むスペースクラフトのガイダンス、ナビゲーション、および制御のためのシステム)によってもはや許容されないポイントに到達することができる。例えば、50mの翼幅(wingspan)を有する静止衛星にわたるスキャンの場合には、最悪ケース、このように、25mまでの誤差となる可能性がある。
すでに1980年代半ばに開始され、現代の姿勢推定アルゴリズム(modern pose estimation algorithms)の数学的基礎が築かれた。これらのアルゴリズムは、3次元のポイントクラウドからのターゲットオブジェクトの相対的な位置および場所を決定することができる。3次元LIDARシステムのノイズ特性のせいで、しかしながら、それらは、例えば50m未満の、小さな距離に対してだけ使用することができる。
3次元ポイントクラウドの高解像度な生成のためにLIDARセンサを使用することは、例えばマッピング、地理学、考古学、測量のための地上用途(terrestrial application)について標準的な方法である。スペースセクター(space sector)において、LIDARセンサは、位置および距離の測定のために使用される。例えば、国際宇宙ステーション(international space station)に対する供給スペースクラフトのアプローチおよびドッキング操作のための位置制御のためである。既に知られているように、遠距離LIDARトラッキングアルゴリズムは、例えば、レトロリフレクタといった、特徴的な識別要素の検出に基づいている。これらの要素は、その高いバック反射振幅(back-reflected amplitude)に基づいて、一意に識別することができる。ターゲット上のリフレクタの配置が知られている場合には、数キロメートルの距離からでも相対位置情報を引き出すことができる。この原理は、非協力的なターゲットオブジェクト、すなわち適切な識別要素を持たないターゲットオブジェクト、を含むシナリオについて使用することができない。
かなり近傍からのドッキングプロセスのために、いわゆる反復最接近点アルゴリズム(Closest Point Algorithms)を使用してターゲットオブジェクトの位置を決定することができる。反復的な適合方法を用いて、継続的に行われるスキャンの過程においてLIDARセンサによって取得される3次元ポイントクラウドに数学的参照モデルを適合させるものである。上述のアルゴリズムは、例えば、タイトル"Closed-form solution of absolute orientation using unit quaterninons"、Berthold K.P.Horn in Vol.4、 No.4/April 1987/J.Opt.Soc.Am.、pages629-642から知られている。これは、単純な固有値計算または特異値分解に基づいて、2つのポイントクラウド間の平行移動(translation)および回転(rotation)について解析解を決定する、アルゴリズムを開示している。これを行うためには、しかしながら、スキャンされたポイントと参照モデルとの間の対応が最初に確立される必要がある。参照モデルは、ターゲットオブジェクトのCADモデルから導出され、そして、適合方法に応じて、単純なポイントの形態において、または、表面要素(surface elements)としてパラメータ化される。計算仕様に応じて、対応するポイントは、例えば、ポイント間の距離の最小化を介して、または、基準面(reference surface)上への通常の投影を介して決定される。この後に、平行移動と回転の計算が続く。このプロセスは、例えばスクエア(square)な、品質関数値(quality function value)が閾値を下回るまで反復される。後続の各反復を用いると、適合が継続的に改善されているので、アルゴリズムは正しい解に向かってますます収束していく。この方法の適用は、しかしながら、LIDARセンサのノイズ挙動(noise behavior)によって制限され、そして、ターゲットオブジェクトから概ね50mの距離までしか確実に使用することができない。
本発明の目的は、LIDARセンサの可能な用途を、特に、空間内の(in space)ターゲットオブジェクトを識別し、かつ、自律的にトラッキングするために、より大きな距離まで拡大する方法を提案することである。
本目的は、請求項1の技術的事項によって達成される。従属請求項は、請求項1の技術的事項の有利な実施形態を記載している。
提案される方法は、LIDARセンサを用いて、ターゲットオブジェクト、特には非協力的なスペースクラフト、の検出および自律的トラッキングを行う。LIDARセンサは、既定の表面領域にわたりターゲットオブジェクトの上にレーザパルスを継続的に放射する。既定の時間間隔でターゲットオブジェクトによって反射された測定ポイントから3次元ポイントクラウドが生成され、そして、位置を推定するアルゴリズムに基づいて、既定の時間間隔でターゲットオブジェクトの6自由度の動きについて、LIDARセンサに対するターゲットオブジェクトの現在の相対位置が計算される。より大きい距離にわたるLIDARセンサのノイズ挙動を補償するために、第1ステップにおいて、複数の既定の時間間隔にわたり取得された高解像度な初期化(initializing)ポイントクラウドが取得される。第2ステップにおいては、初期化ポイントクラウドから少数の測定ポイントを用いてノイズの多い(noisy)参照モデルが生成される。そして、その後の反復ステップにおいて、かつ、既定の時間間隔で、アルゴリズムを使用して、時間的位置クラウド(temporal position clouds)が決定され、かつ、参照モデルと比較され、そして、ターゲットオブジェクトの位置情報が計算される。ここで、参照モデルは、ポイントクラウドの変化に対して継続的に適合されている。
本方法の有利な実施形態に従って、LIDARセンサは、ターゲットまで50mよりも大きい距離において使用される。
提案される方法において、既定の時間間隔は、好ましくは0.5秒から1秒である。
本方法に係る一つの有利な実施形態に従って、異なる視点(viewpoints)から取得されたポイントクラウドから、または、参照モデルからターゲットオブジェクトの3次元モデルが決定される。本方法に係る一つの有利な実施形態に従って、ターゲットオブジェクトの3次元モデルは、ターゲットオブジェクトに対するLIDARセンサを有するスペースクラフトの楕円形アプローチ(elliptical approach)を用いて決定することができる。
別の言葉で言えば、提案される方法は、6自由度を参照するターゲットオブジェクトの識別のための姿勢推定アルゴリズムの知識に基づく、いわゆるトラッキング方法を使用する。
オリジナルに対して忠実な(true)CADモデルは、非協力的なターゲットオブジェクトに関する知識の欠如のせいで、または、例えば50m以上の、より大きな距離での高レベルのセンサノイズのせいで利用可能でないことがあるが、計算された位置におけるひどい変動を導く可能性があり、それは、次に、位置決定の結果に悪影響を及ぼすことがある。代わりに、アプローチの最中にLIDARセンサ自体によってさらに生成され、かつ、継続的に改善される、ノイズの多い参照モデルが使用される。アプローチの最中に、従って、LIDARセンサは、そのターゲットオブジェクトの輪郭を「学習("learn")」し、そして、例えば、継続的に改善している参照モデルに対して、迅速な(rapid)1-2Hzのトラッキングスキャンを適合する。
本アルゴリズムは、LIDARセンサの遅く、かつ、高解像度な取得スキャンによって最初に初期化される。従って、まず始めに、ターゲットオブジェクトの第1参照モデルが構築される。この場合には、LIDARセンサに組み込まれ、または、接続されているコンピュータの計算速度に関して、参照モデルが既定の固定数のポイントに制限されることが推奨される。以降のステップにおいては、迅速なトラッキングスキャンが実行される。これらは、今や、スキャン速度のせいで明確に間引かれ(thinned out)、そして、理論上、異なる材料のせいで、ターゲットオブジェクト上に非常に不均一に分布され得る。これによって、生成されたポイントクラウドは、今や、ポイントツーポイント対応方法に基づくICPアルゴリズムを用いて適合され、そして、相対位置および場所が決定される。参照モデルは同様に「ノイズが多い("noisy")」ので、第1シミュレーション結果は、著しく改善され、かつ、変動のない位置推定を示している。このことは、次に、スキャンされたポイントクラウドにわたる単純な平均化と比べて、著しく改善された位置推定を結果として生じる。
参照モデルは、今や、スキャンされた新たなポイントクラウドに基づいて更新されている。ポイントの均一な空間分布を確保するために、計算速度を視野に入れて、以前に計算されたポイントツーポイント対応を直接的に使用するか、または、適切な割り当て方法を定めることができる。この方法は、数多くの利点を提供する。一方では、アプローチの最中にLIDARセンサの精度が増していくおかげで、参照モデルはアプローチ全体を通じて継続的に改善されている。参照モデルは、従って、LIDARセンサのノイズ挙動に対してインテリジェントに適合される。他方で、LIDARセンサは、アプローチの最中にターゲットオブジェクトのほぼ360°モデルを生成し、かつ、それにより、その性能を継続的に改善する。このことは、ターゲットオブジェクトを取得して、トラッキングする、LIDARセンサを有するスペースクラフト(チェイサー(chaser))のターゲットオブジェクトに対するアプローチの最中に、高質量の中心体(high-mass central body)の周りの本体の動きの最中に動作しているニュートン力学メカニズムが楕円形アプローチ軌道を結果として生じるからである。そこでは、ミッションデザインに応じて、ターゲットオブジェクトがほぼ360°(ホーマン遷移楕円(Homann transfer ellipses))軌道に乗っている。従って、例えば、ターゲットオブジェクト、例えば衛星、が最初に側面からだけ見えることが可能である。位置決定の最中に、取得スキャンによって生成された参照モデルは、このように、ターゲットの寸法に関して誤差を初期的に生成する。楕円形アプローチを用いると、しかしながら、LIDARセンサは、ターゲットオブジェクトのほぼ360°モデルを自動的に生成し、かつ、それによって、位置決定におけるその精度を継続的に改善する。迅速な1-2Hzのトラッキングスキャン、および、1.5m(3シグマ)ノイズを伴う極端にノイズの多い測定値を仮定すること、からの位置決定については、ターゲットオブジェクトまでの距離が1.5Kmであっても、最初のシミュレーションは、1m未満(<1m)(3シグマ)の範囲における精度を示している。
提案された方法は、地上の上アプリケーションにおけるLIDARセンサを用いたスペースクラフトの取得および自律的トラッキングの代替として使用することができる。例えば、提案されたプロシージャを用いて、本方法は、2つの離間した車両間の自動的な距離制御として使用することができる。LIDARセンサは、フィルタによって拡張することができ、または、スペースクラフトに合わせたフィルタを、例えば、乗用車、トラック、またはオートバイといった先行車両のジオメトリを第1の取得スキャンにおいて取得したポイントクラウドに対して適合するフィルタで置き換えることができる。後続のトラッキングスキャンは、次に、提示された原理に従って参照モデルに対して適合され、そして、上記の参照モデルを継続的に改善するために使用することができる。加えて、本方法は、また、本質的により軍事的なアプリケーションのためのポテンシャルを示すこともできる。例えばエアクラフト(aircraft)の飛行中の燃料補給のための、遠隔のエアクラフトの取得及び自律的なトラッキング及び/又はアプローチ、及び/又は、例えば航空防衛システムにおける、ターゲットオブジェクトの識別及びトラッキング、といったものである。
本発明は、1つの図に示されたデザイン例を参照してより詳細に説明される。
図は、LIDARセンサを用いて取得したターゲットオブジェクトのポイントクラウドを検出し、そして、適合させるために提案された方法のブロックダイヤグラム1を示している。
第1ステップでは、ブロック2において、いわゆる取得スキャンが実行され、そこでは、可能な限り最高品質のポイントクラウドが生成される。取得スキャンは、複数のトラッキングスキャンから獲得することができる。例えば、1-2Hzの既定の時間パターンで相互に続き、そして、重ね合わされるものである。取得されたデータ、例えば取得スキャンのポイントクラウドは、ターゲットオブジェクトのターゲット取得の開始において初期化データセットとして機能し、そして、いわゆるトラッキングアルゴリズムである、ブロック3へ移動される。ブロック3の中では、ブロック4において、ブロック2のデータから参照モデルが初めて決定される。ターゲットオブジェクトまでの距離が大きいので、参照モデルの品質はノイズが多い。計算能力が限られているので、参照モデルは、また、測定値の数に関しても制限されている。ブロック5においては、参照モデルが、現在取得されているポイントクラウドに対して適用される(トラッキングスキャン)。ブロック6においては、参照モデルに適合されたトラッキングスキャンが、ターゲットオブジェクトの位置情報を決定するために、ICPアルゴリズムの対象となる。決定された位置情報は、ブロック7において、継続的に更新され、そして、GNCシステムに対して利用可能にされる。ブロック6は、参照モデルを洗練するために、ブロック3に対して現在の位置情報を反復的に提供する。
1 ブロックダイヤグラム
2 ブロック
3 ブロック
4 ブロック
5 ブロック
6 ブロック
7 ブロック

Claims (5)

  1. 3次元LIDARシステムにおいて、LIDARセンサによって、ターゲットオブジェクトを検出し、かつ、自律的にトラッキングする方法であって、
    前記LIDARセンサが、既定の表面領域にわたり前記ターゲットオブジェクトの上にレーザパルスを継続的に放射し、かつ、前記3次元LIDARシステムにおけるプロセッサが、既定の時間間隔でターゲットオブジェクトによって反射された測定ポイントから3次元ポイントクラウドを生成し、
    前記プロセッサが、姿勢を推定するアルゴリズムに基づいて、前記ターゲットオブジェクトの6自由度の動きについて既定の時間間隔で、前記LIDARセンサに対する前記ターゲットオブジェクトの平行移動および回転を計算し、
    前記方法は、前記プロセッサによって、
    第1ステップにおいて、複数の既定の時間間隔にわたり取得された高解像度な前記3次元ポイントクラウドとしての初期化ポイントクラウドが取得され、
    第2ステップにおいて、前記初期化ポイントクラウドから少数の測定ポイントを用いてノイズの多い参照モデルが生成され、
    その後の反復ステップにおいて、かつ、前記既定の時間間隔で、前記アルゴリズムを使用して、時間的位置クラウドが決定されて、前記参照モデルと比較され、かつ、前記ターゲットオブジェクトの位置情報が計算され、前記参照モデルが、前記3次元ポイントクラウドの変化に対して継続的に適合される、
    ことを特徴とする、方法。
  2. 前記方法は、前記ターゲットオブジェクトと前記LIDARセンサとの間が50mよりも大きい距離において使用される、
    請求項1に記載の方法。
  3. 前記既定の時間間隔は、0.5秒から1秒である、
    請求項1または2に記載の方法。
  4. 前記ターゲットオブジェクトの3次元モデルは、前記プロセッサによって、異なる視点から取得された前記3次元ポイントクラウドから、または、前記3次元ポイントクラウドに適合された前記参照モデルから決定される、
    請求項1乃至3いずれか一項に記載の方法。
  5. 前記3次元モデルは、前記プロセッサによって、前記ターゲットオブジェクトに対する前記LIDARセンサを有するスペースクラフトの楕円形アプローチを用いて生成される、
    請求項4に記載の方法。
JP2018094263A 2017-05-24 2018-05-16 Lidarセンサによってターゲットオブジェクトを検出し、自律的にトラッキングする方法 Active JP7101535B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017111351.7 2017-05-24
DE102017111351.7A DE102017111351A1 (de) 2017-05-24 2017-05-24 Verfahren zur Erfassung und autonomer Verfolgung eines Zielobjekts mittels eines LIDAR-Sensors

Publications (2)

Publication Number Publication Date
JP2018197747A JP2018197747A (ja) 2018-12-13
JP7101535B2 true JP7101535B2 (ja) 2022-07-15

Family

ID=62222494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094263A Active JP7101535B2 (ja) 2017-05-24 2018-05-16 Lidarセンサによってターゲットオブジェクトを検出し、自律的にトラッキングする方法

Country Status (5)

Country Link
US (1) US10969489B2 (ja)
EP (1) EP3407090B1 (ja)
JP (1) JP7101535B2 (ja)
CA (1) CA3003427A1 (ja)
DE (1) DE102017111351A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733338B2 (en) * 2017-06-29 2020-08-04 The Boeing Company Methods and apparatus to generate a synthetic point cloud of a spacecraft
US10882644B1 (en) * 2017-07-31 2021-01-05 Space Systems/Loral, Llc Spacecraft rendezvous and docking techniques
CN109409792B (zh) * 2018-09-25 2020-02-04 深圳蓝胖子机器人有限公司 一种基于点云的物体追踪检测方法及系统
CN116184417A (zh) 2018-12-10 2023-05-30 北京图森智途科技有限公司 一种挂车夹角的测量方法、装置及车辆
CN109900298B (zh) * 2019-03-01 2023-06-30 武汉光庭科技有限公司 一种车辆定位校准方法及系统
CN110082779A (zh) * 2019-03-19 2019-08-02 同济大学 一种基于3d激光雷达的车辆位姿定位方法及系统
CN110456377B (zh) * 2019-08-15 2021-07-30 中国人民解放军63921部队 一种基于三维激光雷达的卫星来袭异物检测方法和系统
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN110796728B (zh) * 2019-09-20 2023-05-12 南京航空航天大学 一种基于扫描式激光雷达的非合作航天器三维重建方法
CN110675431B (zh) * 2019-10-08 2020-09-11 中国人民解放军军事科学院国防科技创新研究院 一种融合图像和激光点云的三维多目标跟踪方法
US11462023B2 (en) * 2019-11-14 2022-10-04 Toyota Research Institute, Inc. Systems and methods for 3D object detection
CN110849377B (zh) * 2019-11-20 2021-10-29 上海航天控制技术研究所 一种星群协同的空间目标相对导航系统及方法
US11151788B2 (en) * 2019-12-27 2021-10-19 Woven Planet North America, Inc. Systems and methods for presenting a reconstructed representation of a moving object detected in a scene
US11536843B2 (en) * 2020-02-08 2022-12-27 The Boeing Company De-jitter of point cloud data for target recognition
DE102020001345A1 (de) 2020-03-02 2021-09-02 Daimler Ag Verfahren zur Bestimmung von 3D-Punktkorrespondenzen in Lidarmessungen
CN111753623B (zh) * 2020-03-12 2024-03-05 北京京东乾石科技有限公司 一种运动物体的检测方法、装置、设备及存储介质
CN114092898A (zh) * 2020-07-31 2022-02-25 华为技术有限公司 目标物的感知方法及装置
CN113406659A (zh) * 2021-05-28 2021-09-17 浙江大学 一种基于激光雷达信息的移动机器人位置重识别方法
CN113513988B (zh) * 2021-07-12 2023-03-31 广州小鹏自动驾驶科技有限公司 一种激光雷达标靶检测方法、装置、车辆、存储介质
CN114120269A (zh) * 2021-11-02 2022-03-01 北京埃福瑞科技有限公司 轨道限界检测方法及系统
CN114088018A (zh) * 2021-11-16 2022-02-25 中山依瓦塔光学有限公司 一种激光雷达发射角检测系统
CN115127559A (zh) * 2022-06-28 2022-09-30 广东利元亨智能装备股份有限公司 一种定位方法、装置、设备和存储介质
KR20240050589A (ko) 2022-10-12 2024-04-19 성균관대학교산학협력단 객체 추적 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090147238A1 (en) 2007-03-27 2009-06-11 Markov Vladimir B Integrated multi-sensor survailance and tracking system
JP2012221456A (ja) 2011-04-14 2012-11-12 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム
US20140118716A1 (en) 2012-10-31 2014-05-01 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
JP2015201192A (ja) 2014-04-03 2015-11-12 エアバス デーエス ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の位置及び向きの検出

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734736A (en) * 1994-06-17 1998-03-31 Trw Inc. Autonomous rendezvous and docking system and method therefor
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090147238A1 (en) 2007-03-27 2009-06-11 Markov Vladimir B Integrated multi-sensor survailance and tracking system
JP2012221456A (ja) 2011-04-14 2012-11-12 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム
US20140118716A1 (en) 2012-10-31 2014-05-01 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
JP2015201192A (ja) 2014-04-03 2015-11-12 エアバス デーエス ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の位置及び向きの検出

Also Published As

Publication number Publication date
US20180341021A1 (en) 2018-11-29
DE102017111351A1 (de) 2018-11-29
EP3407090B1 (de) 2023-05-03
EP3407090A1 (de) 2018-11-28
JP2018197747A (ja) 2018-12-13
US10969489B2 (en) 2021-04-06
CA3003427A1 (en) 2018-11-24

Similar Documents

Publication Publication Date Title
JP7101535B2 (ja) Lidarセンサによってターゲットオブジェクトを検出し、自律的にトラッキングする方法
Opromolla et al. Pose estimation for spacecraft relative navigation using model-based algorithms
US10884110B2 (en) Calibration of laser and vision sensors
KR102497330B1 (ko) 추가 차량의 결정된 요 파라미터(들)에 근거한 자율주행 차량 제어
CN110573830B (zh) 激光传感器的校准方法
CN110178048B (zh) 交通工具环境地图生成和更新的方法和系统
Opromolla et al. LIDAR-inertial integration for UAV localization and mapping in complex environments
Opromolla et al. Uncooperative pose estimation with a LIDAR-based system
CN110889808B (zh) 一种定位的方法、装置、设备及存储介质
Opromolla et al. Uncooperative spacecraft relative navigation with LIDAR-based unscented Kalman filter
EP2759847B1 (en) Method and apparatus for determining equivalent velocity
English et al. Real-time dynamic pose estimation systems in space: Lessons learned for system design and performance evaluation
Paffenholz et al. Direct geo-referencing of a static terrestrial laser scanner
US11994466B2 (en) Methods and systems for identifying material composition of moving objects
Lai et al. See and avoid using onboard computer vision
Mango et al. Hazard detection and landing site selection for planetary exploration using LIDAR
Jasiobedzki et al. Autonomous satellite rendezvous and docking using LIDAR and model based vision
Ruel et al. 3DLASSO: Real-time pose estimation from 3D data for autonomous satellite servicing
CN112581610B (zh) 从多波束声呐数据中建立地图的鲁棒优化方法和系统
Soloviev et al. Three-dimensional navigation with scanning ladars: concept & initial verification
Ye et al. Model-based offline vehicle tracking in automotive applications using a precise 3D model
Opromolla et al. Spaceborne LIDAR-based system for pose determination of uncooperative targets
WO2017007527A9 (en) Three dimensional direction finder with one dimensional sensor array
Opromolla et al. PCA‐Based Line Detection from Range Data for Mapping and Localization‐Aiding of UAVs
US10330769B1 (en) Method and apparatus for geolocating emitters in a multi-emitter environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150