JP7361682B2 - 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング - Google Patents

3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング Download PDF

Info

Publication number
JP7361682B2
JP7361682B2 JP2020515223A JP2020515223A JP7361682B2 JP 7361682 B2 JP7361682 B2 JP 7361682B2 JP 2020515223 A JP2020515223 A JP 2020515223A JP 2020515223 A JP2020515223 A JP 2020515223A JP 7361682 B2 JP7361682 B2 JP 7361682B2
Authority
JP
Japan
Prior art keywords
measurement
points
lidar
feature map
measurement system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020515223A
Other languages
English (en)
Other versions
JP2020533601A (ja
Inventor
ケー ガンナム、キラン
Original Assignee
ベロダイン ライダー ユーエスエー,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベロダイン ライダー ユーエスエー,インコーポレイテッド filed Critical ベロダイン ライダー ユーエスエー,インコーポレイテッド
Publication of JP2020533601A publication Critical patent/JP2020533601A/ja
Application granted granted Critical
Publication of JP7361682B2 publication Critical patent/JP7361682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

(関連出願の相互参照)
本特許出願は、2017年9月13日に出願された「3D・LIDAR測定に基づく、多重解像度、同時位置特定、及びマッピング」というタイトルの米国特許仮出願番号第62/558,256号に基づき優先権を主張している、2018年9月13日に出願された「3D・LIDAR測定に基づく、多重解像度、同時位置特定、及びマッピング」というタイトルの米国特許出願第16/130,610号に基づく優先権を主張するものであり、その全体が参照により本明細書に組み込まれるものとする。
開示した実施形態は、LIDARベースの3D点群測定システムに関し、より具体的には、測定される環境の効率的なマッピング及びLIDAR測定システムの位置特定に関する。
LIDARシステムは、光パルスを使用して、各光パルスの飛行時間(TOF)に基づいてオブジェクトまでの距離を測定する。LIDARシステムの光源から放射された光パルスは、遠位のオブジェクトと互いに影響し合う。光の一部はオブジェクトから反射し、LIDARシステムの検出器に戻る。光パルスの放射と戻ってきた光パルスの検出との間の経過時間に基づいて、距離が推定される。いくつかの実施例では、光パルスはレーザーエミッターによって生成される。光パルスは、レンズ又はレンズアセンブリを通して集光される。レーザー光パルスがエミッターの近くに取り付けられた検出器に戻るのにかかる時間を測定する。距離は、時間の測定値から高精度で導出される。
いくつかのLIDARシステムは、平面全体を効果的にスキャンするために、回転ミラーを組み込んだ単一のレーザーエミッター/検出器の組み合わせを用いる。このようなシステムによって実行される距離測定は、事実上2次元(つまり、平面)であり、捕捉された距離ポイントは、2次元(つまり、単一平面)の点群としてレンダリングされる。いくつかの実施例では、回転ミラーは非常に速い速度で回転する(例えば、毎分数千回転)。
多くの操作シナリオでは、3D点群が必要となる。周囲の環境を3次元で調べるために、多くのスキームが採用される。いくつかの実施例では、2D機器は、多くの場合ジンバル上で、上下及び/又は前後に作動する。これは、当該術分野では一般に、センサーの「ウィンク」又は「うなずき」として知られている。従って、一度に1つのポイントではあるが、単一ビームLIDARユニットを使用して、距離ポイントの3Dアレイ全体を捕捉できる。関連する実施例では、プリズムを使用して、レーザーパルスをそれぞれがわずかに異なる垂直角を持つ複数の層に「分割」する。これは上記のうなずき効果をシミュレートするが、センサー自体が作動することはない。
多くのアプリケーションでは、広い視野を見る必要がある。例えば、自律車両アプリケーションでは、アプリケーションでは、垂直視野は車両の前の地面を見るために可能な限り下げる必要がある。加えて、自動車が道路のくぼみに入った場合は、垂直視野は地平線より上にげる必要がある。さらに、現実の世界で生じる動きとそれらの動きの描画との間の遅延を最小限に抑える必要がある。いくつかの実施例では、完全な画像更新を少なくとも毎秒5回行うことが望ましい。これらの要件に対処するために、複数のレーザーエミッターと検出器のアレイを含む3D・LIDARシステムが開発されている。このシステムは、2011年6月28日に発行された米国特許第7,969,558号に記載されており、その内容は全体が参照により本明細書に組み込まれるものとする。
多くのアプリケーションにおいて、連続するパルスが放射される。各パルスの方向は、連続的に急速に変化する。これらの実施例では、個々のパルスに関連付けられた距離測定は、ピクセルと見なすことができ、連続的に急速に放出され捕捉されたピクセルの集合(即ち、「点群」)を画像としてレンダリングしたり、他の理由(例えば、障害物の検出)のために分析したりすることができる。いくつかの実施例では、結果得られた点群をユーザーに対して3次元で表示される画像としてレンダリングするために、表示ソフトウェアを採用する。実写アクションカメラで撮影したかのように見える3D画像として、測定した距離を表現するために別のスキームを用いることもできる。
自律車両アプリケーションでは、周囲環境の3次元幾何学的マップを構築し、その環境内でLIDAR測定システムを配置することが望ましい。既存の多くの例では、最初に3次元マップが構築され、次にLIDAR測定システムがマッピングされた環境内に配置される。ただし、多くの場合このアプローチはよく制御された屋内環境、又は実際の運転条件と一致しない動きの遅い操作シナリオに限定される。
LIDAR測定システムのリアルタイムでのマッピング及び位置特定の改善が望まれている。特に、非常に活動的な都市、郊外、高速道路環境に適合した位置特定とマッピングを同時に行うことが望まれる。
ここでは、3D・LIDAR画像データに基づく改善された同時的位置特定及びマッピングのための方法とシステムについて説明する。
1つの態様では、LIDAR画像フレームは、特徴検出の前にセグメント化及びクラスタ化される。検出された特徴は、SLAM分析を実行するために使用される。特徴検出の前にセグメンテーションとクラスタリングを実行すると、自律型車両アプリケーションのマッピングと位置特定の精度を維持しながら、計算効率が向上する。
セグメンテーションには、特徴抽出の前に冗長データを除去することが伴う。このようにして、各画像フレームには、関心領域(ROI)のみに高解像度データが含まれ、少ないピクセル又は全くなくても十分に記述される領域の低解像度データが含まれる。1つの実施例では、セグメンテーションには、地面に関する冗長な点を排除することが伴う。各画像フレームのピクセル数を減らすことにより、各画像フレームに関連するデータの量が減る。
1つの実施形態では、冗長ピクセルは、標高に基づいて識別される。
いくつかの実施形態では、3次元画像フレームは、3Dグリッドマップに細分される。3Dグリッドマップのセルは、2Dグリッドマップを生成するために、垂直方向(例えば、地面に垂直)に沿って投影される。
1つの実施例では、測定点が冗長であるかどうかを判定するために、各測定点の標高を車両の高さと比較する。
別の実施例では、測定点が冗長であるかどうかを判定するために、各測定点の標高を所定の閾値と比較する。
別の実施例では、セル内の測定点が冗長であるかどうかを判定するために、3Dグリッドマップの2D投影の各セル内の測定点の数を採用する。
別の実施例では、セル内の各測定点に関連する光学特性の平均値が決定される。例えば、光学特性は、測定された強度、反射率、信頼性、又はそれらのいくつかの組み合わせとすることができる。個々の測定点に関連する測定された光学特性と平均値との差が、測定点が冗長であるかどうかを決定するために使用される。
別の実施例では、セル内の測定ポイントが冗長であるかどうかを判断するために、セル内のすべての測定ポイントの最大標高と最小標高の差を使用する。
別の実施例では、セル内の測定ポイントに関連する標高の平均値、及び各隣接セルの測定ポイントに関連する平均標高値が決定される。隣接セルのいずれかに関連する平均標高と問題となっているセルとの差が所定の閾値を超える場合、セルに関連する測定ポイントは冗長ではないと判断する。
別の態様では、類似のオブジェクトに関連するピクセルのグループは、後続の特徴検出操作の計算の複雑さを軽減するためにクラスタ化される。このようにして、特徴検出は、多くのオブジェクトではなく、1つのオブジェクトに関連するピクセルデータに対して実行される。
別の態様では、特徴は、各測定点に関連する測定光学特性(例えば、強度、反射率、信頼性、又はそれらの組み合わせ)に基づいて、LIDAR画像フレームから抽出される。
1つの実施形態では、特徴は、反射率階調度の値に基づいてLIDAR画像フレームから迅速に検出される。反射率階調度は有界整数であり、これらの値は効率的にソートできる。
別の実施形態では、特徴は、任意の数の光学特性を含む全体的なコントラスト値の値に基づいて、LIDAR画像フレームから迅速に検出される。
ピクセルは、階調度の値に従って異なるビンに分類される。ビンは、階調度の値に基づいて異なるプール(つまり、異なる特徴セット)に分類される。特徴のさまざまなプールは、さまざまなオブジェクト(地面、壁、樹木、等)に関連付けられる。このようにして、周囲の環境内のさまざまな物理オブジェクトを識別する構造化された出力(つまり、特徴セット)が生成される。特徴点のプールは、各画像フレームに関連付けられた小さな特徴マップ(SFM)を具備する。
別の態様では、LIDAR測定システムによる推定位置は、高い繰り返し率でリフレッシュされる低解像度特徴マップに基づいて迅速に決定される一方、この推定位置は、低い繰り返し率でリフレッシュされる高解像度特徴マップに基づいて正確に更新される。
さらなる態様では、3次元環境のグローバルマップは、高い解像度の特徴マップ及びLIDAR測定システムによる推定位置に基づいて、定期的かつ一貫して更新される。
上述の記載は要約であり、従って、必然的に、簡素化、一般化、及び詳細の省略が含まれ、従って、当業者であればこの要約は単なる概要であり、決して限定のためのものではないことを理解するであろう。他の態様、創作的特徴、及びここに記載した装置及び/又はプロセスの利点は、ここに記載した非限定的な詳細な説明において明らかになるであろう。
LIDARベースの、周囲環境のマッピングとリアルタイムで環境内のLIDAR測定システム104の位置を示すよう構成された、3次元撮像システム104及びコンピューティングシステム110を含む操作シナリオを示す図である。
少なくとも1つの新規な態様においてコンピューティングシステム110に組み込まれる、同時的位置特定及びマッピング(SLAM)エンジン120の例示的な説明図である。
多重解像度SLAMモジュール150をさらに詳細に示す図である。
LIDAR測定システム104のような、LIDAR測定システムにより捕捉された画像フレームの検出されたピクセルの2次元投影を図示するプロット170を示す。
セグメンテーションモジュール130によるセグメンテーションの後、図4に示す同じ画像フレームの検出されたピクセルの2次元投影を図示するプロット180を示す。
少なくとも1つの新規な態様における少なくとも1つの統合LIDAR測定装置を含むLIDAR測定システムの1つの実施形態を例示する簡略図である。
統合型LIDAR測定装置130からの測定パルスの放出及び戻り測定パルスの捕捉に関連するタイミングを示す。
少なくとも1つの新規な態様において、統合LIDAR測定装置によってLIDAR測定を実行する方法200を例示するフローチャートを示す。
ここで、添付図に例示されている背景となる実施例及び本発明のいくつかの実施形態について詳細に言及する。
ここでは、3D・LIDAR画像データに基づく、改善された同時的位置特定及びマッピングについて説明する。
同時的位置特定及びマッピング(SLAM)は、6自由度(例えば、x、y、z、Rx、Ry、Rz)でリアルタイムに環境内のLIDAR測定システムの位置を推定している間に、LIDAR測定システムを横切らせることにより、一貫した周囲の3次元幾何学的マップを構築することを伴う。SLAM分析は、LIDAR測定システムによって生成された点群距離測定データに基づいて実行される。
図1は、LIDARベースの3次元撮像システム104と、周囲の環境を同時的にマッピングし、リアルタイムで環境内のLIDAR測定システム104の位置を特定するように構成された、コンピューティングシステム110とを含む操作シナリオを示す。図1に示す実施形態では、車両103は、速度Vで道路102に沿って走行する。周囲環境には、建物101A及び101B、樹木101C及び101D、道路102の路面、縁石106等を含む様々なオブジェクトが含まれる。周囲環境には、世界座標フレーム、例えば、図1に示される世界座標フレーム(X、Y、Z)において移動しない静的オブジェクトが含まれる。LIDAR測定システム104は、車両103に取り付けられ、周囲環境の画像に関連する3次元の点群データを取得する。瞬時座標フレーム(X、Y、Z)がLIDAR測定システム104に取り付けられる。LIDAR測定システム104は、瞬間座標フレームを参照して測定された点群データを生成する。言い換えれば、LIDARシステム104によって実行される距離測定は、LIDAR測定システム104自体において測定される。瞬時座標系は車両103とともに移動する。従って、世界座標フレームにおいて瞬時座標フレームの位置は、車両103の場所によって変化し、点群データのセットから生成された各画像フレームは、世界座標内の瞬間座標フレームの異なる位置に関連付けられる。
図示の実施形態では、LIDAR画像情報105は、さらなる分析のために、LIDAR測定システム104から1つ以上のコンピューティングシステム110に伝達される。LIDAR画像情報105には、位置情報(例えば、シータ、ファイ、距離)及び光学情報(例えば、反射率、強度、信頼性、又はそれらの組み合わせ)を含む点群データの各セットに関連する点群データを含む。1つの実施形態では、多重解像度SLAMを採用して、周囲環境の一貫した3次元マップ109を構築し、LIDAR測定システム104によって生成された点群距離測定データ105に基づいて、世界座標フレームにおいてLIDAR測定システム104の位置108を推定する。結果として生じるマッピング情報109及び位置情報108は、車両制御システム107に伝達される。車両制御システム107は、更新された位置情報108及びマッピング情報109に基づいて、車両103の様々な要素(例えば、車両速度、ステアリング角度、ブレーキ力、表示灯など)を制御する。
1つの態様では、LIDAR画像フレームは、特徴検出の前にセグメント化及びクラスタ化され、検出された特徴は、ここで説明する通りSLAM分析を実行するために使用される。通常、特徴検出とSLAM分析は、測定された点群データに対して直接実行される。ただし、このアプローチは計算量が多く、時間がかかる。発明者らは、特徴検出及びSLAMの前にセグメンテーション及びクラスタリングを実行することにより、自律車両アプリケーションのマッピング及び位置特定の両方の精度を維持しながら、計算効率を劇的に改善できることを発見した。
SLAM分析の対象となるデータの量を削減するために、LIDAR画像フレームは、冗長データポイント又は自律車両アプリケーションに関連しないデータポイントを識別及び除去するためにセグメント化される。加えて、類似のオブジェクトに関連付けられた画像データポイントをグループ化するために画像データはクラスタ化される。このようなデータ削減の後、特定のオブジェクト、例えば、地面、壁、樹木、等を識別するために、特徴検出が採用される。いくつかの実施例では、データポイントの40倍の削減は、ここで説明するように、特徴検出の前にセグメンテーションとクラスタリングを実行することによって達成される。特徴検出の後、SLAM分析は、対応するオブジェクトに関連付けられた非常に限られたデータセットに対して実行される。
図2は、少なくとも1つの新規な態様でコンピューティングシステム110に組み込まれる例示的な同時的位置特定及びマッピング(SLAM)エンジン120を示す図である。図2に示すように、SLAMエンジン120には、座標変換モジュール125、セグメンテーションモジュール130、クラスタリングモジュール135、特徴検出モジュール140、及び複数の解像度、同時的位置特定及びマッピングモジュール150が含まれる。
図2に示すように、座標変換モジュール125は、点群データ105を受け取る。単一の点群(つまり、画像フレーム)には、1回のフルスキャン(例えば、LIDAR測定システム104の周りの360度スキャン)で測定されたピクセルが含まれる。一般に、車両に取り付けられたLIDAR測定システムによって生成された点群データは、球面座標で表される。1つの実施例では、3次元空間内の各測定ピクセルの位置は、2つのオイラー角と距離測定自体によって表される。座標変換モジュール125は、点群データの座標表現を球面座標からデカルト座標(つまり、Χ、Y、Z)に変換する座標変換を点群データに対して実行する。各画像フレーム126に関連するデカルト座標データは、セグメンテーションモジュール130に伝達される。
別の態様では、点群データの画像フレームは、特徴抽出の前に冗長データを除去するためにセグメント化される。このようにして、各画像フレームには、関心のある領域(ROI)にある高解像度データと、ピクセル数が少ないかまったくない領域で十分に記述されている領域中の解像度が低いデータとが含まれる。各画像フレームのピクセル数を減らすことにより、各画像フレームに関連するデータの量が減る。この結果、通信のオーバーヘッドとダウンストリームの計算の複雑さが軽減される。
1つの実施形態では、セグメンテーションモジュール130は、LIDAR測定システム104によって捕捉された各画像フレーム126に関連するデカルト座標データを受け取る。セグメンテーションモジュール130は、地表面に関連する点を識別し、地表面に関連する冗長な点を排除する。
1つの実施形態では、セグメンテーションモジュール130は、標高に基づいて冗長ピクセルを識別する。地表面の標高が先験的にわかっていると仮定すると(例えば、地表でのZ座標がゼロ)、地表面と同じ標高を持つピクセルは地表に関連付けられていると想定される。地表面に関連する余分なピクセルは削除される。
好ましい実施形態では、セグメンテーションモジュール130は、特定のピクセルが地表面に関連付けられているかどうかを確認するために付加的な空間情報を使用する。付加的な情報には、局所的な滑らかさ、データ密度などが含まれる。1つの実施例では、セグメンテーションモジュール130は、3次元画像フレームをさらに3Dグリッドマップに分割する。3Dグリッドマップのセルの規則的なパターンにより、インデックス作成の効率が向上し、3Dデータの挿入又は取得が容易になる。さらに、セグメンテーションモジュール130は、2Dグリッドマップを生成するためにz方向に沿ってセルを投影する。セグメンテーションモジュール130は、2Dグリッドマップを使用して冗長ピクセルを識別する。
1つの実施例では、セグメンテーションモジュール130は、各ピクセルに1つ以上の基準を適用して、ピクセルが冗長であるか冗長でないかを判定する。
1つの実施例では、セグメンテーションモジュール130は、ピクセルの標高が車両の高さより大きいかどうかを決定する。ピクセルの標高が車両の高さよりも高い場合、それは冗長ではない(例えば、地面ではない)。
別の実施例では、セグメンテーションモジュール130は、ピクセルの標高が閾値より大きいかどうかを決定する。ピクセルの標高が閾値よりも大きい場合、それは冗長ではない(例えば、地面ではない)。
別の実施例では、セグメンテーションモジュール130は、3Dグリッドマップの2D投影のセルの含むピクセルが所定の閾値よりも少ないかどうかを究明する。もし少ないなら、そのセルに関連するピクセルは、ピクセルの解像度がすでに低いため、冗長ではないと判断する。
別の実施例では、セグメンテーションモジュール130は、2D投影のセル内の各ピクセルに関連付けられた光学特性の平均値を決定する。例えば、光学特性は、測定された強度、反射率、信頼性、又はそれらのいくつかの組み合わせとすることができる。セグメンテーションモジュール130は、各ピクセルに関連する測定された光学特性(測定された強度、反射率、信頼性、又はそれらのいくつかの組み合わせ)とセル内のすべてのピクセルの測定された光学特性の平均値との差が所定の閾値を超えるかどうかを決定する。光学特性の値が平均値と大きく異なる場合、ピクセルは冗長ではないと決定される。
別の実施例では、セグメンテーションモジュール130は、セル内のすべてのピクセルの最大標高(例えば、z座標)値とセル内のすべてのピクセルの最小標高値との間の差を測定する。差が所定の閾値を超える場合、ピクセルは冗長ではないと決定される。セル内の標高の大きな違いは、地表面ではなく垂直構造を示す。
別の実施例では、セグメンテーションモジュール130は、セル内のピクセルに関連付けられた標高の平均値及び各隣接セル内のピクセルに関連付けられた平均標高値を測定する。隣接するセルのいずれかに関連付けられている平均標高と問題のセルとの差の値が所定の閾値を超える場合、セルに関連付けられているピクセルは冗長ではないと決定される。
図4は、LIDAR測定システム104のような、LIDAR測定システムにより捕捉された画像フレームのすべての検出されたピクセルの2次元投影を図示するプロット170を示す。プロット170に示すように、ピクセルは、x方向に200メートル、y方向に250メートルの範囲内で検出される。LIDAR測定システムは、プロット170においてポイント{0、0}に配置される。
図5は、セグメンテーションモジュール130によるセグメンテーションの後の図4に示されたものと同じ画像フレームの検出されたピクセルの2次元投影を図示するプロット180を示す。この例では、ピクセル数が31%削減されている。図4及び5に示すように。セグメンテーションモジュール130は、LIDAR測定装置の近くの地表面の測定に関連する冗長な高解像度ピクセルを削除した。
セグメンテーションモジュール130は、前述の基準の任意の組み合わせを適用して、ピクセルが冗長であるか又は冗長でないかを決定する。一般に、前述の基準は、非限定的な例として提供され、他の多くの基準を、この特許文書の範囲内として考えることができる。いくつかの実施例では、セグメンテーションモジュール130は、完全な画像フレームに関連するピクセルのグループを受け取り、ピクセルのグループに作用し、セグメント化されたピクセルのグループをクラスタリングモジュール135に伝達する。しかしながら、いくつかの他の実施例では、セグメンテーションモジュール130は、一度に1ピクセルずつピクセルデータを受け取り、受け取ったピクセルに順次作用し、LIDAR測定システムから受け取ったときにリアルタイムでセグメント化する。
特定のピクセルが冗長であるか又は冗長でないかを決定した後、セグメンテーションモジュールは、各冗長でないピクセル131に関連する画像データをクラスタリングモジュール135に伝達する。冗長なピクセルに関連する画像データは、クラスタリングモジュール135に伝達されない。
別の態様では、後続の特徴検出操作の計算の複雑さを低減するために、画像データはクラスタ化される。図2に示す実施例では、クラスタリングモジュール135は、画像データ131を受け取り、類似するオブジェクトに関連するピクセルのグループを識別する。ピクセル136の各グループは、特徴検出モジュール140に伝達される。このようにして、特徴検出モジュール140は、多くのオブジェクトではなく、1つのオブジェクトに関連するピクセルデータに作用する。
別の態様では、特徴は、各ピクセルに関連する、測定された強度、反射率、信頼性、又はそれらの組み合わせに基づいてLIDAR画像フレームから迅速に抽出される。
通常は、測定された画像空間をサブ領域に細分し、局所的な滑らかさをすべてのピクセルについて計算する。この滑らかさに基づいて、ピクセルは、空間内の事前定義された各サブ領域のLIDARチャンネルごとに、{最もシャープ、シャープ、スムーズ、最もスムーズ}の4つのカテゴリに分類される。NチャンネルとMポイントのフレームを持つLIDARシステムの場合、各チャンネルはM/N個のポイントを有する。8つのサブ領域の場合、各サブ領域にはK=M/(8N)個のポイントを有する。平滑度値の並べ替えには平均計算量順、O(MlogK)が含まれる。16チャンネル(N=16)のLIDARシステムと10,000ポイント(M=10,000)の画像フレームの場合、このアプローチを使用して妥当な計算コストで特徴を検出することができる。しかしながら、多くのチャンネルを有するセンサー及びより多くの数のピクセル(例えば、N=32及びM=50,000)を有する画像フレームの場合、費用効率の高い方法でリアルタイムで結果を達成することは可能ではない。
1つの実施形態では、特徴は、空間の階調度の計算を特徴点検出時の反射率階調度で置き換えることにより、LIDAR画像フレームから迅速に検出される。空間の階調度の値は、非有界浮動小数点値となる。このため、これらの数値を効率的にソートすることは、計算集約的となる。対照的に、反射率階調度は有界整数であり、これらの値は効率的にソートできる(線形複雑度、O(M))。
1つの実施形態では、特徴検出モジュール140はピクセルの画像フレーム136を受け取る。各ピクセルには、LIDAR測定システムにおけるピクセルの位置を表す位置データ(例えば、Χ、Y、Ζ座標)と、測定結果自体を表す光学値(例えば、反射率、R、強度、I、及び信頼性、Re)が含まれる。いくつかの実施形態では、各ピクセルには6つの属性{x、y、z、R、I、Re}が含まれる。いくつかの実施形態では、各ピクセルには、4つの属性{x、y、z、R}又は{x、y、z、I}が含まれる。一般に、任意の数の属性を考えることができる。
1つの実施例では、各LIDARチャンネルについて及び画像フレーム136のサブ領域について、特徴検出モジュール140は、以前に測定されたピクセルi-1に関して各ピクセルiについて、反射率階調度(abs(R-Ri-i))、強度階調度(abs(I-Ii-i))、信頼性階調度(abs(Re-Rei-i))、又はそれらの任意の組み合わせについて計算する。特徴検出モジュール140によって究明されるそれぞれの階調度の値は例えば、0から255の範囲の整数値である。
複数の階調度が計算される実施例の場合、特徴検出モジュール140は、全体的なコントラスト値を決定する(例えば、ここで、コントラストは、曲率の近似値)。例えば、反射率、強度、及び信頼性の階調度がすべて利用可能な場合、全体的なコントラストは式(1)によって決定され、床関数は、要素の値よりも小さく、要素の値に最も近い整数値を意味する。
Figure 0007361682000001
一般に、各階調度の値は、全体のコントラスト値に対する各階調度値の影響を変化させるために、異なる定数によって重み付けしてもよい。
加えて、特徴検出モジュール140は、ピクセルをビンの集合に分類する。ビンの数は、全体的なコントラストの可能な整数値の数と同じとなる(例えば、256ビン)。従って、特定の全体的なコントラスト整数値を有する各ピクセルはは対応するビンの中にある。
特徴検出モジュール140は、ビンを異なるプールのビン(つまり、異なる機能セット)に分類する。1つの実施例では、4つのプールが定義される、つまり、高コントラスト特徴点、低コントラスト特徴点、最高コントラスト特徴点、及び最低コントラスト特徴点であり、それぞれ所定の閾値、#highest_contrast、#high_contrast、#low_contrast、及び#lowest_contrastによって定義される。1つの実施例では、全体のコントラスト値が#highest_contrast以上のすべてのビンが最高コントラストプールに関連付けられ、全体のコントラスト値が#high_contrastt以上のすべてのビンは、最高のコントラストとして識別されたものを除き、高コントラストのプールに関連付けられる。逆に、全体のコントラスト値が#lowest_contrast以下のすべてのビンは最低コントラストプールに関連付けられ、全体のコントラスト値が#low_contrast以下のすべてのビンは、最低コントラストとして識別されたものを除いて、低コントラストプールに関連付けられる。特徴のさまざまなプールは、さまざまなオブジェクト(地面、壁、木など)に関連付けられている。このようにして、特徴検出モジュール140は、周囲環境内の異なる物理オブジェクトを識別する構造化出力(つまり、特徴セット)を生成する。
このようにして、特徴検出モジュール140は、各画像フレームに対して特徴点の4つのプールを生成する。特徴点のプールは、画像フレームに関連付けられた小さな特徴マップ(SF)を構成する。図2に示すように、特徴検出モジュール140は、現在のフレームに関連付けられたSFM141及び前のフレームに関連付けられたSFM142を複数解像度SLAMモジュール150に伝達する。
いくつかの例では、k次元木(別名、kd木)が、点群及び特徴セットを編成するために使用される。kd木は、他の制約が課されたバイナリ検索ツリーです。kd木は、範囲探索及び最近傍探索に非常に役立つ。前述の例では、kd木は各ピクセルに関連付けられた属性の次元に合致させる。例えば、6つの属性{x、Y、Z、R、I、Re}を有するピクセルの場合、6次元のkd木を採用する。
別の態様では、LIDAR測定システムでの位置の推定は、高い繰り返し率でリフレッシュされた低解像度特徴マップに基づいて迅速に決定される一方、推定された位置は、低い繰り返し率でリフレッシュされた高解像度特徴マップに基づいて正確に更新される。
図3は、多重解像度SLAMモジュール150をさらに詳細に示す図である。図3に示すように、SLAMモジュール150には、増分センサー走行距離計測モジュール153、高速センサー走行距離計測モジュール158、低速センサー走行距離計測モジュール156、及び特徴マップ融合モジュール159が含まれる。
図3に示すように、現在のフレームに関連付けられたSFM141及び前のフレームに関連付けられたSFM142は、増分センサー走行距離計測モジュール151によって受け取られる。図6に示す。図3において、SFM141は、現在の画像フレーム(n番目のフレーム)を取得した時のLIDAR測定システムの位置に関して選択された特徴の位置を特定する特徴マップであり、SFM142は、前の画像フレーム(n-1番目のフレーム)を取得した時のLIDAR測定システムの位置に関して選択された特徴の位置を特定する特徴マップである。
図3に示されるように、増分センサー走行距離計測モジュール151は、n番目の特徴セット(つまり、SFM)におけるLIDAR測定システムの6自由度(例えば、X、Y、Rx、Ry、Rz)の位置を、n-1番目の特徴セット(つまり、SFMn-1)におけるLIDAR測定システムの位置及びnΔPsensor n-1との関係で推定する。nΔPsensor n-1は、SFMにおいて選択された特徴と、SFMn-1における同じ特徴とが最適に適合することになるように定める。1つの実施例では、この分析のために約300の特徴が選択されている。nΔPsensor n-1の推定は、LIDAR測定システムの画像フレームの更新速度(例えば、10Hz)に一致させてリアルタイムで実行される。LIDAR測定システムの角速度と直線速度は、更新期間(例えば、0.1秒間)にわたって滑らかで連続的であると想定される。しかしながら、速度の急激な変化が発生した場合、多重解像度SLAMモジュール150は、LIDAR測定システムの慣性測定ユニット(IMU)から入力を受け取り、速度の急激な変化を補償する。
1つの実施例では、増分センサー走行距離計測モジュール151は、式(2)の残差を最小化することによりnΔPsensor n-1を推定する。
Figure 0007361682000002
ここで、xは現在の特徴セットの特徴点であり、式(2)は、エッジポイントと対応するエッジラインとの間、又は平面点と対応する平面区画との間の幾何学的関係(つまり、移動と回転)を表す。例えば、式(2)には、点から平面までの距離、点から線までの距離等が含まれる。Dは距離のベクトルdであり、各特徴点xは、距離d及び非線形関数fによって定義される関係を有する。式(3)は、非線形最小2乗最小化法の各反復におけるnΔPsensor n-1の推定を示している。
Figure 0007361682000003
ここで、λはレーベンバーグ・マーカートアルゴリズムにより決定されたスカラー値であり、Jは関数fのヤコビアン(導関数)である。ヤコビアンは数値微分によって決定される。非線形最小2乗最小法により、式(2)により定義される残差を最小化する位置を特定する。
図3に示す実施形態において、nΔPsensor n-1152は、特徴ロケータモジュール153に伝達される。特徴ロケータモジュール153は、現在のフレームの特徴点、SFMFeatures n、をLIDAR測定システムの更新速度(例えば、10Hz)で、ワールド座標フレームWに投影する。これは、SFMよりも高い解像度を持つ大きな特徴マップ(LFM)を生成するために、連続するSFMに対して繰り返し実行される。LFMは、SFMよりも長い時間をかけて生成される(例えば、0.1秒毎ではなく、1秒毎に)。
図3に示す実施形態において、低速センサー走行距離計測モジュール156は、現在の大きなフレームインデックスkでのワールド座標フレームWにおける多くの特徴(SFMより多い)の位置を記述する現在のLFM(kLMMFeatures W155)を受け取る。低速センサー走行距離計測モジュール156はまた、先の大きなフレームインデックスk-1での世界座標フレームWにおける多くの特徴の位置を記述する先のLFM(k-1LMMFeatures W154)を受け取る。低速センサー走行距離計測モジュール156は、現在のLFMの最も重要な機能を先のLFMに最適に適合させることにより、先のフレームでの世界座標フレームにおけるLIDAR測定システムの6自由度の位置に対して、世界フレームにおけるksensor W157の現在の6自由度の位置を推定する。最適化は、特徴セットが大きく、世界座標フレームを参照する点を除いて、増分センサー走行距離計測モジュール151を参照して説明した最適化と似ている。1つの実施例では、この適合化は1Hzの速度で実行される。
図3に示す実施形態において、高速センサー走行距離計測モジュール158は、現在の大きなフレームインデックスkで、ワールドフレームksensor W157におけるLIDAR測定システムの現在の位置を受け取る。高速センサー走行距離計測モジュール158は、世界座標フレームにおいて測定された推定ksensor W157に、連続する各増分変位、(例えば、nΔPsensor n-1)を加算することにより、現在の小フレームインデックス、n(nsensor W160)における世界座標フレームにおけるセンサーの現在の6自由度位置を推定する。これは、低速センサー走行距離計測モジュール156(例えば、k+1sensor W)によってセンサー位置の新しい推定が行われまで続く。その時点で、高速センサー走行距離計測モジュール158は新しい推定値をセンサーのベースライン位置と見なし、そして、別の新しい推定値が低速センサー走行距離測定モジュール156によって提供されるまで、連続する各増分変位を基準位置に加算する。このようにして、高速センサー走行距離測定モジュールにより、比較的速い更新速度(例えば、10Hz)で世界座標フレームにおけるセンサーの位置の更新された推定値がもたらされる。この更新は、比較的遅い更新速度(例えば、1Hz)で、低速センサー走行距離計測モジュール156によってもたらされる世界座標フレームにおけるセンサー位置の、より正確な推定によって定期的に修正される。前述の通り、センサーの位置の加算による変化は、比較的低い解像度の特徴マップに基づいて増分センサー走行距離計測モジュール151によってもたらされる一方、低速センサー走行距離計測モジュールによってもたらされるセンサーの位置の変化は、比較的高い解像度特徴マップに基づく。このようにして、低解像度特徴マップに基Yづく位置推定によって引き起こされる誤差は、高解像度特徴マップに基づくより正確な推定によって定期的に修正される。
図3に示す実施形態において、特徴マップ融合モジュール159は、ワールドフレーム内のLIDAR測定システムの現在の位置、ksensor W157、現在のLFM、kLFMFeatures W155、及び以前のLFM、k-1LFMFeatures W154を受信する。機能マップ融合モジュール159は、現在のセンサー位置ksensor W157に基づいてkLFMFeatures W155とk-1LFMFeatures W154とを連続して融合し、融合した特徴マップを、世界座標フレームにおける特徴(建物、樹木など)の場所を特定するグローバルグリッドマップkFeatures W161へと辻褄を合わせて統合する。1つの実施例では、これは1Hzの更新速度で生じる。
図2に示すように、非限定的な例として、マップ161及び位置推定160は、コンピューティングシステム110のメモリ113、又は任意の他の適切なメモリデバイス(例えば、外部メモリ又はLIDAR測定システム104のボード上のメモリ)に格納される。
図6は、1つの実施形態におけるLIDAR測定システム104を示す本明細書で説明するように、他の多くのLIDAR測定システムを使用してLIDAR画像情報を提供することができるので、図6に示すLIDAR測定システム104の実施形態は非限定的な例として提示される。LIDAR測定システム104には、主制御装置290及び1つ以上の統合LIDAR測定装置230が含まれる。統合LIDAR測定装置230には、戻り信号受信機集積回路(IC)、照明ドライバ集積回路(IC)252、照明源260、光検出器270、及びトランスインピーダンス増幅器(TIA)280が含まれる。これらの要素の各々は、要素間の機械的支持及び電気的接続を行う共通基板235(例えば、プリント回路基板)に取り付けられる。
照明源260は、電流パルス253に応答して、照明光262の測定パルスを放射する。いくつかの実施形態では、照明源260は、レーザーベース(例えば、レーザーダイオード)である。いくつかの実施形態では、照明源は、1つ以上の発光ダイオードに基づく。一般に、任意の適切なパルス照明源を考慮することができる。照明光262は、LIDAR測定装置104を出て、測定中の周囲の3次元環境内のオブジェクトから反射される。反射光の一部は、測定パルス262に関連する戻り測定光271として収集される。図6に示すように、統合LIDAR測定装置230から放射される照明光262とLIDAR測定装置に向けられた対応する戻り測定光271は、光路を共有する。
1つの態様では、照明光262は、LIDAR測定システム104の1つ以上のビーム成形光学要素263及びビーム走査装置264によって、周囲環境内の特定の場所に向けて集中的に投影される。さらなる態様では、戻り測定光271は、ビーム走査装置264及びLIDAR測定システム104の1つ以上のビーム成形光学要素263によって光検出器270に向けて集光される。ビーム走査装置は、ビーム整形光学系と測定環境との間の光路で使用される。ビーム走査装置は、3D・LIDARシステムの視野を効果的に拡大し、視野内のサンプリング密度を高める。
図6に示す実施形態において、ビーム走査装置264は、回転アクチュエータ265によって回転軸267の周りを回転する可動ミラー要素である。主制御装置290によって生成されたコマンド信号266は、主制御装置290から回転アクチュエータ265に伝達される。それに応答して、回転アクチュエータ265は、所定の運動プロファイルに従って可動ミラー要素264を走査する。
統合型LIDAR測定装置230には、アクティブなセンサー領域274を有する光検出器270が含まれる。図6に示すように、照明源160は、光検出器のアクティブ領域274の視野の外側に配置される。図6に示すように、オーバーモールドレンズ272が光検出器270の上に取り付けられている。オーバーモールドレンズ272には、戻り光271の光線受け入れ円錐と対応する円錐空洞が含まれる。照明源260からの照明光262は、ファイバ導波管によって検出器受信コーンに導かれる。光カプラは、照明源260とファイバ導波路とを光学的に結合する。ファイバ導波路の端部では、ミラー要素261は、導波路に対して45度の角度に傾けられ、照明光262を戻り光の円錐271に導く。1つの実施形態では、ファイバ導波路の端面は45度の角度で切断され、端面は高反射性誘電体コーティングでコーティングされて鏡面を提供する。いくつかの実施形態では、導波路には、長方形のガラスコアと、より低い屈折率のポリマークラッディングとが含まれる。いくつかの実施形態では、光学アセンブリ全体が、ポリマークラッディングの屈折率と厳密に一致する屈折率を有する材料でカプセル化される。このようにして、導波路は、最小限のオクルージョンで照明光262を戻り光の受容コーン271に導く。
検出器270のアクティブ検知領域274上に投影された戻り光271のアクセプタンスコーン内の導波路の配置は、照明スポットと検出器の視野が遠視野で最大の重なりを確実に生じさせるように選択する。
図6に示すように、周囲環境から反射された戻り光271は、光検出器270によって検出される。いくつかの実施形態では、光検出器270はアバランシェフォトダイオードである。光検出器270は、アナログトランスインピーダンス増幅器(TIA)280によって増幅される出力信号273を生成する。しかしながら、一般に、出力信号273の増幅では、複数の増幅器段を有することができる。この意味で、他の多くのアナログ信号増幅の組み合わせをこの特許文書の技術的範囲内で考え付くことができるため、アナログトランスインピーダンス増幅器を、非限定的な例として提示する。TIA280が、受信機IC250とは別個のデバイスとして図6に示されるが、一般に、TIA280は、受信機IC250と統合することもできる。いくつかの実施形態では、スペースを節約し、信号汚染を低減するために、TIA280を受信機IC250と統合することが好ましい。
増幅された信号281は、戻り信号受信機IC250に伝達される。受信機IC250には、タイミング回路と、照明源260から3次元の反射オブジェクトへ行き、光検出器270に戻ってくる測定パルスの飛行時間を推定する時間・デジタル変換器とが含まれる。推定飛行時間を示す信号255は、さらなる処理及びLIDAR測定システム104のユーザーへの通信のために主制御装置290に伝達される。加えて、戻り信号受信機IC250は、ピーク値(すなわち、戻りパルス)を含む戻り信号281のセグメントをデジタル化し、デジタル化されたセグメントを示す信号256を主制御装置290に伝達するように構成される。いくつかの実施形態では、主制御装置290は、これらの信号セグメントを処理して、検出されたオブジェクトの特性を識別する。いくつかの実施形態では、主制御装置290は、さらなる処理のために信号256をLIDAR測定システム104のユーザーに伝達する。
主制御装置290は、統合LIDAR測定装置230の受信機IC250に伝達されるパルスコマンド信号291を生成するように構成される。パルスコマンド信号291は、主制御装置290によって生成されるデジタル信号である。従って、パルスコマンド信号291のタイミングは、主制御装置290に関連するクロックによって決定される。いくつかの実施形態では、パルスコマンド信号291は、照明ドライバIC252によるパルス生成及び受信機IC250によるデータ取得を始動させるために直接使用される。しかしながら、照明ドライバIC252及び受信機IC250は、主制御装置290と同じクロックを共有しない。この理由により、飛行時間の正確な推定は、パルスコマンド信号291をパルス生成及びデータ取得を始動させるために直接使用される場合、はるかに計算的に面倒になる。
一般に、LIDAR測定システムには、LIDARデバイスから各々が周囲環境に照明光パルスビームを放射し、周囲環境のオブジェクトから反射された戻り光を測定する、いくつかの異なる統合LIDAR測定装置230が含まれる。
これらの実施形態では、主制御装置290は、パルスコマンド信号291を別々の統合LIDAR測定装置に伝達する。このようにして、主制御装置290は、任意の数の統合されたLIDAR測定装置によって実行されるLIDAR測定のタイミングを調整する。さらなる態様では、ビーム成形光学素子263及びビーム走査装置264は、統合された各LIDAR測定装置に関連する照明パルス及び戻り測定パルスの光路にある。このようにして、ビーム走査装置264は、各照明パルスとLIDAR測定システム104の戻り測定パルスを導く。
図示の実施形態では、受信機IC250は、パルスコマンド信号291を受信し、パルスコマンド信号291に応答して、パルストリガ信号VTRG251を生成する。パルストリガ信号251は、照明ドライバIC252に伝達され、照明ドライバIC252をすぐに始動させて、照明源260を電源233に電気的に結合し、照明光262のパルスを生成させる。加えて、パルストリガ信号251は、戻り信号281のデータ取得及び関連する飛行時間計算をすぐに開始させる。このようにして、受信機IC250の内部クロックに基づいて生成されたパルストリガ信号251は、パルス生成と戻りパルスデータ取得の両方を開始させるために使用される。これにより、パルスの生成と戻りパルスの取得を正確に同期させることが保証され、時間からデジタルへの変換により正確な飛行時間の計算が可能になる。
図7は、統合型LIDAR測定装置230からの測定パルスの放射及び戻り測定パルスの捕捉に関連するタイミングの図を示す。図7に示すように、測定は、受信機IC250によって生成されたパルストリガ信号262の立ち上がりエッジによって開始される。図6及び7に示すように、増幅された戻り信号281は、受信機IC250によって受信される。前述のように、測定窓(すなわち、収集された戻り信号データが特定の測定パルスに関連付けられている期間)は、パルストリガ信号262の立ち上がりエッジでのデータ取得を可能にすることによって開始される。受信機IC250は、連続する測定パルスの放射に応答して戻り信号が予期されるときの時間窓に対応するように、測定窓Tmeasurementの持続時間を制御する。いくつかの実施例では、測定窓は、パルストリガ信号262の立ち上がりエッジで有効にされ、LIDARシステムの範囲の約2倍の距離にわたる光の飛行時間に対応する時間に無効にされる。このようにして、測定窓が開いて、LIDARシステムに隣接するオブジェクト(つまり、無視できる飛行時間)からの戻り光からLIDARシステムの最大範囲にあるオブジェクトからの戻り光までを収集する。このようにして、有用な戻り信号に寄与する可能性のない他のすべての光は排除される。
図7に示されるように、戻り信号281には、放射された測定パルスに対応する3つの戻り測定パルスが含まれる。一般に、信号検出は、検出されたすべての測定パルスに対して実行される。さらに、最も近い有効な信号281B(つまり、戻り測定パルスの最初の有効な事象)、最も強い信号、及び最も遠い有効な信号281C(つまり、測定窓における戻り測定パルスの最後の有効な事象)を識別するために、信号分析を実行することができる。これらの事象はいずれも、有効な距離測定値としてLIDARシステムから伝えることができる。
LIDARシステムからの光の放出に関連する内部システム遅延(例えば、スイッチング要素、エネルギー貯蔵要素、及びパルス発光装置に関連する信号通信遅延及び待ち時間)、及び光の収集と収集された光を示す信号の生成(例えば、増幅器の待ち時間、アナログデジタル変換遅延など)に関連する遅延は、光の測定パルスの飛行時間の推定における誤差の原因となる。したがって、パルストリガ信号143の立ち上がりエッジと各有効戻りパルス(すなわち、281B及び281C)との間の経過時間に基づく飛行時間の測定には、望ましくない測定誤差が入り込んでいる。いくつかの実施形態では、修正した実際の光の飛行時間の推定値を得るため、電子的な遅延を補正するために、較正済みの所定の遅延時間が採用されている。ただし、動的に変化する電子遅延に対して静的な補正を行うことには、精度に限界が生じる。頻繁に再キャリブレーションを行うこともできるが、これには計算の複雑さが伴い、システムの動作可能時間に悪影響を及ぼす。
別の態様では、受信機IC250は、照明源260と光検出器270との間の内部クロストークによる検出パルス281Aの検出と、有効な戻りパルス(例えば、281B及び281C)との間の経過時間に基づいて飛行時間を測定する。このようにして、システムに起因する遅延は飛行時間の推定から排除される。パルス281Aは、光の伝播距離が事実上存在しない内部クロストークによって生成される。したがって、パルストリガ信号の立ち上がりエッジからパルス281Aの検出の事象までの時間遅れは、照明及び信号検出に関連するシステムに起因する遅延のすべてを捕捉する。有効な戻りパルス(例えば、戻りパルス281B及び281C)の飛行時間を、検出されたパルス281Aを基準にして測定することにより、内部クロストークによる照明及び信号検出に関連するすべての、システムに起因する遅延が除去される。図7に示すように、戻りパルス281Aを基準として、受信機IC250は、戻りパルス281Bに関連する飛行時間TOFと、戻りパルス281Cに関連する飛行時間TOFとを推定する。
いくつかの実施形態では、信号分析は、受信機IC250によって完全に実行される。これらの実施形態では、統合LIDAR測定装置230から伝達される信号255には、受信機IC250によって決定された飛行時間の表示が含まれる。いくつかの実施形態では、信号256には、受信機IC250によって生成されたデジタル化されたセグメントが含まれる。この生の測定信号セグメントは、3D-LIDARシステム(例えば、プロセッサ295)に搭載された、又は3D-LIDARシステムの外部にある1つ以上のプロセッサによってさらに処理され、距離の別の推定値、検出されたオブジェクトの1つ以上の特性、又は反射率、強度、信頼性、又はそれらの組み合わせのような測定の推定値を取得する。
主制御装置290又は任意の外部コンピューティングシステムには、パーソナルコンピュータシステム、メインフレームコンピュータシステム、ワークステーション、画像コンピュータ、並列プロセッサ、又は当該技術分野で既知の任意の他のデバイスを含むことができるが、これらに限定されない。一般に、「コンピューティングシステム」という用語は、記憶媒体からの命令により1つ又は複数のプロセッサを実行する1つ以上のプロセッサを有する装置である。
本明細書に記載されているような方法を実行するプログラム命令292は、ワイヤ、ケーブル、又はワイヤレス伝送リンクのような伝送媒体を介して送信することができる。例えば、図6に示すように、メモリ291に格納されたプログラム命令292は、バス294を介してプロセッサ295に送信される。プログラム命令292は、コンピュータ読み取り可能媒体(例えば、メモリ291)に格納される。例示的なコンピュータ読み取り可能媒体には、読み取り専用メモリ、ランダムアクセスメモリ、磁気又は光ディスク、又は磁気テープが含まれる。
図8は、ここに記載されているようなLIDAR測定システムにより実行するのに適した方法200のフローチャートを示している。いくつかの実施形態では、LIDAR測定システム104は、図8に示される方法200に従って動作可能である。しかしながら、一般に、方法200の実行は、図1を参照して説明したLIDAR測定システム104の実施形態に限定されない。他の多くの実施形態及び動作例を提示することが可能なので、これらの図解及び対応する説明は、例示のために提供するものである。
ブロック201では、移動するLIDAR測定システムを用いて3次元環境で複数の点が測定される。
ブロック202では、時間的に連続する画像フレームが生成される。各画像フレームには、LIDAR測定システムにおける3次元環境での別の場所での測定にそれぞれ関連する複数の測定点が含まれる。複数の測定点の各測定には、LIDAR測定システムにおける測定点の位置の表示、及び測定における光学特性の表示が含まれる。
ブロック203では、直前の画像フレームにおける現在の画像フレームでのLIDAR測定システムの位置が推定される。
ブロック204では、第1の連続する小さな特徴マップのそれぞれの測定点を3D環境に固定された世界座標フレームに投影することにより、第1の大きな特徴マップが、第1の連続する小さな特徴マップから生成される。
ブロック205では、第2の連続する小さな特徴マップのそれぞれの測定点を3D環境に固定された世界座標フレームに投影することにより、第2の大きな特徴マップが、第2の連続する小さな特徴マップから生成される。第2の連続する小さな特徴マップは第1の連続する小さな特徴マップの直後に続くものである。
ブロック206では、世界座標フレームにおけるLIDAR測定システムの現在の位置は、第1の大きな特徴マップ及び第2の大きな特徴マップに基づき推定される。
本開示の全体にわたって説明した様々なステップは、単一のコンピュータシステム110によって、又は代替として、複数のコンピュータシステム110によって実行することができることを理解すべきである。さらに、LIDAR測定システム104の別のサブシステムには、ここで説明するステップの少なくとも一部を実行するのに適したコンピュータシステムを含めることができる。従って、前述の説明は、本発明を限定するものとして解釈すべきではなく、単なる例示として解釈すべきである。さらに、1つ以上のコンピューティングシステム110は、ここで説明するずれかの方法の実施形態の任意の他のステップを実行するように構成することができる。
加えて、コンピュータシステム110は、当該技術分野で知られている任意の方法でLIDAR測定システム104に通信可能に結合することができる。例えば、1つ以上のコンピューティングシステム110は、LIDAR測定システム104に関連するコンピューティングシステムに結合することができる。別の実施例では、統合LIDAR測定装置230は、コンピュータシステム110によって直接制御することができる。
コンピュータシステム110は、有線及び/又は無線部分を含むことができる伝送媒体によってLIDAR測定システム104からデータ又は情報を受信及び/又は取得するように構成することができる。このようにして、伝送媒体は、コンピュータシステム110とLIDAR測定システム104の他のサブシステムとの間のデータリンクとして機能することができる。
コンピュータシステム110は、有線及び/又は無線部分を含むことができる伝送媒体によって他のシステムからデータ又は情報(例えば、LIDAR測定結果、圧縮データセット、セグメント化データセット、特徴セット、等)を受信及び/又は取得するように構成することができる。このようにして、伝送媒体は、コンピュータシステム110と他のシステム(例えば、メモリ搭載LIDAR測定システム104、外部メモリ、又は外部システム)との間のデータリンクとして機能することができる。例えば、コンピューティングシステム110は、データリンクを介して記憶媒体(すなわち、メモリ113又はメモリ291)から測定データ(例えば、LIDAR画像情報105)を受信するように構成することができる。さらに、コンピュータシステム110は、伝送媒体を介して他のシステムにデータを送ることができる。例えば、コンピュータシステム110によって究明された特徴マップ及び位置情報は、永久的又は半永久的なメモリデバイス(例えば、メモリ114)に格納することができる。別の実施例では、マッピング情報109及び位置情報108は、車両コントローラ107に通信することができる。その際、測定結果を別のシステムにエクスポートすることもできる。
コンピューティングシステム110には、パーソナルコンピュータシステム、メインフレームコンピュータシステム、ワークステーション、画像コンピュータ、並列プロセッサ、又は当該技術分野で知られている任意の他のデバイスを含めることができるが、これらに限定されない。一般に、用語「コンピューティングシステム」は広く定義することができ、メモリ媒体からの命令を実行する1つ以上のプロセッサを有する任意のデバイスを含む。
本明細書に記載されているものなどの方法を実行するプログラム命令115は、ワイヤ、ケーブル、又はワイヤレス伝送リンクなどの伝送媒体を介して送信することができる。例えば、図1に示すように、メモリ113に格納されたプログラム命令は、バス112を介してプロセッサ111に送信される。プログラム命令115は、コンピュータ読み取り可能媒体(例えば、メモリ113)に格納される。例示的なコンピュータ読み取り可能媒体には、読み取り専用メモリ、ランダムアクセスメモリ、磁気又は光ディスク、又は磁気テープが含まれる。
1つ以上の例示的な実施形態では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせで実施することができる。ソフトウェアで実施される場合、機能は、コンピュータ読み取り可能媒体上の1つ以上の命令又はコードとして格納又は送信することができる。コンピュータ読み取り可能媒体には、コンピュータの記憶媒体と、ある場所から他の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体の両方が含まれる。記憶媒体は、汎用コンピュータ又は専用コンピュータがアクセスできる利用可能な任意の媒体とすることができる。限定するためではなく例示として、そのようなコンピュータ読み取り可能媒体には、RAM、ROM、EEPROM、CD-ROM又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶装置、又は、所望のプログラムコードを命令又はデータ構造の形式で持ち運び又は格納のために使用することができ、汎用コンピュータ又は専用コンピュータ、又は汎用プロセッサ又は専用プロセッサからアクセスすることができる他の媒体を含むことができる。また、すべての接続は、コンピュータ読み取り可能媒体と適切に称される。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、又は赤外線、ラジオ波、マイクロ波のような無線技術を使用して、Webサイト、サーバ、又はその他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、ラジオ波、マイクロ波のような無線技術が媒体の定義に含まれる。ここで使用されるディスク及び磁気ディスクには、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピーディスク、及びブルーレイディスクが含まれ、ここで、通常、磁気ディスクは磁気的にデータを再生するものであり、ディスクはレーザーで光学的にデータを再生するものである。これらの組み合わせもコンピュータ読み取り可能媒体の範囲内に含まれる。
特定の実施形態を説明目的のために上述の通り説明したが、この特許文書の教示は一般的な利用可能性を示し、上記の特定の実施形態に限定することを意味しない。したがって、特許請求の範囲に記載された本発明の範囲から逸脱することなく、説明した実施形態の様々な特徴の様々な修正、改変、及び組み合わせを実施することができる。

Claims (12)

  1. 複数のLIDAR測定装置であって、それぞれが、
    電源と電気的に結合しているときに照明光の測定パルスを放射する照明源と、
    前記照明源及び第1の電源と電気的に結合している照明ドライバであって、前記照明ドライバのICは、パルストリガ信号に応答して前記照明源を前記電源に選択的に電気的に結合させるよう構成されている、照明ドライバと、
    照明光の前記測定パルスに応答して3次元環境(3D環境)における点から反射した戻り光を検出する光検出器と、
    時間をかけて検出された前記戻り光を示す戻り信号を生成する戻り信号受信機と、
    を具備することを特徴とする複数のLIDAR測定装置と、
    時間的に連続する画像フレームを同時的な位置特定及びマッピングエンジンに伝達するよう構成された主制御装置であって、前記画像フレームには別々の複数の測定点が含まれ、各測定点には、LIDAR測定システムにおける前記それぞれの測定点の位置の推定及び前記それぞれの測定点の光学特性が含まれることを特徴とする主制御装置と、
    を具備し、
    前記同時的な位置特定及びマッピングエンジンは、
    複数の小さな特徴マップを生成し、各小さな特徴マップは前記時間的に連続する画像フレーム中のそれぞれの画像フレームに対応し、前記それぞれの画像フレームから抽出した1つ以上特徴点を含むものであり、各小さな特徴マップは(i)前記それぞれの画像フレーム中の複数の測定点をセグメント化しクラスタ化し、その後(ii)前記それぞれの画像フレームから1つ以上の特徴点を抽出することで生成され、前記セグメント化は、特徴抽出の前に冗長データ点を除去することを伴うことを特徴とし、
    直前の画像フレームにおける現在の画像フレームでのLIDAR測定システムの第1の位置を推定し、
    第1の連続する小さな特徴マップの特徴点を前記3D環境に固定された世界座標フレームに投影することにより、第1の大きな特徴マップを、前記第1の連続する小さな特徴マップから生成し、
    第2の連続する小さな特徴マップの特徴点の各々を前記3D環境に固定された世界座標フレームに投影することにより、第2の大きな特徴マップを前記第2の連続する小さな特徴マップから生成し、前記第2の連続する小さな特徴マップは前記第1の連続する小さな特徴マップの直後に続くことを特徴とし、
    前記世界座標フレームにおける前記LIDAR測定システムの第2の位置を、前記第1の大きな特徴マップ及び前記第2の大きな特徴マップに基づき推定することを特徴とする、
    LIDAR測定システム。
  2. 前記同時的な位置特定及びマッピングエンジンはさらに、
    前記LIDAR測定システムの前記第2の位置及び前記LIDAR測定システムの前記第1の位置に基づき、前記世界座標フレームにおける前記LIDAR測定システムの第3の位置の推定を行うよう構成されていることを特徴とする、請求項1に記載のLIDAR測定システム。
  3. 前記それぞれの画像フレーム中の前記複数の測定点をセグメント化するステップは、前記それぞれの画像フレーム中の複数の測定点を、さらなる分析のために保持される第1の測定点のグループと、さらなる分析のために保持されない第2の測定点のグループとに分割するステップを具備することを特徴とする、請求項1に記載のLIDAR測定システム。
  4. 前記それぞれの画像フレーム中の複数の測定点をクラスタ化するステップは、前記それぞれの画像フレームに関連する測定点の前記第1のグループを、測定点の前記第1のグループのピクセル値に基づき1つ以上のサブグループにクラスタ化するステップを具備することを特徴とする、請求項3に記載のLIDAR測定システム。
  5. 前記それぞれの画像フレームから1つ以上の特徴点を抽出するステップは、前記それぞれの画像フレームに関連する測定点の前記第1のグループから、測定点の前記第1のグループの各々の光学特性に基づいて1つ以上の特徴点を識別するステップを具備することを特徴とする請求項4に記載のLIDAR測定システム。
  6. 前記それぞれの測定点の前記光学特性には、前記それぞれの測定点の反射率、前記それぞれの測定点からの戻り光の強度、前記それぞれの測定点の測定の信頼性、又はそれらの任意の組み合わせが含まれることを特徴とする請求項1に記載のLIDAR測定システム。
  7. 移動するLIDAR測定システムを用いて3次元環境(3D環境)で複数の点を測定するステップと、
    時間的に連続する画像フレームを生成するステップであって、前記画像フレームの各々には、LIDAR測定システムにおける3次元環境内の別の位置の測定にそれぞれ関連する複数の測定点が含まれ、各測定には、LIDAR測定システムにおける測定点の位置の表示、及び前記測定点における光学特性の表示が含まれることを特徴とするステップと、
    複数の小さな特徴マップを生成するステップであって、各小さな特徴マップは前記時間的に連続する画像フレーム中のそれぞれの画像フレームに対応し、前記それぞれの画像フレームから抽出した1つ以上特徴点を含むものであり、各小さな特徴マップは(i)前記それぞれの画像フレーム中の複数の測定点をセグメント化しクラスタ化し、その後(ii)前記それぞれの画像フレームから1つ以上の特徴点を抽出することで生成され、前記セグメント化は、特徴抽出の前に冗長データ点を除去することを伴うことを特徴とするステップと、
    直前の画像フレームにおける現在の画像フレームでの前記LIDAR測定システムの位置を推定するステップと、
    第1の連続する小さな特徴マップのそれぞれの特徴点を前記3D環境に固定された世界座標フレームに投影することにより、前記第1の連続する小さな特徴マップから第1の大きな特徴マップを生成するステップと、
    第2の連続する小さな特徴マップのそれぞれの特徴点を前記3D環境に固定された世界座標フレームに投影することにより、前記第2の連続する小さな特徴マップから第2の大きな特徴マップを生成するステップであって、前記第2の連続する小さな特徴マップは前記第1の連続する小さな特徴マップの直後に続くものであることを特徴とするステップと、
    前記第1の大きな特徴マップ及び前記第2の大きな特徴マップに基づき、
    前記世界座標フレームにおける前記LIDAR測定システムの現在の位置を推定するステップと、
    を具備する方法。
  8. 前記LIDAR測定システムの第2の位置に基づき、前記世界座標フレームにおける前記LIDAR測定システムの第3の位置を推定するステップ、
    をさらに具備することを特徴とする請求項7に記載の方法。
  9. 前記それぞれの画像フレーム中の前記複数の測定点をセグメント化するステップは、前記それぞれの画像フレーム中の前記複数の測定点を、さらなる分析のために保持される測定点の第1のグループと、さらなる分析のために保持されない測定点の第2のグループとに分割するステップを具備することを特徴とする請求項7に記載の方法。
  10. 前記それぞれの画像フレーム中の前記複数の測定点をクラスタ化するステップは、前記それぞれの画像フレームに関連する前記測定点の第1のグループを1つ以上のサブグループにクラスタ化するステップを具備することを特徴とする請求項9に記載の方法。
  11. 前記それぞれの画像フレームから1つ以上の特徴点を抽出するステップは、前記それぞれの画像フレームに関連する前記測定点の第1のグループから、測定点の前記第1のグループの各々の光学特性に基づき、1つ以上の特徴点を識別するステップを具備することを特徴とする請求項10に記載の方法。
  12. 前記それぞれの測定点の前記光学特性には、前記それぞれの測定点の反射率、前記それぞれの測定点からの戻り光の強度、前記それぞれの測定点の測定の信頼性、又はそれらの任意の組み合わせが含まれることを特徴とする請求項7に記載の方法。
JP2020515223A 2017-09-13 2018-09-13 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング Active JP7361682B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762558256P 2017-09-13 2017-09-13
US62/558,256 2017-09-13
US16/130,610 US11821987B2 (en) 2017-09-13 2018-09-13 Multiple resolution, simultaneous localization and mapping based on 3-D LIDAR measurements
US16/130,610 2018-09-13
PCT/US2018/050934 WO2019055691A1 (en) 2017-09-13 2018-09-13 MULTI-RESOLUTION SIMULTANEOUS LOCATION AND MAPPING BASED ON LIDAR 3D MEASUREMENTS

Publications (2)

Publication Number Publication Date
JP2020533601A JP2020533601A (ja) 2020-11-19
JP7361682B2 true JP7361682B2 (ja) 2023-10-16

Family

ID=65630991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515223A Active JP7361682B2 (ja) 2017-09-13 2018-09-13 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング

Country Status (6)

Country Link
US (2) US11821987B2 (ja)
EP (1) EP3665507A4 (ja)
JP (1) JP7361682B2 (ja)
KR (1) KR20200098480A (ja)
CN (1) CN111492265B (ja)
WO (1) WO2019055691A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160267669A1 (en) * 2015-03-12 2016-09-15 James W. Justice 3D Active Warning and Recognition Environment (3D AWARE): A low Size, Weight, and Power (SWaP) LIDAR with Integrated Image Exploitation Processing for Diverse Applications
JP6772944B2 (ja) * 2017-04-19 2020-10-21 トヨタ自動車株式会社 自動運転システム
CN110021072B (zh) * 2019-04-03 2020-08-07 武汉大学 面向全息测绘的多平台点云智能处理方法
DE102019207448A1 (de) * 2019-05-21 2020-11-26 Robert Bosch Gmbh Simultane Lokalisierung und Kartenerstellung in 2D unter Verwendung eines 3D-Scanners
CN110175576B (zh) * 2019-05-29 2022-09-16 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
EP3819673A4 (en) * 2019-09-12 2021-07-21 Huawei Technologies Co., Ltd. POSITIONING METHOD, DEVICE AND SYSTEM
US11262759B2 (en) * 2019-10-16 2022-03-01 Huawei Technologies Co., Ltd. Method and system for localization of an autonomous vehicle in real time
US11252366B2 (en) * 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
WO2021181686A1 (ja) * 2020-03-13 2021-09-16 学校法人 千葉工業大学 自己位置推定装置
CN111340136B (zh) * 2020-03-17 2020-10-13 飞燕航空遥感技术有限公司 机载激光雷达点云中建筑物点分类扩张方法和系统
CN112654883B (zh) * 2020-03-25 2022-05-31 华为技术有限公司 一种雷达目标聚类方法及装置
US11354547B2 (en) 2020-03-31 2022-06-07 Toyota Research Institute, Inc. Systems and methods for clustering using a smart grid
CN112068155B (zh) * 2020-08-13 2024-04-02 沃行科技(南京)有限公司 一种基于多个多线激光雷达分区障碍物检测方法
US20230182294A2 (en) * 2020-10-21 2023-06-15 Divergent Technologies, Inc. 3-d printed metrology feature geometry and detection
US11841439B2 (en) * 2020-11-02 2023-12-12 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
US12050267B2 (en) 2020-11-09 2024-07-30 Waymo Llc Doppler-assisted object mapping for autonomous vehicle applications
CN112406964B (zh) * 2020-11-10 2022-12-02 北京埃福瑞科技有限公司 一种列车定位方法及系统
TWI768548B (zh) * 2020-11-19 2022-06-21 財團法人資訊工業策進會 定位用基礎資訊產生系統與方法以及自身定位判斷裝置
KR102417711B1 (ko) * 2020-12-08 2022-07-05 국민대학교산학협력단 객체 검출 장치 및 방법
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
CN113778078A (zh) * 2021-03-05 2021-12-10 北京京东乾石科技有限公司 定位信息生成方法、装置、电子设备和计算机可读介质
TWI767601B (zh) * 2021-03-10 2022-06-11 廣達電腦股份有限公司 用於室內定位、成像、偵測、姿勢判別、形狀判別的電子裝置及方法
CN113312440B (zh) * 2021-05-21 2022-11-08 浙江商汤科技开发有限公司 地图构建方法、装置、电子设备、计算机可读存储介质
CN113298044B (zh) * 2021-06-23 2023-04-18 上海西井信息科技有限公司 基于定位补偿的障碍物检测方法、系统、设备及存储介质
US12025747B2 (en) 2021-08-04 2024-07-02 Atieva, Inc. Sensor-based control of LiDAR resolution configuration
US20230298198A1 (en) * 2022-03-18 2023-09-21 Motional Ad Llc Light-based object localization
CN114895288B (zh) * 2022-05-10 2022-11-15 哈尔滨方聚科技发展有限公司 三维场景的激光回波生成系统
CN114755693B (zh) * 2022-06-15 2022-09-16 天津大学四川创新研究院 基于多旋翼无人机的基建设施测量系统和方法
CN115166757B (zh) * 2022-07-25 2023-08-01 珠海市睿特光电技术有限公司 激光雷达实际探测距离测量的方法、系统及存储介质
CN116630411B (zh) * 2023-07-26 2023-09-29 湖南睿图智能科技有限公司 基于融合感知的矿用电铲物料面识别方法、装置及系统
CN117471433B (zh) * 2023-12-28 2024-04-02 广东威恒输变电工程有限公司 基于高反射强度标靶的施工机械激光点云实时提取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140350839A1 (en) 2013-05-23 2014-11-27 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
JP2017116445A (ja) 2015-12-25 2017-06-29 トヨタ自動車株式会社 物体検出装置
US20170248963A1 (en) 2015-11-04 2017-08-31 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2041515A4 (en) * 2006-07-13 2009-11-11 Velodyne Acoustics Inc HIGH DEFINITION LIDAR SYSTEM
EP2399150B1 (en) * 2009-02-20 2020-10-07 StereoVision Imaging, Inc. System and method for generating three dimensional images using lidar and video measurements
US8675181B2 (en) 2009-06-02 2014-03-18 Velodyne Acoustics, Inc. Color LiDAR scanner
US8476571B2 (en) 2009-12-22 2013-07-02 Siemens Aktiengesellschaft SiPM photosensor with early signal digitization
EP3786668A1 (en) 2010-05-17 2021-03-03 Velodyne Lidar, Inc. High definition lidar system
JP5897517B2 (ja) 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
KR102136401B1 (ko) * 2013-10-21 2020-07-21 한국전자통신연구원 다-파장 이미지 라이다 센서장치 및 이의 신호처리 방법
US9286538B1 (en) * 2014-05-01 2016-03-15 Hrl Laboratories, Llc Adaptive 3D to 2D projection for different height slices and extraction of robust morphological features for 3D object recognition
US9759809B2 (en) 2014-07-08 2017-09-12 Sikorsky Aircraft Corporation LIDAR-based shipboard tracking and state estimation for autonomous landing
EP3078935A1 (en) 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
GB2543749A (en) * 2015-10-21 2017-05-03 Nokia Technologies Oy 3D scene rendering
US10401852B2 (en) * 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US10627490B2 (en) * 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
CN110402399B (zh) * 2017-01-03 2023-07-18 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140350839A1 (en) 2013-05-23 2014-11-27 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
US20170248963A1 (en) 2015-11-04 2017-08-31 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
JP2017116445A (ja) 2015-12-25 2017-06-29 トヨタ自動車株式会社 物体検出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAVANMARDI, E. 外3名,"Autonomous vehicle self-localization based on multilayer 2D vector map and multi-channel LiDAR",2017 IEEE Intelligent Vehicles Symposium (IV),2017年07月31日,Pages 437-442,< doi: 10.1109/IVS.2017.7995757 >
KWON, Hyukseong 外2名,"Building 3D visual maps of interior space with a new hierarchical sensor fusion architecture",ROBOTICS AND AUTONOMOUS SYSTEMS,2013年05月09日,Volume 61,Pages 749-767,<URL: http://dx.doi.org/10.1016/j.robot.2013.04.016 >

Also Published As

Publication number Publication date
US11821987B2 (en) 2023-11-21
CN111492265A (zh) 2020-08-04
EP3665507A1 (en) 2020-06-17
WO2019055691A1 (en) 2019-03-21
KR20200098480A (ko) 2020-08-20
US20240036207A1 (en) 2024-02-01
US20190079193A1 (en) 2019-03-14
JP2020533601A (ja) 2020-11-19
CN111492265B (zh) 2024-03-26
EP3665507A4 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
JP7361682B2 (ja) 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング
US11874377B2 (en) Multiple pixel scanning LIDAR
US20230042797A1 (en) Lidar based distance measurements with tiered power control
CN108920584B (zh) 一种语义栅格地图生成方法及其装置
CN112513679B (zh) 一种目标识别的方法和装置
CN109214348A (zh) 一种障碍物检测方法、装置、设备及存储介质
JP2004530144A (ja) 画像情報を提供する方法
CN113160327A (zh) 一种点云补全的实现方法和系统
CN113768419B (zh) 确定扫地机清扫方向的方法、装置及扫地机
WO2022141116A1 (zh) 三维点云分割方法和装置、可移动平台
EP3465249A1 (en) Multiple pixel scanning lidar
EP3862787A1 (en) De-jitter of point cloud data for target recognition
Chen et al. Exploring the effect of 3D object removal using deep learning for LiDAR-based mapping and long-term vehicular localization
KR20230109406A (ko) 열화상 카메라와 라이다 센서 융합 기반 객체 탐지 장치 및 방법
CN113433566A (zh) 地图建构系统以及地图建构方法
CN116129669B (zh) 一种基于激光雷达的车位测评方法、系统、设备及介质
JPH11183142A (ja) 三次元画像撮像方法及び三次元画像撮像装置
Chu et al. Removing past data of dynamic objects using static Velodyne LiDAR sensor
CN117539234A (zh) 一种基于路标的定位成功判断方法、芯片及机器人
CN116129669A (zh) 一种基于激光雷达的车位测评方法、系统、设备及介质
Hofmann-Wellenhof et al. Image-based navigation
CN115752434A (zh) 一种定位方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150