JP6821712B2 - 自然光景中での統合センサの較正 - Google Patents

自然光景中での統合センサの較正 Download PDF

Info

Publication number
JP6821712B2
JP6821712B2 JP2018566375A JP2018566375A JP6821712B2 JP 6821712 B2 JP6821712 B2 JP 6821712B2 JP 2018566375 A JP2018566375 A JP 2018566375A JP 2018566375 A JP2018566375 A JP 2018566375A JP 6821712 B2 JP6821712 B2 JP 6821712B2
Authority
JP
Japan
Prior art keywords
point group
group data
point
vehicle
normal vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018566375A
Other languages
English (en)
Other versions
JP2020528134A (ja
Inventor
シャオリン チュー
シャオリン チュー
テン マー
テン マー
Original Assignee
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド, ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド filed Critical ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Publication of JP2020528134A publication Critical patent/JP2020528134A/ja
Application granted granted Critical
Publication of JP6821712B2 publication Critical patent/JP6821712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本開示は、センサの較正のための方法およびシステムに関し、さらに具体的には、光検知および測距(LiDAR:Light Detection And Ranging)およびナビゲーションセンサの較正のための方法およびシステムに関する。
自律運転技術は、正確なマップに大きく依存する。例えば、ナビゲーションマップの精度は、測位、環境認識(ambience recognition)、決定、および制御など、自律運転車両の機能のために不可欠である。高解像度のマップは、車両が走行中に車両上の様々なセンサおよび検知器によって取得されたデータを集成すること(aggregating)によって得ることができる。例えば、高解像度マップのための一般的なデータ取得システムは、通常、車両が走行している道路および周辺物体の特徴をキャプチャするための、LiDARなどの多重統合センサ、全地球測位システム(GPS:global positioning system)レシーバ、慣性計測ユニット(IMU:inertial measurement unit)センサ、および1つ以上のカメラをも備える車両である。キャプチャされるデータは、例えば、建物、別の車両、道路標識、歩行者、または交通信号などの物体の座標および画像、レーンのセンターラインまたは境界ラインを含んでよい。
統合センサによって取得されるポイント群データ(point cloud data)は、センサ自体による誤差(例えば、レーザ測距誤差、GPS測位誤差、IMU姿勢計測誤差など)のみならず、LiDARユニットとナビゲーションユニット(例えば、GPS/IMUユニット)との統合による統合化誤差によって影響される可能性がある。この統合化誤差は、LiDARユニットとナビゲーションユニットとの非平行な座標軸に起因する搭載角度誤差、およびLiDARの中心とGPSアンテナの中心との間のオフセットに起因する搭載ベクトル誤差を含み得る。そのため、ポイント群データの精度を向上するために、統合されたLiDARおよびナビゲーションのシステムの較正が重要となる。
既存の統合センサの較正方法は、センサ較正のための専用の人為的な較正ターゲット(artificial calibration targets)を使用する。例えば、専用の較正設備は、較正データを収集するための特殊な仕方で配置された人為的な較正ターゲットを備えて構築される必要がある。これらの方法は、較正ターゲットの設計および配置に対する特定の要求事項によって、較正の効率およびフレキシビリティを制限している。別の較正アプローチは、自然光景中での平面状物体から較正データを取得しようと試み、これは、各ポイントから、それの周辺のポイント群で構築された近傍の面への距離を数量化し、次いでそのポイントのこの距離の値を最適化することによって較正が行われる。しかしながら、自然光景中には、様々な動く物体(例えば、他の車両)および静的な非平面状物体(non-planar objects)(例えば、植物)が存在し、これらのポイント群データは、非共平面性データ(non-coplanar data)として較正の精度を低下させる可能性があり、これにより、自然光景に基づくこの較正方法の応用を限定する。
本開示の諸実施形態は、自然光景中での統合センサの較正のための改良された方法およびシステムによって、上記の問題に対処する。
本開示の諸実施形態は、複数のセンサを較正するための方法を提供する。本方法は、車両に関連付けられた複数のセンサによって、車両が軌道(trajectory)に沿って走行しているときに、少なくとも1つの周辺物体を示すポイント群データのセットをキャプチャするステップを含むことが可能である。本方法は、プロセッサによって、ポイント群データのセットに関連付けられた共平面性(coplanarity)に基づいて、該ポイント群データのセットをフィルタ処理するステップを含むことも可能である。本方法は、プロセッサによって、フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、複数のセンサの少なくとも1つの較正パラメータを調整するステップをさらに含むことが可能である。このモデルは、該ポイント群データのセットに関連付けられた共平面性に対応するウェイトを含んでよい。
さらに、本開示の諸実施形態は、複数のセンサを較正するためのシステムを提供する。本システムは、車両に関連付けられ、車両が軌道に沿って走行しているときに少なくとも1つの周辺物体を示すポイント群データのセットをキャプチャするように構成された複数のセンサを含むことが可能である。本システムは、ポイント群データのセットに関連付けられた共平面性に基づいて、該ポイント群データのセットをフィルタ処理するように構成されたプロセッサを含むことも可能である。このプロセッサは、フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、複数のセンサの少なくとも1つの較正パラメータを調整するようさらに構成することが可能である。このモデルは、該ポイント群データのセットに関連付けられた共平面性に対応するウェイトを含んでよい。
本開示の諸実施形態は、格納された命令を有する非一時的コンピュータ可読媒体をさらに提供し、該命令は、1つ以上のプロセッサによって実行されると、該1つ以上のプロセッサに諸オペレーションを実行させる。これらオペレーションは、車両が軌道に沿って走行しているときに、車両に関連付けられた複数のセンサによってキャプチャされた少なくとも1つの周辺物体を示すポイント群データのセットを受信するステップを含むことが可能である。これらオペレーションは、ポイント群データのセットに関連付けられた共平面性に基づいて、該ポイント群データのセットをフィルタ処理するステップを含むことも可能である。これらオペレーションは、フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、複数のセンサの少なくとも1つの較正パラメータを調整するステップをさらに含むことが可能である。このモデルは、該ポイント群データのセットに関連付けられた共平面性に対応するウェイトを含む。
当然のことながら、前述の概略的な説明および以降の詳細な説明は、例示的な説明のためだけのものであって、請求される本発明を限定するものではない。
本開示の諸実施形態による、諸センサを有する例示的な車両の概略図を示す。 本開示の諸実施形態による、諸センサを較正するための、自然光景中の例示的な較正ターゲットおよび車両軌道を示す。 本開示の諸実施形態による、諸センサを較正するための、例示的なコントローラのブロック図を示す。 本開示の諸実施形態による、異なるスケールでの法線ベクトルの差を計算する例示的な方法を示す。 本開示の諸実施形態による、ポイント群データをフィルタ処理するための例示的な方法のデータフローチャートを示す。 本開示の諸実施形態による、センサ較正の前と後との同じ物体の例示的なポイント群を示す。 本開示の諸実施形態による、複数のセンサを較正するための例示的な方法のフローチャートを示す。
以降に、例示的な諸実施形態を詳しく参照する。これら実施形態の例が添付の図面に示されている。図面全体を通して、可能な限り、同じまたは類似の部分を指すために同じ参照符号が用いられている。
図1は、本開示の諸実施形態による、複数のセンサ140および150を有する例示的な車両100の概略図を示す。いくつかの実施形態によれば、車両100は、高解像度のマップまたは三次元(3−D)都市モデリングを構築するためのデータを取得するように構成された調査車両であってよい。車両100は、電気車両、燃料電池車両、ハイブリッド車両、または従来型の内燃エンジン車両であってよいと考えられる。車両100は、車体110および少なくとも1つの車輪120を有することができる。車体110は、スポーツ車両、クーペ、セダン、ピックアップトラック、ステーションワゴン、スポーツ用多目的車両(SUV:sports utility vehicle)、ミニバン、またはコンバージョンバンなど任意の車体スタイルであってよい。いくつかの実施形態において、車両100は、図1に示されるように、前輪の対および後輪の対を含むことができる。但し、車両100が、上記より少ない車輪、または車両100が動き回ることができる等価の構造を有してもよいと考えられる。車両100は、全輪駆動(AWD:all wheel drive)、前輪駆動(FWR:front wheel drive)、または後輪駆動(RWD:rear wheel drive)であるように構成されてよい。いくつかの実施形態において、車両100は、車両に乗った運転者によって、遠隔制御で、および/または自律的に運転されるように構成されてよい。
図1に示されるように、車両100には、搭載構造体130を介して車体110に搭載された様々なセンサ140および150を備えることが可能である。搭載構造体130は、車両100の車体110に設置された、または別途に取り付けられた電気機械デバイスとすることができる。いくつかの実施形態において、搭載構造体130には、ネジ、接着剤、または別の搭載メカニズムが使用されてよい。
いくつかの実施形態によれば、センサ140および150は、車両100が軌道に沿って走行しているときにデータをキャプチャするように構成することができる。例えば、センサ140は、周辺をスキャンしてポイント群を取得するように構成されたLiDARスキャナであってよい。LiDARは、ターゲットにパルスレーザ光を照射し、センサによって反射されたパルスを測定することによって、そのターゲットへの距離を測定する。次いで、レーザの戻り時間および波長の差を使って、該ターゲットのデジタル3−D表現を作成することができる。LiDARスキャンに使われる光は、紫外線、可視光線、または近赤外線であってよい。狭細なレーザビームは物理的形体を非常に高い解像度でマップできるので、LiDARスキャナは高解像度のマップ探査に特に適している。いくつかの実施形態において、LiDARスキャナがポイント群をキャプチャすることができる。センサ140は、車両100が軌道に沿って走行しているとき、データを継続的にキャプチャすることが可能である。或る特定の時間幅内にキャプチャされた光景データの各セットは、データフレームとして知られている。
いくつかの実施形態において、センサ140は、LiDARスキャナと、デジタル画像を撮るように構成された3−Dカメラとの組合せを含むことができる。車両100が軌道に沿って走行しているときに、デジタル画像およびポイント群の両方が取得される。LiDARスキャナから得られたポイント群は、次いで、リアルに見える3−Dモデルを生成するために、当該スキャナの位置からスキャンされた領域を撮ったデジタル画像と後で整合されてよい。例えば、ポイント群中の各ポイントには、そのポイントを生成したレーザビームと同じ角度に位置する、撮込み画像からの画素の色を付与することができる。
図1に示されるように、車両100は、センサ150をさらに備えることが可能であり、該センサは、GPSレシーバおよび1つ以上のIMUセンサなど、ナビゲーションユニット中に使われるセンサであってよい。GPSは、GPSレシーバに地理位置情報および時間情報を提供する全地球ナビゲーション衛星システムである。IMUは、加速度計、およびジャイロスコープなどの様々な慣性センサ、また時として磁力計用いて、車両の特定力、角速度、および時として車両周辺の磁界を測定し提供する電子デバイスである。GPSレシーバおよびIMUセンサを組合せることによって、センサ150は、車両100が走行しているときに、各タイムスタンプでの、車両100の位置および方位(例えば、オイラー角)を含む、該車両のリアルタイムのポーズ情報(pose information)を提供することができる。
いくつかの実施形態において、センサ140のLiDARユニットによって取得されたポイント群データは、当初は、そのLiDARユニットのローカル座標系にあってよいが、その後の処理のため、地球座標系(global coordinate system)(例えば、経度/緯度座標)に変換される必要があり得る。ナビゲーションユニットのセンサ150によって収集された車両100のリアルタイムのポーズ情報は、例えば、各ポイントが取得されたときの車両100のポーズに基づくポイント群データの位置合わせ(registration)によって、該ポイント群データをローカル座標系から地球座標系に変換するために用いることができる。ポイント群データを一致するリアルタイムポーズ情報と位置合わせする(register)ために、センサ140と150とは、群ポイントデータがそれらが収集されたときのポーズ情報との位置合わせによって配列される(aligned)ことが可能になるように統合感知システムとして統合化されてよい。この統合感知システムは、以下に限らないがセンサ140および150の搭載角度誤差および搭載ベクトル誤差を含め、統合化誤差を低減するために、較正ターゲットに対して較正されることが可能である。統合化の較正を通して、LiDARユニットおよびナビゲーションユニットの搭載角度、LiDARの中心とGPSレシーバアンテナの中心とのオフセットなど、1つ以上のセンサ較正パラメータを最適化することができる。
例えば、図2は、本開示の諸実施形態による、センサ140および150を較正するための、自然光景中の例示的な較正ターゲットおよび車両の軌道を示す。この較正は、自然環境の中で行うことができ、いかなる専用の人為的な較正ターゲットに頼らずともよく、しかして、既存のシステムおよび方法に比べ、全自動化、高いフレキシビリティおよび効率など様々な利点を有する。
空中写真画像(aerial view image)210に示されるように、車両(例えば、車両100)上に備えられた統合センサ(例えば、センサ140および150)を、その中で較正することが可能な自然光景は、動く物体(例えば、他の車両、歩行者、動物等)、および静的な物体(例えば、建物、植物、道路、街灯、交通標識、交通信号機等)など、様々な周辺物体を含み得る。静的な物体は、平面状物体(例えば、壁または道路)もしくは非平面状物体(例えば、植物)であり得る。いくつかの実施形態において、壁および道路など静的な平面状の物体である周辺物体を、較正ターゲットとして識別することが可能である。車両100が軌道を走行しているときに、車両100の統合センサによって、ポイント群データおよびポーズ情報など較正ターゲットを示すデータがキャプチャされてよい。いくつかの実施形態において、動く物体(例えば、車両および歩行者)または静的な非平面状物体(例えば、植物)である周辺物体は、較正ターゲットとして回避することができる。センサ較正のため使われる自然光景の選択は、当該光景中の適切な較正ターゲット(すなわち、静的な平面状の物体)および不適切な較正ターゲット(すなわち、動く物体および静的な非平面状の物体)の存在または数に基づいてよい。例えば、より多くの数の動く物体(例えば、5つより多い動く物体)を含む光景は、センサの較正に使わないようにすることができる。例えば、空中写真画像210は、主として(壁を備えた)建物および道路を含んでいて、センサ較正に適した自然光景を示している。
本開示によれば、車両100は、識別された周辺物体(すなわち、較正ターゲット)を示すデータをキャプチャしながら軌道に沿って走行することができる。いくつかの実施形態において、法線ベクトルの正確な計算(後で詳しく説明する)を確実にするために、車両100は、同じ軌道沿いに繰り返し走行し、走行しながら車両100のオイラー角を変化させることが可能である。例えば、この軌道は任意でよいが、LiDARユニットの横方向および縦方向のオフセットが検出できるように、ヨー(yaw)の変化を含み得る。空中写真画像210中で、車両100は、ポイント群データのセット、および車両100が該ポイント群データを収集する際の該車両100のリアルタイムのポーズ情報(例えば、時間、位置、および方位)など、建物の壁を示すデータを収集するため、8字形状の軌道212に沿って繰り返し走行している。風景写真画像220は、較正ターゲットとして識別された周辺の建物の壁を示す。
図1に戻って参照すると、本開示によれば、車両100は、センサ較正パラメータを最適化し、しかして統合化誤差を低減し、取得されたデータの精度を向上させるために、統合センサ140および150を較正するため、車両100の車体110中にローカルコントローラ160を含むか、または遠隔のコントローラ(図1には示さず)と通信することができる。例えば、図3は、本開示の諸実施形態による、センサ140および150を較正するための例示的なコントローラ300のブロック図を示す。本開示によれば、センサ140および150の較正パラメータ301は、センサ140によってキャプチャされたポイント群データ303のセットに基づいて、最適値に向け調整することが可能である。
いくつかの実施形態において、図3に示されるように、コントローラ300は、通信インターフェース302、プロセッサ304、メモリ306、およびストレージ308を含むことができる。いくつかの実施形態では、コントローラ300は、集積回路(IC:integrated circuit)チップ(特定用途向け集積回路(ASIC:application−specific integrated circuit)、もしくはフィールドプログラマブルゲートアレイ(FPGA:field−programmable gate array)として実装される)など、単一のデバイス中に、または専用機能を備えた個別のデバイス群中に、各種のモジュールを有することが可能である。いくつかの実施形態において、コントローラ300の1つ以上のコンポーネントは、車両100内に配置することができ(例えば、図1のローカルコントローラ160)、またはこれに換えて、携帯デバイス中に、クラウド中に、または別の遠隔場所にあってもよい。コントローラ300のコンポーネントは、集積化されたデバイス中にあってもよく、または異なった場所に分散され、だが、ネットワーク(図示せず)を介して相互に通信していてもよい。例えば、プロセッサ304は、車両100の車載プロセッサであっても、携帯デバイス内のプロセッサであっても、もしくはクラウドのプロセッサであっても、またはこれらの任意の組合せであってもよい。
通信インターフェース302は、通信ケーブル、ワイヤレスローカルエリアネットワーク(WLAN:Wireless Local Area Network)、広域ネットワーク(WAN:wide area network)、無線波などのワイヤレスネットワーク、全国的なセルラネットワーク、および/またはローカルワイヤレスネットワーク(ブルートゥース(登録商標)またはWiFi)、または他の通信方法を介して、センサ140および150などのコンポーネントにデータを送信し、それらからデータを受信することができる。いくつかの実施形態において、通信インターフェース302は、統合サービスディジタルネットワーク(ISDN:integrated services digital network)カード、ケーブルモデム、衛星モデム、またはデータ通信接続を提供するモデムであってよい。別の例として、通信インターフェース302は、互換性のあるローカルエリアネットワーク(LAN:local area network)へのデータ通信接続を提供するLANカードであってもよい。また、ワイヤレスリンクも通信インターフェース302によって実装することが可能である。かかる実装において、通信インターフェース302は、ネットワークを介し、様々な種類の情報を表すデジタルデータストリームを搬送する電気的、電磁気的、または光学的信号を送信し、受信することができる。
いくつかの実施形態によれば、通信インターフェース302は、車両100のポーズ情報および較正ターゲットを示すポイント群データ303のセットなど、センサ140および150によってキャプチャされたデータを受信することができ、受信されたデータを、保管のためストレージ308に、または処理のためプロセッサ304に提供することができる。また、通信インターフェース302は、プロセッサ304によって生成された較正パラメータ301を受信し、較正パラメータ301をセンサ140および150に提供することができ、これによりそれらパラメータは、センサ140および150を較正するために用いられることになる。
プロセッサ304は、任意の適切な種類の、汎用または特定用途向けマイクロプロセッサ、デジタル信号プロセッサ、またはマイクロコントローラを含んでよい。プロセッサ304は、車両100上に備えられたセンサを、自然光景中の非人為的な較正ターゲットを用いて較正するための専用の別個のプロセッサモジュールとして構成されてもよい。あるいは、プロセッサ304は、センサの較正とは関係のない他の機能も実行するための共用のプロセッサモジュールとして構成されてもよい。
図3に示されるように、プロセッサ304は、座標変換ユニット310、共平面性計算ユニット312、ポイント群データフィルタユニット314、較正パラメータ最適化ユニット316など、複数のモジュールを含むことができる。これらのモジュール(および任意の対応サブモジュールまたはサブユニット)は、他のコンポーネントと併せて用いられるように、またはプログラムの一部を実行するように設計された、プロセッサ304のハードウェアユニット(例えば、集積回路の部分)であってもよい。このプログラムは、コンピュータ可読媒体上に格納することが可能で、プロセッサ304に実行されると1つ以上の機能を遂行することができる。図3は、全てが1つのプロセッサ304内にあるユニット310〜316を示しているが、これらのユニットを、相互に近傍にまたは遠隔に配置された複数のプロセッサの間に分散可能にすることも考えられる。
座標変換ユニット310は、ローカル座標系(例えば、LiDARユニットによって使われている座標系)において、センサ140によってキャプチャされたポイント群データ303のセットを、センサ150によって取得された車両100のリアルタイムのポーズ情報に基づいて、地球座標系に変換するように構成することができる。ポイント群データ303は、周辺の物体(例えば、識別された較正ターゲット)の外面上のデータポイントのセットを包含することが可能である。ポーズ情報は、各タイムスタンプでの車両100の位置および方位を含むことができる。いくつかの実施形態において、ポイント群データ303は、車両100の、或る時限内の一連のポーズ(例えば、位置および方位)を通しての変移として記録されてよい。座標変換ユニット310は、ポイント群データ303によって表されるポイント群中の各ポイントを、該各ポイントが取得された時の車両100のポーズに基づいて、地球座標系(例えば、経度/緯度座標)に投影することができる。ポイント群データ303およびポーズ情報は、統合センサ140および150によって収集されるので、センサ140および150の初期較正パラメータ(例えば、座標軸および中心点)も座標変換に使用され得る。較正パラメータを最適化するのに先立って、テープ(tape)などの計器によって大まかに測定された値として初期較正パラメータが設定されてよい。地球座標系中に投影された後、ポイント群データ303中の各データポイントは、地球座標系中の一組の座標と、そのポイントにおけるレーザ強度またはポーズ情報から得られた何らかの情報などの付加情報とによって表すことが可能である。
共平面性計算ユニット312は、地球座標系中のポイント群データ303に関連付けられた共平面性を判定するように構成することができる。本明細書で言う共平面性とは、2つ以上のポイントが同一平面上にある状態または程度である。空間中のポイントは、連続した面に所在する傾向があるので、近接する諸ポイントは共平面上の(すなわち、閾値を上回る共平面性を有する)ポイント群と見なしてもよい。共平面性データ(coplanar data)(例えば、静的な平面状物体のポイント群データ)は、正確なセンサ較正の助力となり、一方、非共平面性データ(例えば、動く物体、または静的な非平面状物体のポイント群データ)は、センサ較正の精度に悪影響を及ぼし得る。しかして、共平面性計算ユニット312は、非共平面性データをフィルタ除去するためにポイント群データフィルタユニット314を用いることによって、ポイント群データ303からのデータポイントの共平面性を確認することが可能である。
いくつかの実施形態において、共平面性は、共平面性計算ユニット312によって、ポイント群データ303に関連付けられた複数のスケールにおける法線ベクトルの差(すなわち、Δ)に基づいて判定することができる。表面に対する法線ベクトル(「法線」とも言う)とは、所与の点における当該表面への接平面に対し垂直なベクトルである。自然光景中で統合センサを較正する場合、ときとして、動く物体または静的な非平面状物体を回避することができない。本開示によれば、静的な平面状物体と、動く物体および静的な非平面状物体とを見分けるために、異なるスケールでの法線ベクトル間の差を使うことが可能である。例えば、静的な平面状物体の異なるスケールでの法線ベクトル間の差は、動く物体または静的な非平面状物体での差より小さい。
図4は、本開示の諸実施形態による、異なるスケールでの法線ベクトルの差を計算する例示的な方法を示す。図4に示されるように、Pはポイント群データのセット{p1,p2,・・・,p}を表し、各ポイントはドットで表されている。このポイント群は、較正用物体の表面を示すことができる。ポイント群データのセットPは、410中に示された、2つの遠位端ポイントによって画定された第一スケール(より大きな範囲(radius)r)、および420中に示された、第一スケールより小さい、2つの近位端ポイントによって画定された第二スケール(より小さな範囲r)を含む、多重スケール空間に関連付けることができる。第一および第二スケール中の、ポイント群中の同一のポイントp(大きなドットとして表されている)に関連する法線ベクトルが、410および420においてそれぞれ計算される。410で、第一スケールr中のポイントpにおける接平面T(p,r)に対する第一法線ベクトル
Figure 0006821712
は、下記のように計算される。
Figure 0006821712
420で、第二スケールr中のポイントpにおける接平面T(p,r)に対する第二法線ベクトル
Figure 0006821712
は下記のように計算される。
Figure 0006821712
430で、第一および第二スケールr、r中のポイントpにおける第一法線ベクトルおよび第二法線ベクトルの間の差
Figure 0006821712
は下記にように計算される。
Figure 0006821712
図3に戻って参照すると、ポイント群データフィルタユニット314は、ポイント群データ303のセットに関連付けられた共平面性に基づいて、ポイント群データ303をフィルタ処理するように構成することができる。前述のように、ポイント群中のポイントに関連する異なるスケールにおける法線ベクトル間の差など、共平面性は、較正のためのデータの品質を向上させるために、非共平面性データ(例えば、動いている、または静的な非平面性の物体を表すポイント)を識別し、その非共平面性データをポイント群データ303からフィルタ除去するためのベースとして用いることが可能である。いくつかの実施形態において、閾値は、或るポイントの対応する法線ベクトル差をその閾値と比較することによって、そのポイントが非共平面性のポイントかどうかを判断するために使用されることができる。すなわち、(例えば、閾値に対して)相対的に大きな法線ベクトル差を有するポイントは、非共平面性ポイントとして識別することができ、ポイント群データ303中のそれらのデータは、ポイント群データフィルタユニット314によって、非共平面性のノイズデータとしてフィルタ除去することが可能である。
図5は、本開示の諸実施形態による、ポイント群データをフィルタ処理するための例示的な方法500のデータフローチャートを示す。いくつかの実施形態によれば、ポイント群502中の、各ポイント504は、ポイント群502に関連付けられた第一スケール506と第二スケール508との中のそのポイントの法線ベクトル差に基づいて、ポイント群データフィルタユニット314を通過することができる。第一スケール506および第二スケール508の各々は、ポイント群502中のポイントごとに画定されてよい。第一スケール506中のポイント504に関連する第一法線ベクトル510を計算することができる。同じく、第二スケール508中のポイント504に関連する第二法線ベクトル512を計算することができる。第一法線ベクトル510および第二法線ベクトル512間の法線ベクトル差514を計算し、閾値516と比較することが可能である。例えば、閾値516は、過去の経験に基づいて前もって設定された任意の適切な値であってよい。518で、法線ベクトル差514が閾値516を超えるかどうかが判定される。法線ベクトル差514が閾値516を超えない場合(すなわち、第一スケール506および第二スケール508中の法線ベクトルの差が相対的に小さい)、次の520で、ポイント504は、共平面性ポイントと見なすことができ、しかしてポイント群502中に保持される。上記以外で、法線ベクトル差514が閾値516を超える場合(すなわち、第一スケール506および第二スケール508中の法線ベクトルの差が相対的に大きい)、522で、ポイント504は非共平面性ポイントと見なすことができ、しかしてポイント群502からフィルタ除去される。その結果、フィルタ処理されたポイント群502はポイント504を含まないことになる。
図3に戻って参照すると、較正パラメータ最適化ユニット316は、フィルタ処理されたポイント群データ303のセットをモデルのインプットとして用い、モデルのアウトプットを低減するようにされた該モデルに基づいて、センサ140および150の較正パラメータ301を調整するように構成することができる。このモデルは、ポイント群データ303のセットに関連付けられた共平面性に基づくウェイトを含んでよい。いくつかの実施形態において、このウェイトは、ポイント群中のポイントにおける、異なるスケール中の法線ベクトル間の差の逆数とすることができる。モデルのアウトプットが最小化されるまで較正パラメータ301を反復調整することによって、較正パラメータ301は、センサ140および150を較正するため用いられる最適値を達成するように最適化することが可能である。較正パラメータ最適化ユニット316によって実装が可能な例示的なアルゴリズムおよびモデルを以下に詳しく説明する。フィルタ処理されたポイント群データ303を用いて較正パラメータ301を調整するために、較正パラメータ最適化ユニット316によって、他の任意の適切なアルゴリズムおよび/またはモデルの実装を可能にすることも考えられる。
この例示的なアルゴリズムは、(a)フィルタ処理されたポイント群データ303のセットからレーザスキャンビームbおよびそれのポイントセットP(b)を選択するステップであって、該ポイントセットは、車両100のポーズ情報に基づいて初期較正パラメータを使って地球座標系に変換されている、該選択するステップと、(b)レーザスキャンビームbに対し、フィルタ処理されたポイント群データ303から、隣接するレーザスキャンビームnおよびそれのポイントセットP(n)を選択するステップと、(c)ポイントセットP(n)からポイントpを選択するステップと、(d)ポイントpから最小距離にあるポイントセットP(b)からポイントmを選択し、ポイントmにおける法線ベクトルηを計算するステップと、(f)ポイントpと、ポイントmの面との間の距離を計算するステップと、を含む。ポイントpおよびmはフィルタ処理されたポイント群データ303から選択され十分近接しているので、これらは静的な平面状物体の同じ表面にあり、動いている物体または非平面状物体上にはない。例えば、ポイントpおよびmにおける法線ベクトル各々の差は閾値よりも小さい。しかして、ポイントpとmとの対応データは、共平面性データであり得る。上記プロセス(a)〜(f)は、センサ140の全てのレーザスキャンビームが横切るまで、較正パラメータ最適化ユニット316によって反復実行することができる。
次いで、この例示的なアルゴリズムは、ポイント群中の全ポイントに対し計算された総計距離を、最適化のためのコスト関数として使用する。
Figure 0006821712
上式のiは各レーザスキャンビームb∈{1,2,・・・,B}のナンバリングであり、このBはレーザスキャンビームの合計数を表す。jは、i,n∈{b−N,・・・,b+N},n≠bの隣接レーザスキャンビームを表し、このNは、隣接のレーザスキャンビームの数を表す。ηは法線ベクトルを表す。ωは式[1]に示されたモデルのウェイトであり、これは、式[2]に示された(上記で詳細に説明された)法線ベクトルの差Δηの逆数など、ポイント群の共平面性の信頼水準を表す。すなわち、モデルのこのウェイトは、各ポイントの共平面性に基づいてよい。例えば、高い共平面性(例えば、複数のスケールにおける小さな法線ベクトルの差で表される)を有するポイントには、大きなウェイトを割り当てることができ、一方、低い共平面性(例えば、複数のスケールにおける大きな法線ベクトルの差で表される)を有するポイントには、小さなウェイトを割り当てることができる。このように、ポイント群データ303のセットに関連付けられた共平面性は、ポイント群データフィルタユニット314によってポイント群データ303のフィルタ処理に使うことができるだけでなく、較正パラメータ最適化ユニット316によって較正パラメータ301を最適化するためのモデル中の各ポイントのウェイトを判定するためにも使うことができる。
センサ140および150の較正パラメータ301を調整することによって、コスト関数J(x)の値を変化させることが可能である。較正パラメータ最適化ユニット316は、J(x)の値が低減されるよう較正パラメータ301を調整するように構成されてよい。いくつかの実施形態において、較正パラメータ最適化ユニット316は、J(x)を、その値が最小化されるまで反復して調整することができる。較正パラメータ301の対応する値は、センサ140および150を較正するために用いる最適の値となる。
例えば、図6は、本開示の諸実施形態による、センサ較正の前と後との同じ物体(建物の壁)の例示的なポイント群610および620を示す。建物の壁のポイント群610は、(例えば、任意的な初期較正パラメータを使用して)センサ較正の前のセンサ140および150によって収集されたデータによって生成されている。これに対し、同じ建物の壁のポイント群620は、(例えば、最適化較正パラメータを使用して)センサ較正の後のセンサ140および150によって収集されたデータによって再生成されている。例えば、ポイント群620中に表された建物の壁の厚さ(矩形の中に表示)は、最適化較正パラメータによってセンサ140および150の統合化誤差が低減されているので、ポイント群610中に表された同じ建物の壁の厚さ(矩形の中に表示)よりも薄い。
図3に戻って参照すると、メモリ306およびストレージ308は、プロセッサ304が実行する必要のあり得る任意の種類の情報を格納するよう備えられた任意の適切な種類の大容量ストレージを含んでよい。メモリ306およびストレージ308は、揮発性または不揮発性、磁気、半導体、テープ、光、着脱可能式、固定式、もしくは他の種類のストレージデバイス、または、以下に限らないが、ROM、フラッシュメモリ、ダイナミックRAM、およびスタティックRAMを含む有形の(すなわち、非一時的)コンピュータ可読媒体であってよい。メモリ306および/またはストレージ308は、本出願で開示されたセンサ較正機能を遂行するためにプロセッサ304によって実行可能な1つ以上のコンピュータプログラムを格納するように構成することが可能である。例えば、メモリ306および/またはストレージ308は、車両100が軌道に沿って走行しているときに、較正ターゲットデータをキャプチャするようにセンサ140を制御し、車両のポーズ情報を取得するようにセンサ150を制御し、キャプチャされたデータを処理してセンサ140および150の較正パラメータを調整するため、プロセッサ304によって実行が可能なプログラム(群)を格納するように構成されてよい。
メモリ306および/またはストレージ308は、プロセッサ304によって使用される情報およびデータを格納するようにさらに構成することが可能である。例えば、メモリ306および/またはストレージ308は、センサ140によってキャプチャされたポイント群データおよびセンサ150によって得られたリアルタイムのポーズ情報と、較正パラメータを最適化するために用いられるモデルと、較正パラメータの初期値、中間値および最適化値と、を格納するように構成することができる。これらのデータ、情報、およびモデルは、恒久的に格納されてもよく、定期的に除去されてもよく、またはデータの各フレームが処理された後、直ちに没却されてもよい。
図7は、本開示の諸実施形態による、複数のセンサを較正するための例示的な方法700のフローチャートを示す。例えば、方法700は、なかんずく、コントローラ300とセンサ140および150とを含む、車両100の統合センサ較正システムによって実装することができる。方法700は、以下に説明するステップS702〜S712を含むことができる。
ステップS702で、較正ターゲットとして、自然光景中の車両100の周辺の或る物体を識別することができる。車両100は、車両100上に備えられたセンサ140および150を較正するため、自然光景中の或る軌道に沿って繰り返し走行する調査車両であってよい。この較正ターゲットには、建物の壁または道路など、光景中の静的な平面状物体を含めることができる。較正のためには、静的な平面状物体について収集されたデータが理想的である。したがって、光景中の別の車両または植物など、動く物体および非平面状の物体は、較正精度を向上させるために除去されてよい。その結果、センサ較正のため、専用の較正設備および/または人為的な較正ターゲットは必要なく、これにより較正の効率およびフレキシビリティが向上する。
ステップS704で、センサ較正のため、自然光景中で車両100が軌道に沿って走行しているときに、センサ140は、当該周辺物体(すなわち、識別された較正ターゲット)を示すポイント群データのセットをキャプチャすることができる。車両100には、LiDARレーザスキャナなどのセンサ140を備えることが可能である。車両100が軌道に沿って走行しているときに、センサ140は、異なる時点で、ローカル座標系でのポイント群データのセットの形で光景データのフレームを継続的にキャプチャすることができる。また、車両100は、GPSレシーバおよび1つ以上のIMUセンサなどのセンサ150を備えることが可能である。センサ140および150は統合感知システムを形成してよい。いくつかの実施形態において、車両100が自然光景中の軌道に沿って走行している際、およびセンサ140が較正ターゲットを示すポイント群データのセットをキャプチャしているとき、センサ150は、車両100のリアルタイムのポーズ情報を取得することができる。
ステップS706で、プロセッサ304は、車両100のポーズ情報に基づいて、ローカル座標系中のポイント群データのセットを地球座標系に投影することができる。いくつかの実施形態において、経度/緯度座標などの地球座標系におけるデータ位置合わせのため、ポイント群データとポーズ情報とを相関させるための初期較正パラメータには、任意の適切な値が用いられてよい。例えば、プロセッサ304は、各ポイントが取得された時点での車両100のポーズに基づいて、ポイント群中のポイントを地球座標系中に投影することが可能である。
ステップS708で、プロセッサ304は、地球座標系中のポイント群データのセットに関連付けられた共平面性を判定することができる。いくつかの実施形態において、この共平面性は、ポイント群データのセットに関連付けられた複数のスケールにおける法線ベクトル間の差に基づいて判定することが可能である。例えば、ポイント群中の各ポイントに対し、プロセッサ304は、第一スケール中での当該ポイントに関連する第一法線ベクトルと、第一スケールと異なった第二スケール中でのそのポイントに関連する第二法線ベクトルとを計算し、次いで第一法線ベクトルと第二法線ベクトルとの差を計算することができる。この法線ベクトル差は、ポイント群データのセットに関連付けられた共平面性の示度となり得る。この法線ベクトル差が大きいほど、対応するポイントは非共平面性(すなわち、動いている物体または静的な非平面状物体の表面上のポイント)であり得る尤度が高い。
ステップS710で、プロセッサ304は、共平面性に基づいてポイント群データのセットをフィルタ処理することができる。いくつかの実施形態において、閾値は、或るポイント(およびそれの対応データ)をポイント群(およびポイント群データのセット)から除去すべきかどうかを判断するために使用されてよい。例えば、或るポイントに関連する法線ベクトル差を閾値と比較することができる。法線ベクトル差が閾値を超えない場合、そのポイントは静的な平面状物体の表面上の共平面性ポイントであると考えられるので、そのポイントデータはポイント群データのセットの中に残ることになる。それ以外は、そのポイントは動いている物体または静的な非平面状の物体の表面上の非共平面性ポイントであると考えられるので、そのポイントデータはポイント群データのセットからフィルタ除去されることになる。
ステップS712で、プロセッサ304は、フィルタ処理されたポイント群データのセットをモデルのインプットとして用いた最適化モデルに基づいて、モデルのコスト関数の値が低減されるようにセンサ140及び150の較正パラメータを調整することができる。このモデルは、ポイント群データのセットに関連付けられた共平面性に基づくウェイトを含んでよい。いくつかの実施形態において、このウェイトは、フィルタされたポイント群データのセット中の各ポイントに関連する法線ベクトル間の差の逆数であってよい。プロセッサ304は、モデルのコスト関数の値が最小化されるまで、これら較正パラメータを連続して調整することが可能である。これにより、対応する較正パラメータは、センサ140および150の較正のために最適の値を有する。
本開示の別の態様は、命令を格納する非一時的コンピュータ可読媒体を対象とし、該命令は、実行されると、1つ以上のプロセッサに前述した方法を実行させる。本コンピュータ可読媒体は、揮発性または不揮発性、磁気、半導体、テープ、光、着脱可能式、固定式、もしくは他の種類のコンピュータ可読媒体またはコンピュータ可読ストレージデバイスを含んでよい。例えば、本コンピュータ可読媒体は、本開示のとおり、格納されたコンピュータ命令を有するストレージデバイスまたはメモリモジュールとすることが可能である。いくつかの実施形態において、本コンピュータ可読媒体は、格納されたコンピュータ命令を有するディスクまたはフラッシュドライブであってよい。
当業者には、本開示のシステムおよび関連する方法に様々な修改および変形を加えることが可能なのは自明であろう。当業者には、本明細書の考察ならびに開示されたシステムおよび関連する方法の実践から、他の諸実施形態も明らかであろう。
本明細書および諸例は、単なる例示と見なされるように意図されており、真の範囲は添付の特許請求の範囲およびそれらの等価物によって示されている。

Claims (15)

  1. 複数のセンサを較正する方法であって、
    車両に関連付けられた複数のセンサによって、前記車両が軌道に沿って走行しているときに、少なくとも1つの周辺物体を示すポイント群データのセットをキャプチャするステップと、
    プロセッサによって、前記ポイント群データのセットに関連付けられた複数のスケールにおける各ポイントの法線ベクトルの差に基づいて、前記ポイント群データのセットに関連付けられた共平面性を判定するステップと、
    前記プロセッサによって、前記ポイント群データのセットに関連付けられた前記共平面性に基づいて、前記ポイント群データのセットをフィルタ処理するステップと、
    前記プロセッサによって、前記フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、前記複数のセンサの少なくとも1つの較正パラメータを調整するステップであって、前記モデルは、前記ポイント群データのセットに関連付けられた前記共平面性に対応するウェイトを含む、前記調整するステップと、
    を含む、方法。
  2. 前記ウェイトは前記法線ベクトルの前記差の逆数である、請求項1に記載の方法。
  3. 前記少なくとも1つの周辺物体が、自然光景中の静的な平面状物体を含む、請求項1または2に記載の方法。
  4. 前記車両が、前記軌道に沿って繰り返し走行し、前記ポイント群データのセットがキャプチャされているときに前記車両の方位を変える、請求項1〜3のいずれか1項に記載の方法。
  5. 前記ポイント群データのセットに関連付けられた前記共平面性に基づいて前記ポイント群データのセットをフィルタ処理するステップが、
    第一スケール中で前記ポイント群データのセットによって表されるポイント群中のポイントに関連する第一法線ベクトルを計算するステップと、
    前記第一スケールより小さい第二スケール中で前記ポイントに関連する第二法線ベクトルを計算するステップと、
    前記第一法線ベクトルと前記第二法線ベクトルとの差を計算するステップと、
    閾値より大きな前記差に基づいて前記ポイント群から前記ポイントを除去するステップと、
    を含む、請求項1〜4のいずれか1項に記載の方法。
  6. 複数のセンサを較正するためのシステムであって、
    車両に関連付けられ、前記車両が軌道に沿って走行しているときに、少なくとも1つの周辺物体を示すポイント群データのセットをキャプチャするように構成された複数のセンサと、
    前記ポイント群データのセットに関連付けられた複数のスケールにおける各ポイントの法線ベクトルの差に基づいて、前記ポイント群データのセットに関連付けられた共平面性を判定し、
    前記ポイント群データのセットに関連付けられた前記共平面性に基づいて、前記ポイント群データのセットをフィルタ処理し、
    前記フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、前記複数のセンサの少なくとも1つの較正パラメータを調整し、前記モデルが、前記ポイント群データのセットに関連付けられた前記共平面性に対応するウェイトを含む、
    ように構成されたプロセッサと、
    を含む、システム。
  7. 前記ウェイトが前記法線ベクトルの前記差の逆数である、請求項6に記載のシステム。
  8. 前記少なくとも1つの周辺物体が、自然光景中の静的な平面状物体を含む、請求項6または7に記載のシステム。
  9. 前記車両が、前記軌道に沿って繰り返し走行し、前記ポイント群データのセットがキャプチャされているときに前記車両の方位を変える、請求項6〜8のいずれか1項に記載のシステム。
  10. 前記複数のセンサが、光検知および測距(LiDAR)レーザスキャナ、全地球ナビゲーション衛星システム、および慣性計測ユニット(IMU)センサのうちの少なくとも一つを含む、請求項6〜9のいずれか1項に記載のシステム。
  11. 前記ポイント群データのセットに関連付けられた前記共平面性に基づいて前記ポイント群データのセットをフィルタ処理するため、前記プロセッサが、
    第一スケール中で前記ポイント群データのセットによって表されるポイント群中のポイントに関連する第一法線ベクトルを計算し、
    前記第一スケールより小さい第二スケール中で前記ポイントに関連する第二法線ベクトルを計算し、
    前記第一法線ベクトルと前記第二法線ベクトルとの差を計算し、
    閾値より大きな前記差に基づいて前記ポイント群から前記ポイントを除去する
    ようにさらに構成される、請求項6〜10のいずれか1項に記載のシステム。
  12. 格納された命令を有する非一時的コンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    車両が軌道に沿って走行しているときに、複数のセンサによってキャプチャされた少なくとも1つの周辺物体を示すポイント群データのセットを受信するステップと、
    前記ポイント群データのセットに関連付けられた複数のスケールにおける、前記ポイント群データのセット中の各ポイントの法線ベクトルの差に基づいて、前記ポイント群データのセット中の前記各ポイントに関連付けられた共平面性を判定するステップと、
    前記プロセッサによって、前記ポイント群データのセットに関連付けられた前記共平面性に基づいて、前記ポイント群データのセットをフィルタ処理するステップと、
    前記プロセッサによって、前記フィルタ処理されたポイント群データのセットを用いたモデルに基づいて、前記複数のセンサの少なくとも1つの較正パラメータを調整するステップであって、前記モデルは、前記ポイント群データのセットに関連付けられた前記共平面性に対応するウェイトを含む、前記調整するステップと、
    を含むオペレーションを実行させる、
    非一時的コンピュータ可読媒体。
  13. 前記ウェイトが前記法線ベクトルの前記差の逆数である、請求項12に記載の非一時的コンピュータ可読媒体。
  14. 前記車両が、前記軌道に沿って繰り返し走行し、前記ポイント群データのセットがキャプチャされているときに前記車両のオイラー角を変える、請求項12または13に記載の非一時的コンピュータ可読媒体。
  15. 前記ポイント群データのセットに関連付けられた前記共平面性に基づいて前記ポイント群データのセットをフィルタ処理するステップが、
    第一スケール中で前記ポイント群データのセットによって表されるポイント群中のポイントに関連する第一法線ベクトルを計算するステップと、
    前記第一スケールより小さい第二スケール中で前記ポイントに関連する第二法線ベクトルを計算するステップと、
    前記第一法線ベクトルと前記第二法線ベクトルとの差を計算するステップと、
    閾値より大きな前記差に基づいて前記ポイント群から前記ポイントを除去するステップと、
    を含む、請求項12〜14のいずれか1項に記載の非一時的コンピュータ可読媒体。
JP2018566375A 2018-06-25 2018-06-25 自然光景中での統合センサの較正 Active JP6821712B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/092649 WO2020000137A1 (en) 2018-06-25 2018-06-25 Integrated sensor calibration in natural scenes

Publications (2)

Publication Number Publication Date
JP2020528134A JP2020528134A (ja) 2020-09-17
JP6821712B2 true JP6821712B2 (ja) 2021-01-27

Family

ID=68981415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018566375A Active JP6821712B2 (ja) 2018-06-25 2018-06-25 自然光景中での統合センサの較正

Country Status (9)

Country Link
US (1) US10860871B2 (ja)
EP (1) EP3631494B1 (ja)
JP (1) JP6821712B2 (ja)
CN (1) CN110859044B (ja)
AU (1) AU2018282302B2 (ja)
CA (1) CA3027921C (ja)
SG (1) SG11201811410RA (ja)
TW (1) TWI693422B (ja)
WO (1) WO2020000137A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11726189B2 (en) * 2019-12-09 2023-08-15 Nio Technology (Anhui) Co., Ltd. Real-time online calibration of coherent doppler lidar systems on vehicles
TWI766218B (zh) * 2019-12-27 2022-06-01 財團法人工業技術研究院 三維平面重建方法、三維平面重建系統與計算裝置
RU2767949C2 (ru) * 2019-12-30 2022-03-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ (варианты) и система для калибровки нескольких лидарных датчиков
US11892560B2 (en) 2020-02-03 2024-02-06 Nio Technology (Anhui) Co., Ltd High precision multi-sensor extrinsic calibration via production line and mobile station
CN111007485B (zh) * 2020-03-09 2020-10-27 中智行科技有限公司 一种图像处理方法、装置、以及计算机存储介质
CN111882977B (zh) * 2020-05-06 2022-04-29 北京嘀嘀无限科技发展有限公司 一种高精度地图构建方法及系统
DE102020205716A1 (de) * 2020-05-06 2021-11-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur kontrollierten Initialisierung einer Lokalisierungseinrichtung eines zumindest teilweise autonom betreibbaren Fahrzeugs
US20210370953A1 (en) * 2020-05-26 2021-12-02 The Regents Of The University Of Michigan Grip-force sensing and shape-changing steering wheel
CN112051591B (zh) * 2020-08-31 2022-11-29 广州文远知行科技有限公司 一种激光雷达与惯性测量单元的检测方法及相关装置
CN112255621B (zh) * 2020-10-09 2022-08-30 中国第一汽车股份有限公司 一种车辆传感器的标定方法、装置、电子设备及存储介质
US11740360B2 (en) * 2020-11-02 2023-08-29 Motional Ad Llc Light detection and ranging (LiDaR) scan smoothing
CN112767458B (zh) * 2020-11-13 2022-07-29 武汉中海庭数据技术有限公司 激光点云与图像的配准的方法及系统
CN112598705A (zh) * 2020-12-17 2021-04-02 太原理工大学 一种基于双目视觉的车身姿态检测方法
CN112903311A (zh) * 2021-01-28 2021-06-04 特路(北京)科技有限公司 一种适用于自动驾驶车辆夜间光照环境测试场及测试方法
FR3120711B1 (fr) * 2021-03-09 2023-04-14 Continental Automotive Procede et dispositif de calibration d'un capteur de profondeur d'environnement
CN113554759A (zh) * 2021-07-26 2021-10-26 河南德拓信息科技有限公司 一种煤炭运输遗撒智能监测分析方法、装置和设备
CN113791414B (zh) * 2021-08-25 2023-12-29 南京市德赛西威汽车电子有限公司 一种基于毫米波车载雷达视图的场景识别方法
CN113985451B (zh) * 2021-10-25 2022-11-15 湘潭大学 一种基于卡尔曼滤波跟踪环路的导航欺骗检测方法和装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1091186A3 (en) * 1999-10-05 2001-12-12 Perception, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
JP2001188922A (ja) * 1999-12-28 2001-07-10 Ricoh Co Ltd 3次元形状処理システム、3次元形状処理方法およびその処理方法を実施するためのプログラムを記憶した記憶媒体
JP4188632B2 (ja) * 2002-07-16 2008-11-26 独立行政法人科学技術振興機構 距離画像の統合方法及び距離画像統合装置
JP5343042B2 (ja) * 2010-06-25 2013-11-13 株式会社トプコン 点群データ処理装置および点群データ処理プログラム
JP5462093B2 (ja) * 2010-07-05 2014-04-02 株式会社トプコン 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
CN104380133B (zh) * 2012-04-17 2018-01-16 联邦科学和工业研究组织 三维扫描束和成像系统
WO2014068302A1 (en) * 2012-11-05 2014-05-08 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2d lidars mounted on transportable apparatus
DE102014203935A1 (de) 2014-03-04 2015-09-10 Robert Bosch Gmbh Verfahren zur Kalibrierung eines in einem Fahrzeug eingebauten Sensors
US9767371B2 (en) * 2014-03-27 2017-09-19 Georgia Tech Research Corporation Systems and methods for identifying traffic control devices and testing the retroreflectivity of the same
US9369689B1 (en) * 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US10036801B2 (en) * 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
CN104820217B (zh) * 2015-04-14 2016-08-03 同济大学 一种多法向平面的多元线阵探测成像激光雷达的检校方法
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
CN105598965B (zh) * 2015-11-26 2018-03-16 哈尔滨工业大学 基于立体视觉的机器人欠驱动手自主抓取方法
CN105866762B (zh) * 2016-02-26 2018-02-23 福州华鹰重工机械有限公司 激光雷达自动校准方法及装置
KR102384875B1 (ko) 2016-05-11 2022-04-08 삼성전자주식회사 거리 센서의 칼리브레이션 방법, 장치 및 시스템
CN107633523B (zh) * 2016-07-18 2021-04-16 巧夺天宫(深圳)科技有限公司 基于点云的提取建筑特征线方法和系统
BR112019007000A2 (pt) * 2016-10-07 2019-06-25 Cmte Development Limited sistema e método para teste de diagnóstico de nuvem de pontos de forma e posição de objeto
CN106707293B (zh) * 2016-12-01 2019-10-29 百度在线网络技术(北京)有限公司 用于车辆的障碍物识别方法和装置
US10309778B2 (en) * 2016-12-30 2019-06-04 DeepMap Inc. Visual odometry and pairwise alignment for determining a position of an autonomous vehicle
CN107153186A (zh) * 2017-01-06 2017-09-12 深圳市速腾聚创科技有限公司 激光雷达标定方法及激光雷达
EP3616159A4 (en) * 2017-04-28 2020-05-13 SZ DJI Technology Co., Ltd. CALIBRATION OF LASER SENSORS
WO2018196000A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Methods and associated systems for grid analysis
US10942256B2 (en) * 2017-06-05 2021-03-09 Metawave Corporation Intelligent metamaterial radar for target identification
CN107590836B (zh) * 2017-09-14 2020-05-22 斯坦德机器人(深圳)有限公司 一种基于Kinect的充电桩动态识别与定位方法及系统
CN107610174B (zh) * 2017-09-22 2021-02-05 深圳大学 一种鲁棒的基于深度信息的平面检测方法及系统
US11561283B2 (en) * 2017-11-16 2023-01-24 Nec Corporation Distance measurement apparatus, distance measurement method and program
US10502819B2 (en) * 2017-12-21 2019-12-10 GM Global Technology Operations LLC Systems and methods for aligning an inertial measurement unit in a vehicle
US10269141B1 (en) * 2018-06-04 2019-04-23 Waymo Llc Multistage camera calibration

Also Published As

Publication number Publication date
CN110859044B (zh) 2023-02-28
SG11201811410RA (en) 2020-01-30
CN110859044A (zh) 2020-03-03
TWI693422B (zh) 2020-05-11
AU2018282302B2 (en) 2020-10-15
TW202001290A (zh) 2020-01-01
AU2018282302A1 (en) 2020-01-16
US10860871B2 (en) 2020-12-08
US20190392228A1 (en) 2019-12-26
EP3631494A1 (en) 2020-04-08
CA3027921A1 (en) 2019-12-25
CA3027921C (en) 2022-04-12
WO2020000137A1 (en) 2020-01-02
EP3631494A4 (en) 2020-06-10
JP2020528134A (ja) 2020-09-17
EP3631494B1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
JP6821712B2 (ja) 自然光景中での統合センサの較正
EP3612854B1 (en) Vehicle navigation system using pose estimation based on point cloud
CN111436216B (zh) 用于彩色点云生成的方法和系统
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
JP2021508814A (ja) LiDARを用いた車両測位システム
US10996072B2 (en) Systems and methods for updating a high-definition map
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
WO2020113425A1 (en) Systems and methods for constructing high-definition map
AU2018102199A4 (en) Methods and systems for color point cloud generation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210106

R150 Certificate of patent or registration of utility model

Ref document number: 6821712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250