JP7312866B2 - レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラム - Google Patents

レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラム Download PDF

Info

Publication number
JP7312866B2
JP7312866B2 JP2022010074A JP2022010074A JP7312866B2 JP 7312866 B2 JP7312866 B2 JP 7312866B2 JP 2022010074 A JP2022010074 A JP 2022010074A JP 2022010074 A JP2022010074 A JP 2022010074A JP 7312866 B2 JP7312866 B2 JP 7312866B2
Authority
JP
Japan
Prior art keywords
radar
point cloud
cloud data
target
radar point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022010074A
Other languages
English (en)
Other versions
JP2022050689A (ja
Inventor
ファン チン
チョウ ティンフー
ソン シーピン
チャン リャンチュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Baidu USA LLC
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd, Baidu USA LLC filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022050689A publication Critical patent/JP2022050689A/ja
Application granted granted Critical
Publication of JP7312866B2 publication Critical patent/JP7312866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本開示は、データ処理の技術分野に関し、特にレーダー点群、自動運転、ディープラーニングの技術分野に関する。
自動運転等の技術の台頭に伴い、安全性を考慮して、レーダーデバイスはこれらの技術においてますます重要な役割を果たしている。照明条件等に敏感ではなく、かつ距離感知能力に優れているため、レーダーはほとんどの自動運転メーカーの標準的なスペックとなっている。ディープラーニング技術と3次元技術の台頭により、レーダー点群データに基づく目標検出は、自動運転業界の感知システムの主流を占めている。しかし、現在のレーダー点群のシーン分布はロングテール効果があり、大部分のデータは一般的な物体である。自動運転等の応用シーンにとって、安全性の要求が非常に高く、異常データ、例えば低確率物体、低確率シーンのデータのラベル付け量を高める必要がある。
現在の業界の主要な解決方法は、以下を含む。
第一に、データマイニングに手動ラベル付けを組み合わせて、データから異常データをマイニングし、手動ラベル付けを行う。しかし、データマイニング技術は、低確率の物体自体の出現確率が低く、元ラベル付けデータが極めて少ないため、良好な検出器を訓練することが困難であり、大量のデータの中で正確なデータマイニングを行うことも困難である。収集したデータにこのような異常物体が存在せず、マイニング結果が得られない可能性がある。
第二に、エミュレータを用いてシミュレーションデータを生成する。しかし、エミュレータ自体のコストが高く、拡張性もないため、実際のデータとデータ品質に差が存在する。
本開示は、レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラムを提供する。
本開示の1つの態様では、レーダ点群データの処理方法を提供し、該方法は、
レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定することと、
目標位置領域内に位置している目標物体の各点をレーダ点群データから除去することと、
物体モデルを目標位置領域に追加して、更新されたレーダ点群データを得ることと、を含む。
本開示のもう1つの様態では、レーダ点群データの処理装置を提供し、該装置は、
レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定するための決定モジュールと、
目標位置領域内に位置している目標物体の各点をレーダ点群データから除去するための除去モジュールと、
物体モデルを目標位置領域に追加して、更新されたレーダ点群データを得るための追加モジュールと、を備える。
本開示のもう1つの様態では、電子デバイスを提供し、該電子デバイスは、
少なくとも1つのプロセッサと、
少なくとも1つのプロセッサに通信接続されるメモリと、を備え、
メモリには、少なくとも1つのプロセッサにより実行可能な命令が記憶されており、
命令は、少なくとも1つのプロセッサにより実行される場合、本開示の任意の実施形態の方法を実行させることを特徴とする。
本開示のもう1つの様態では、コンピュータ命令を記憶した非一時的なコンピュータ可読記憶媒体を提供し、該コンピュータ命令は、本開示の任意の実施形態の方法をコンピュータに実行させる。
本開示のもう1つの様態では、プログラムを提供し、該プログラムは、プロセッサにより実行されると、本開示の任意の実施形態の方法を実現する。
本開示の技術によれば、目標物体をレーダ点群データから除去し、レーダ点群データにおける目標位置領域に必要な3次元モデルを追加することにより、より豊富なレーダ点群データを得ることができる。
ここに記載された内容は、本開示の実施形態のキーポイント又は重要な特徴を記述することを意図せず、また、本開示の範囲を制限することにも用いられないことを理解すべきである。本開示の他の特徴については、下記の明細書を通して説明を促す。
添付図面は、本方案をより良く理解するためのものであり、本開示を限定するものではない。
本開示の実施形態によるレーダ点群データの処理方法のフローチャート概略図である。 本開示の他の実施形態によるレーダ点群データの処理方法のフローチャート図である。 本開示の他の実施形態によるレーダ点群データの処理方法のフローチャート図である。 本開示の実施形態によるレーダ点群データの処理装置のブロック図である。 本開示の他の実施形態によるレーダ点群データの処理装置のブロック図である。 本開示の他の実施形態によるレーダ点群データの処理装置のブロック図である。 本開示の応用例の概略図である。 本開示の応用例における元のレーダ点群の効果図である。 本開示の応用例における新たなレーダ点群の効果図である。 本開示の実施形態によるレーダ点群データの処理方法を実現するための電子デバイスのブロック図である。
以下では、本開示の例示的な実施形態を、理解を容易にするために本開示の実施形態の様々な詳細を含む添付の図面に関連して説明するが、これらは単に例示的なものであると考えるべきである。したがって、当業者は、本開示の範囲及び精神を逸脱することなく、本明細書に記載された実施形態に様々な変更及び修正を加えることができることを認識すべきである。同様に、以下の説明では、周知の機能及び構成については、明確化及び簡明化のために説明を省略する。
図1は、本開示の実施形態によるレーダ点群データの処理方法のフローチャート概略図である。該方法は、以下を含む。
S11において、レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定する。
S12において、目標位置領域内に位置している目標物体の各点をレーダ点群データから除去する。
S13において、物体モデルを目標位置領域に追加して、更新されたレーダ点群データを得る。
例示的に、レーダ(LiDAR)点群データは、レーダ点群、レーザレーダ点群、レーザレーダ点群データ等と称することもできる。レーダ点群データ中の各点は、3次元座標情報を含むことができ、例えば、レーダ点群データ中の各点の座標情報をX、Y、Zの3つの軸の座標で表すことができる。レーダ点群データ中の各点は、色情報、反射強度情報、エコー回数情報等をさらに含む。
元のレーダ点群データには、1つまたは複数の物体を含むことができる。元のレーダ点群データから除去する必要がある物体を目標物体と称することができる。元のレーダ点群データから毎回除去できる目標物体の数は、1つまたは複数であってもよく、本開示ではこれに対して限定しない。
元のレーダ点群データは、ラベル付けされた3次元物体の目標検出枠を含んでもよい。該目標検出枠は、手動ラベル付けまたは自動ラベル付けにより決定されてもよい。目標検出枠により、目標物体の範囲、即ち目標物体が位置している目標位置領域を決定することができる。目標位置領域内に位置している各点に対して、除去処理を行うことができる。例えば、これらの点の極大値を設定する等の方法を用いて、目標位置領域内に位置している目標物体の各点をレーダ点群データから除去し、即ち目標物体をレーダ点群データから除去する。除去処理後、目標物体を含まないレーダ点群データを得ることができる。目標物体を含まないレーダ点群データには、予め生成された3次元モデルを追加することができる。例えば、3次元モデル生成ソフトにより得られた3次元モデル、即ち物体モデルを目標位置領域に追加することにより、更新されたレーダ点群データを得ることができる。
本開示の実施形態によれば、目標物体をレーダ点群データから除去し、レーダ点群データにおける目標位置領域に必要な3次元モデルを追加することにより、より豊富なレーダ点群データを得ることができる。さらに、より豊富な応用シーンのレーダー点群データの需要を満たすのに有利である。
図2は、本開示の他の実施形態によるレーダ点群データの処理方法のフローチャート図である。該実施形態のレーダ点群データの処理方法は、上述した実施形態の各ステップを含むことができる。1つの実施形態において、該目標検出枠は3次元検出枠であり、該目標物体は3次元物体であり、該物体モデルは3次元モデルである。上述した実施形態の例を参照すると、レーダ点群データにおける目標検出枠は、3次元座標情報、深度、方向等により表されることができる。3次元座標情報により、除去される必要のある目標物体の各点の位置を表すこともできる。追加する必要のある物体モデルは、予め3次元モデル生成ソフトを用いて作成された3次元モデルであってもよい。3次元の目標検出枠、目標物体と物体モデルを用いることにより、より現実的で正確なレーダー点群データを得るのに有利である。
1つの実施形態において、ステップS12は、レーダ中心の座標と目標物体の各点の座標とを用いて、レーダ中心から目標物体の各点までの線分を生成するS21と、各線分の長さを、予め設定された極大値に更新するS22を含む。
例示的に、レーダ中心の座標から目標物体の各点までの間を線で結ぶことができ、これらの線の方向は、レーダ中心から目標物体の点に向けられることができる。レーダ中心と各点との間には一定の距離があるため、該距離をレーダ中心と各点とを結ぶ線の長さとすることができる。一般的に、距離が短いほど、結ばれた線の長さは短くなり、距離が長いほど、結ばれた線の長さは長くなる。これらの結ばれた線の長さをある極大値に設定した場合に、レーダ中心から目標物体の各点までの距離が極大となり、目標物体が位置している位置を、物体がないと見なすことに相当し、目標物体をレーダ点群データから容易に除去することができる。該極大値は、異なる応用シーンに応じて柔軟に設定することができ、本開示では、該極大値の具体的な値の範囲を限定しない。
1つの実施形態において、ステップS13は、物体モデルの各点の位置に予め設定されたオフセット量を加算することで、物体モデルの、目標位置領域内における位置を決定するS23を含む。例えば、予め設定されたオフセット量に3次元物体モデルの各点の座標を加算することにより、該3次元物体モデルを目標物体を含まないレーダ点群データに配置することを容易に実現することができる。該オフセット量は、異なる応用シーンに応じて柔軟に設定することができ、本開示では、該オフセット量の具体的な値の範囲を限定しない。
1つの実施形態において、ステップS13は、投影行列により物体モデルに対してレンダリングを行い、物体モデルの対応する深度マップを得るS24と、投影行列により深度マップをカメラ平面に投影するS25と、深度マップにおいてクエリを行い、レーダ光線と深度マップとの交点の深度値を得るS26と、レーダ光線と深度マップとの交点の深度値を用いて、レーダ光線の対応する線分の長さを更新することで、レーダ光線の、物体モデルの表面における交点の位置を得るS27と、を含む。
投影行列は3次元図形の1つの基本的な行列であり、投影行列を用いることで3次元の物体モデルの各頂点を乗算することができ、3次元の物体モデルに対してレンダリングを行い、該3次元の物体モデルの対応する深度マップを得ることができる。例えば、3次元の物体モデルは、複数のパッチから構成されることができ、3つの頂点ごとに1つの三角パッチを結ぶことができ、3次元の物体モデルのすべての頂点に投影行列を乗算して、該3次元の物体モデルの対応する深度マップを得ることができる。該深度マップに投影行列をさらに乗算し、深度マップをカメラ平面に投影することができる。全てのレーダ光線をトラバースして、レーダ中心から放射され、かつ目標領域位置の全ての点を通過するレーダ光線を得る。深度マップにおいてクエリを行い、各レーダ光線と物体モデルの深度マップとが交差するか否かを求めることができる。交差する場合には、レーダ光線と深度マップとの交点の深度値を得ることができる。これらの交点の深度値を用いて、深度マップと交点を有するこれらのレーダ光線の対応する線分の長さを更新する。例えば、元々これらのレーダ光線の長さは極大値であり、これらの極大値をレーダ中心から各交点までの距離に対応して更新してもよい。このように、投影行列により物体モデルに対してレンダリングを行い、物体モデルの深度マップを得、深度マップにおいてレーダ光線との交点を求めることにより、深度値クエリの速度を高めることができ、3次元物体モデルの表面におけるレーダ光線の交点の位置をより早く求めることができる。
1つの実施形態において、ステップS13は、レーダ光線が物体モデルの深度マップと交差しない場合に、レーダ光線が変わらないように維持されるS28をさらに含む。レーダ光線が深度マップと交差しない場合に、レーダ光線の長さ等を一定に保つことができる。この場合、目標位置領域中の一部の点を新たに追加された物体モデルと区別してもよく、目標物体とは全く異なるモデルを追加することができる。
図3は、本開示の他の実施形態によるレーダ点群データの処理方法のフローチャート図である。該実施形態のレーダ点群データの処理方法は、上述した実施形態の各ステップを含むことができる。
1つの実施形態において、該方法は、地面方程式を用いて、目標位置領域内の地面に属する点に対して補完処理を行うS31をさらに含む。
3次元の物体モデルを追加した後、レーダ点群データのうち、元の目標物体が位置している目標位置領域に3次元の物体モデルに属さない点がいくつか存在する可能性がある。これらの点は、地面に属する点として、地面方程式を用いて補完処理することができる。これにより、実際のシーンにより近いレーダ点群データを得ることができる。
また、レーダ点群データに、補完が必要な、例えば壁面等の他の物体に属する点が含まれている場合には、関連する補完アルゴリズムを用いて補完処理を行うことができる。
1つの実施形態において、該方法は、目標検出枠内の各点の意味情報を決定するS32をさらに含み、ここで、意味情報は、目標検出枠内の各点が目標物体に属するか否かを含む。
例示的に、目標検出枠内に位置している各点の意味情報は、それらの点が目標物体に属することを表すことができ、目標検出枠の外に位置している各点の意味情報は、それらの点が目標物体に属さないことを表すことができる。具体的には、例えば、目標物体が車両である場合には、目標検出枠により決定された目標物体の範囲内の各点の意味情報は、該点が該車両に属することを示すことができる。一方、目標物体の範囲外にある点の意味情報は、該点が該車両に属さないことを表すことができる。ステップS11、S12、S13は、目標検出枠内の各点の意味情報を決定した後に実行される。例えば、S12では、これらの点の意味情報を用いて、目標物体に属する点を正確に判定することができるので、レーダ中心とこれらの点とを用いて複数の線分を生成することができる。
図4は、本開示の一実施形態によるレーダ点群データの処理装置のブロック図である。当該装置は、
レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定するための決定モジュール401と、
目標位置領域内に位置している目標物体の各点をレーダ点群データから除去するための除去モジュール402と、
物体モデルを目標位置領域に追加して、更新されたレーダ点群データを得るための追加モジュール403と、を備えることができる。
図5は、本開示の別の実施形態によるレーダ点群データの処理装置のブロック図である。当該実施形態のレーダ点群データの処理装置は、上記装置の実施形態の様々な構成要素を含むことができる。本実施形態では、1つの実施例では、目標検出枠は3次元検出枠であり、目標物体は3次元物体であり、物体モデルは3次元モデルである。
一実施形態では、除去モジュール402は、レーダ中心の座標と目標物体の各点の座標とを用いて、レーダ中心から目標物体の各点までの線分を生成するための線分生成サブモジュール501と、各線分の長さを、予め設定された極大値に更新するための更新サブモジュール502と、を備える。
一実施形態では、追加モジュール403は、物体モデルの各点の位置に予め設定されたオフセット量を加算して、物体モデルを目標位置領域内の位置に配置するための配置サブモジュール503を備える。
一実施形態では、追加モジュール403は、投影行列により物体モデルに対してレンダリングを行い、物体モデルの対応する深度マップを得るためのレンダリングサブモジュール504と、投影行列により深度マップをカメラ平面に投影するための投影サブモジュール505と、深度マップにおいてクエリを行い、レーダ光線と深度マップとの交点の深度値を得るためのクエリサブモジュール506と、レーダ光線と深度マップとの交点の深度値を用いて、レーダ光線の対応する線分の長さを更新することで、レーダ光線の、物体モデルの表面における交点の位置を得るための交点サブモジュール507と、をさらに備える。
一実施形態では、追加モジュール403は、レーダ光線が物体モデルの深度マップと交差しない場合に、レーダ光線が変わらないように維持されるための維持サブモジュール508をさらに備える。
図6は、本開示の別の実施形態によるレーダ点群データの処理装置のブロック図である。当該実施形態のレーダ点群データの処理装置は、上記装置の実施形態の様々な構成要素を含むことができる。本実施形態では、1つの実施例では、該装置は、地面方程式を用いて、目標位置領域内の地面に属する点に対して補完処理を行うための補完モジュール601をさらに備える。
一実施形態では、該装置は目標検出枠内の各点の意味情報を決定するための意味モジュール602をさらに備え、ここで、意味情報は、目標検出枠内の各点が目標物体に属するか否かを含む。
本開示の実施形態における各レーダ点群データの処理装置における各ユニット、モジュール、またはサブモジュールの機能は、上述したレーダ点群データの処理方法における対応する説明を参照することができ、ここでは再度言及しない。
本開示の実施形態によれば、本開示はまた、電子デバイス、可読記憶媒体、およびプログラムを提供する。
ある応用例では、本開示は、画像レンダリング技術と組み合わせて、ラベル付けされた3次元レーダー点群を編集し、元ラベル付け物体を置き換え、新たな物体に置き換えることができ、出現確率の低い物体を増加させることができる一方で、出現したことのない物体を強化することができ、同時に、自動運転ではあまり出現しないシーンを増加させることができる。
本開示は、レンダリング技術と組み合わせて、元レーダに対して直接点群の編集を行い、ラベル付けされた異常データを得る。以下では、図7を参照して、本開示の態様の具体的な流れをモジュールと関連して説明することができる。
(元物体編集モジュール702)
元のレーダ点群701は、ラベル付けされた3次元物体の目標検出枠を有することができる。該目標検出枠は、手動ラベル付けまたは自動ラベル付けにより決定されてもよく、目標検出枠の位置は、3次元座標情報によって表されてもよい。目標検出枠によって、目標物体の範囲を決定し、その範囲内の各点の意味情報を算出することにより、元の目標物体を編集することができる。例えば、目標物体が車両であれば、目標検出枠により決定された目標物体の範囲内の各点の意味情報は、該点が該車両に属することを表すことができる。一方、目標物体の範囲外にある点の意味情報は、該点が該車両に属さないことを表すことができる。元物体編集モジュールでは、目標物体の各点をトラバースし、これらの点をレーダ中心と複数の線分に結ぶことができる。各線分の長さを極大値に更新する。例えば、自動運転ではこの極大値は300mであってもよい。このようにして、物体が図から取り除かれ、物体のないレーダ点群703と呼ばれる。この例では、物体のないレーダ点群703は、主に目標物体が取り除かれレーダ点群、すなわち目標物体が含まれていないレーダ点群である。
(3次元レンダリングモジュール704)
3次元レンダリングモジュールでは、物体のないレーダ点群703において、先に取り除かれた目標物体の位置に、CAD形式の3次元モデル等の3次元モデルを配置する。たとえば、あるあらかじめ設定されたオフセットに3次元モデルの各点の座標を加算することで、目標物体が取り除かれた位置にその3次元モデルを配置することが実現される。
3次元モデルに対応する深度マップは、投影行列によってレンダリングすることで得られる。例えば、オフセット後の3次元モデルの頂点に投影行列を乗算して、該3次元モデルの対応する深度マップを得る。すべてのレーダー光線をトラバースする。
その後、この深度マップを、同じ投影行列によって同じカメラ平面に投影することもできる。例えば、この深度マップに投影行列を乗算することにより、深度マップをカメラ平面に投影することができる。
深度マップにおいてクエリを行い、レーダー光線が深度マップにおける目標物体と交差しない場合には、レーダー光線が変わらないように維持される一方、交差する場合には、光線と深度マップとの交点を算出し、交点の深度値を得て更新を行う。例えば、レーダ光線の対応する線分の長さを更新する。これにより、レーダ光線と深度マップとの交点を3次元モデルの表面に転写することができる。例えば、レーダ光線の、3次元モデルの表面における交点の座標位置等の情報を得る。この3次元レンダリングモジュールにより、深度値クエリの速度を高めることができる。
最終的に、3次元レンダリングモジュールによって、新たなレーダ点群705を得ることができる。例示的な効果は、効果図8および9を参照することができる。ここで、図8は元のレーダ点群の例であり、目標物体が車両であると仮定し、図9は編集後の新たなレーダ点群である。図8と図9から、レーダ点群を編集することにより、元々車両であった目標物体を、ある歩行者の3次元モデルに変換することができ、レーダ点群の遮蔽関係も依然として成立していることが分かる。
本開示の方案によれば、本来のラベル付けされた物体(すなわち、目標物体)をいくつかの一般的でない物体(様々な3次元モデル)に置き換えることができ、それによって大量の異常クラスラベル付けデータを得ることができる。これらの大量の異常クラスタグ付けデータを利用して自動運転シミュレーションを行うことにより、自動運転の安全性を向上させることができる。これらの大量の異常クラスタグ付けデータを用いてニューラルネットワークを訓練することにより、より正確なニューラルネットワークモデルを得ることができる。
図10は、本開示の実施形態を実現するための電子デバイス800のブロック図である。電子デバイスは、各形式のデジタルコンピュータを指し、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及びその他の適合するコンピュータが挙げられる。電子デバイスは、各形式の移動装置をさらに指し、例えば、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、ウェアラブルデバイス、及びその他の類似のコンピュータ装置が挙げられる。本開示に記載されているコンポーネント、それらの接続関係、及び機能は例示的なものに過ぎず、本開示に記載・特定されているものの実現を限定するわけではない。
図10に示すように、デバイス800は、リードオンリーメモリ(ROM)802に記憶されたコンピュータプログラム命令、又は記憶ユニット808からランダムアクセスメモリ(RAM)803にローディングされたコンピュータプログラム命令に基づいて、各種の適切な動作と処理を実行できるコンピューティングユニット801を含む。RAM803には、デバイス800の動作に必要な各種のプログラム及びデータをさらに記憶することができる。コンピューティングユニット801と、ROM802と、RAM803とは、バス804を介して互いに接続されている。入力/出力(I/O)インターフェース805もバス804に接続されている。
デバイス800における複数のコンポーネントは、I/Oインターフェース805に接続されており、その複数のコンポーネントは、キーボードやマウスなどの入力ユニット806と、種々なディスプレイやスピーカなどの出力ユニット808と、磁気ディスクや光学ディスクなどの記憶ユニット808と、ネットワークカード、モデム、無線通信トランシーバーなどの通信ユニット809と、を備える。通信ユニット809は、デバイス800がインターネットのようなコンピュータネット及び/又は種々なキャリアネットワークを介して他の機器と情報/データを交換することを許可する。
コンピューティングユニット801は、処理及びコンピューティング能力を有する様々な汎用及び/又は専用の処理コンポーネントであってもよい。コンピューティングユニット801のいくつかの例としては、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)コンピューティングチップ、様々な機械学習モデルアルゴリズムを実行するコンピューティングユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを備えるが、これらに限定されない。コンピューティングユニット801は、上述で説明された各方法及び処理、例えばレーダ点群データの処理方法を実行する。例えば、いくつかの実施形態では、レーダ点群データの処理方法を、記憶ユニット808のような機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウエアプログラムとして実現することができる。一部の実施形態では、コンピュータプログラムの一部又は全ては、ROM802及び/又は通信ユニット809を介して、デバイス800にロード及び/又はインストールすることができる。コンピュータプログラムがRAM803にロードされてコンピューティングユニット801によって実行される場合に、前述したレーダ点群データの処理方法の1つ又は複数のステップを実行することができる。追加可能に、他の実施形態では、コンピューティングユニット801は、他の任意の適当な方式(例えば、ファームウェア)によりレーダ点群データの処理方法を実行するように構成することができる。
ここで記載されているシステム又は技術の各種の実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)、コンピュータのハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせによって実現することができる。これらの各実施形態は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにて実行及び/又は解釈される1つ又は複数のコンピュータプログラムにより実行することを含み得、該プログラマブルプロセッサは、ストレージシステム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータ及び命令を受け取り、データ及び命令を該ストレージシステム、該少なくとも1つの入力デバイス、及び該少なくとも1つの出力デバイスに転送することができる専用又は汎用のプログラマブルプロセッサであってもよい。
本開示の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで作成することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラミングデータ処理装置のプロセッサ又はコントローラに提供されることにより、プログラムコードがプロセッサ又はコントローラによって実行される場合に、フローチャート及び/又はブロック図に規定された機能/動作を実行することができる。プログラムコードは、完全にマシンで実行されてもよいし、部分的にマシンで実行されてもよいし、独立したソフトパッケージとして部分的にマシンで実行されるとともに部分的にリモートマシンで実行されてもよし、又は完全にリモートマシン又はサーバで実行されてもよい。
本開示の説明において、機械読み取り可能な媒体は、有形な媒体であってもよく、命令実行システム、装置又は機器によって、又は命令実行システム、装置又は機器と合わせて用いられるプログラムを含み、又は記憶する。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置、又はデバイス、又は前述した内容の任意の適切な組み合わせを含むことができるがこれらに限定されない。機械読み取り可能な記憶媒体のさらなる具体例として、1つ又は複数の配線による電気的接続、ポータブルコンピュータディスクカートリッジ、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(RMO)、消去可能なプログラマブルリードオンリーメモリ(EPRMO又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスクリードオンリーメモリ(CD-RMO)、光学記憶装置、磁気記憶装置、又は前述した内容の任意の組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータでここで記載されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニターなど)、ユーザが入力をコンピュータに提供するためのキーボード及びポインティングデバイス(例えば、マウス又はトラックボールなど)を備えるができる。ユーザとのインタラクションを提供するために、他の種類の装置を使用することもでき、例えば、ユーザに提供するフィードバックは、いかなる形式のセンサーフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバックなど)であってもよく、また、いかなる形式(例えば、音響入力、音声入力、触覚入力など)によって、ユーザからの入力を受付取るができる。
ここに記載されているシステムと技術を、バックグラウンド部品に含まれるコンピューティングシステム(例えば、データサーバとして)、又はミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロント部品を含むコンピューティングシステム(例えば、GUI又はネットワークブラウザを有するユーザコンピュータが挙げられ、ユーザがGUI又は当該ネットワークブラウザによって、ここに記載されているシステムと技術の実施形態とインタラクションすることができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、又はフロント部品のいかなる組合せのコンピューティングシステムで実施することができる。如何なる形式又はメディアのデジタルデータ通信(例えば、通信ネットワーク)を介して、システムの部品を互いに接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを含む。
コンピュータシステムは、クライアントとサーバを含み得る。通常、クライアントとサーバは、互いに離れており、通信ネットワークを介してインタラクションを行うことが一般的である。対応するコンピュータで動作することで、クライアント-サーバの関係を有するコンピュータプログラムによってクライアントとサーバの関係を生み出す。
上記の様々な態様のフローを使用して、ステップを新たに順序付け、追加、又は削除することが可能であることを理解すべきである。例えば、本開示で記載された各ステップは、並列に実行しても良いし、順次に実行しても良いし、異なる順序で実行しても良い。本開示で開示された技術案が所望する結果を実現することができる限り、本開示ではこれに限定されない。
上記具体的な実施形態は、本開示の保護範囲に対する限定を構成するものではない。当業者は、設計事項やその他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、及び代替が可能であることを理解するべきである。本開示の要旨及び原理原則内における変更、均等な置換及び改善などは、いずれも本開示の保護範囲に含まれるべきである。

Claims (17)

  1. レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定することと、
    前記目標位置領域内に位置している前記目標物体の各点を前記レーダ点群データから除去することと、
    物体モデルを前記目標位置領域に追加して、更新されたレーダ点群データを得ることと、を含み、
    前記目標位置領域内に位置している前記目標物体の各点を前記レーダ点群データから除去することは、
    レーダ中心の座標と前記目標物体の各点の座標とを用いて、レーダ中心から前記目標物体の各点までの線分を生成することと、
    各線分の長さを、予め設定された極大値に更新することと、を含む、
    レーダ点群データの処理方法。
  2. 前記目標検出枠は、3次元検出枠であり、
    前記目標物体は、3次元物体であり、
    前記物体モデルは、3次元モデルである、
    請求項1に記載のレーダ点群データの処理方法。
  3. 物体モデルを前記目標位置領域に追加することは、
    前記物体モデルの各点の位置に予め設定されたオフセット量を加算することで、前記物体モデルの、目標位置領域内における位置を決定することを含む、
    請求項に記載のレーダ点群データの処理方法。
  4. 物体モデルを前記目標位置領域に追加することは、
    投影行列により前記物体モデルに対してレンダリングを行い、前記物体モデルの対応する深度マップを得ることと、
    前記投影行列により前記深度マップをカメラ平面に投影することと、
    前記深度マップにおいてクエリを行い、レーダ光線と前記深度マップとの交点の深度値を得ることと、
    前記レーダ光線と前記深度マップとの交点の深度値を用いて、前記レーダ光線の対応する線分の長さを更新することで、前記レーダ光線の、前記物体モデルの表面における交点の位置を得ることと、をさらに含む、
    請求項に記載のレーダ点群データの処理方法。
  5. 物体モデルを前記目標位置領域に追加することは、
    前記レーダ光線が前記物体モデルの深度マップと交差しない場合に、前記レーダ光線が変わらないように維持されることをさらに含む、
    請求項に記載のレーダ点群データの処理方法。
  6. 前記レーダ点群データの処理方法は、
    地面方程式を用いて、前記目標位置領域内の地面に属する点に対して補完処理を行うことをさらに含む、
    請求項1~のいずれか1項に記載のレーダ点群データの処理方法。
  7. 前記レーダ点群データの処理方法は、
    目標検出枠内の各点の意味情報を決定することをさらに含み、ここで、前記意味情報は、前記目標検出枠内の各点が目標物体に属するか否かを含む、
    請求項1~のいずれか1項に記載のレーダ点群データの処理方法。
  8. レーダ点群データにおける目標検出枠を用いて、目標物体が位置している目標位置領域を決定するための決定モジュールと、
    前記目標位置領域内に位置している前記目標物体の各点を前記レーダ点群データから除去するための除去モジュールと、
    物体モデルを前記目標位置領域に追加して、更新されたレーダ点群データを得るための追加モジュールと、を備え
    前記除去モジュールは、
    レーダ中心の座標と前記目標物体の各点の座標とを用いて、レーダ中心から前記目標物体の各点までの線分を生成するための線分生成サブモジュールと、
    各線分の長さを、予め設定された極大値に更新するための更新サブモジュールと、を備える、
    レーダ点群データの処理装置。
  9. 前記目標検出枠は、3次元検出枠であり、
    前記目標物体は、3次元物体であり、
    前記物体モデルは、3次元モデルである、
    請求項に記載のレーダ点群データの処理装置。
  10. 前記追加モジュールは、
    前記物体モデルの各点の位置に予め設定されたオフセット量を加算して、前記物体モデルを目標位置領域内の位置に配置するための配置サブモジュールを備える、
    請求項に記載のレーダ点群データの処理装置。
  11. 前記追加モジュールは、
    投影行列により前記物体モデルに対してレンダリングを行い、前記物体モデルの対応する深度マップを得るためのレンダリングサブモジュールと、
    前記投影行列により前記深度マップをカメラ平面に投影するための投影サブモジュールと、
    前記深度マップにおいてクエリを行い、レーダ光線と前記深度マップとの交点の深度値を得るためのクエリサブモジュールと、
    前記レーダ光線と前記深度マップとの交点の深度値を用いて、前記レーダ光線の対応する線分の長さを更新することで、前記レーダ光線の、前記物体モデルの表面における交点の位置を得るための交点サブモジュールと、をさらに備える、
    請求項10に記載のレーダ点群データの処理装置。
  12. 前記追加モジュールは、
    前記レーダ光線が前記物体モデルの深度マップと交差しない場合に、前記レーダ光線が変わらないように維持されるための維持サブモジュールをさらに備える、
    請求項11に記載のレーダ点群データの処理装置。
  13. 前記レーダ点群データの処理装置は、
    地面方程式を用いて、前記目標位置領域内の地面に属する点に対して補完処理を行うための補完モジュールをさらに備える、
    請求項8~11のいずれか1項に記載のレーダ点群データの処理装置。
  14. 前記レーダ点群データの処理装置は、
    目標検出枠内の各点の意味情報を決定するための意味モジュールをさらに備え、ここで、前記意味情報は、前記目標検出枠内の各点が目標物体に属するか否かを含む、
    請求項8~11のいずれか1項に記載のレーダ点群データの処理装置。
  15. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
    前記メモリには、前記少なくとも1つのプロセッサで実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、請求項1から請求項までのいずれか1項に記載のレーダ点群データの処理方法を実行させる、
    電子デバイス。
  16. コンピュータに請求項1から請求項までのいずれか1項に記載のレーダ点群データの処理方法を実行させる命令を記憶するための非一時的なコンピュータ可読記憶媒体。
  17. コンピュータにおいて、プロセッサにより実行されると、請求項1から請求項までのいずれか1項に記載のレーダ点群データの処理方法を実現するためのプログラム。
JP2022010074A 2021-05-20 2022-01-26 レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラム Active JP7312866B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/325,762 US11796670B2 (en) 2021-05-20 2021-05-20 Radar point cloud data processing method and device, apparatus, and storage medium
US17/325,762 2021-05-20

Publications (2)

Publication Number Publication Date
JP2022050689A JP2022050689A (ja) 2022-03-30
JP7312866B2 true JP7312866B2 (ja) 2023-07-21

Family

ID=77464125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022010074A Active JP7312866B2 (ja) 2021-05-20 2022-01-26 レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラム

Country Status (5)

Country Link
US (1) US11796670B2 (ja)
EP (1) EP4102254A1 (ja)
JP (1) JP7312866B2 (ja)
KR (1) KR20220041792A (ja)
CN (1) CN114296083A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12117528B2 (en) * 2019-02-15 2024-10-15 Arizona Board Of Regents On Behalf Of The University Of Arizona Mobile 3D imaging system and method
CN114527675A (zh) * 2021-12-31 2022-05-24 广州文远知行科技有限公司 自动驾驶仿真测试方法、装置、设备及存储介质
CN114419567A (zh) * 2022-01-17 2022-04-29 北京智行者科技有限公司 基于深度学习的激光雷达目标检测方法及装置
CN114966604B (zh) * 2022-05-26 2024-05-03 苏州轻棹科技有限公司 一种分区点云的目标检测处理方法
CN117635786A (zh) * 2022-08-09 2024-03-01 北京三快在线科技有限公司 点云处理方法、装置、设备及存储介质
CN116030103B (zh) * 2023-03-07 2024-02-27 北京百度网讯科技有限公司 确定砌筑质量的方法、装置、设备和介质
CN116467848B (zh) * 2023-03-21 2023-11-03 之江实验室 一种毫米波雷达点云仿真的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035441A (ja) 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 模擬点群データを生成する方法、装置、機器および記憶媒体
JP2020034559A (ja) 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 動的障害物の位置校正方法、装置、機器、及び記憶媒体
US20210019453A1 (en) 2019-07-15 2021-01-21 Ke.Com (Beijing) Technology Co., Ltd. Artificial intelligence systems and methods for interior design
CN112330815A (zh) 2020-11-26 2021-02-05 北京百度网讯科技有限公司 基于障碍物融合的三维点云数据处理方法、装置和设备
CN112365600A (zh) 2020-11-10 2021-02-12 中山大学 一种三维物体检测方法
CN112639822A (zh) 2020-03-27 2021-04-09 华为技术有限公司 一种数据处理方法及装置
CN112651881A (zh) 2020-12-30 2021-04-13 北京百度网讯科技有限公司 图像合成方法、装置、设备、存储介质以及程序产品

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545029B2 (en) * 2016-12-30 2020-01-28 DeepMap Inc. Lane network construction using high definition maps for autonomous vehicles
CN108765487B (zh) * 2018-06-04 2022-07-22 百度在线网络技术(北京)有限公司 重建三维场景的方法、装置、设备和计算机可读存储介质
CN110869974B (zh) * 2018-11-19 2024-06-11 深圳市卓驭科技有限公司 点云处理方法、设备及存储介质
CN111079545A (zh) * 2019-11-21 2020-04-28 上海工程技术大学 一种基于图像修复的三维目标检测方法和系统
CN111583663B (zh) * 2020-04-26 2022-07-12 宁波吉利汽车研究开发有限公司 基于稀疏点云的单目感知修正方法、装置及存储介质
CN112560972B (zh) * 2020-12-21 2021-10-08 北京航空航天大学 基于毫米波雷达先验定位和视觉特征融合的目标检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035441A (ja) 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 模擬点群データを生成する方法、装置、機器および記憶媒体
JP2020034559A (ja) 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 動的障害物の位置校正方法、装置、機器、及び記憶媒体
US20210019453A1 (en) 2019-07-15 2021-01-21 Ke.Com (Beijing) Technology Co., Ltd. Artificial intelligence systems and methods for interior design
CN112639822A (zh) 2020-03-27 2021-04-09 华为技术有限公司 一种数据处理方法及装置
CN112365600A (zh) 2020-11-10 2021-02-12 中山大学 一种三维物体检测方法
CN112330815A (zh) 2020-11-26 2021-02-05 北京百度网讯科技有限公司 基于障碍物融合的三维点云数据处理方法、装置和设备
CN112651881A (zh) 2020-12-30 2021-04-13 北京百度网讯科技有限公司 图像合成方法、装置、设备、存储介质以及程序产品

Also Published As

Publication number Publication date
EP4102254A1 (en) 2022-12-14
KR20220041792A (ko) 2022-04-01
US11796670B2 (en) 2023-10-24
US20210270958A1 (en) 2021-09-02
JP2022050689A (ja) 2022-03-30
CN114296083A (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
JP7312866B2 (ja) レーダ点群データの処理方法、装置、電子デバイス、記憶媒体、及びプログラム
EP3922951A1 (en) Method and device for drawing a three-dimensional road network map, apparatus and medium
JP7166383B2 (ja) 高精度マップの作成方法及び装置
EP4120199A1 (en) Image rendering method and apparatus, and electronic device and storage medium
US10916054B2 (en) Three-dimensional mesh deformation using deep learning neural networks
US20210333302A1 (en) Method and apparatus for processing trajectory, roadside device and cloud control platform
JP7258066B2 (ja) 測位方法、測位装置及び電子機器
EP3904829B1 (en) Method and apparatus for generating information, device, medium and computer program product
EP4116935A2 (en) High-definition map creation method and device, and electronic device
EP3896624A2 (en) Speed planning method and apparatus for self-driving, device, medium and vehicle
CN105718643A (zh) 一种基于最优化视角的船舶生产设计审图器实现方法
CN111739005A (zh) 图像检测方法、装置、电子设备及存储介质
CN114627239B (zh) 包围盒生成方法、装置、设备及存储介质
US11697428B2 (en) Method and apparatus for 3D modeling
CN113920217A (zh) 用于生成高精地图车道线的方法、装置、设备和产品
CN114880337B (zh) 地图数据一体化更新方法、装置、设备以及存储介质
CN109101674B (zh) 一种复杂线性模型规则化建模方法及系统
US20220111515A1 (en) Method and Apparatus for Managing Robot Program
US20230048643A1 (en) High-Precision Map Construction Method, Apparatus and Electronic Device
CN114460743B (zh) 图像展示设备的成像效果分析方法、装置、设备及介质
CN111968071B (zh) 车辆的空间位置生成方法、装置、设备及存储介质
CN112988932B (zh) 高精地图标注方法、装置、设备、可读存储介质及产品
CN114036166A (zh) 高精地图数据更新方法、装置、电子设备以及存储介质
CN115127565A (zh) 高精地图数据生成方法、装置、电子设备及存储介质
CN107103642B (zh) 一种三维模型体素化实体填充方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7312866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150