JP2022502306A - レーダ空間推定 - Google Patents
レーダ空間推定 Download PDFInfo
- Publication number
- JP2022502306A JP2022502306A JP2021517297A JP2021517297A JP2022502306A JP 2022502306 A JP2022502306 A JP 2022502306A JP 2021517297 A JP2021517297 A JP 2021517297A JP 2021517297 A JP2021517297 A JP 2021517297A JP 2022502306 A JP2022502306 A JP 2022502306A
- Authority
- JP
- Japan
- Prior art keywords
- cell
- radar
- radar sensor
- occupied
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 64
- 230000003068 static effect Effects 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 10
- 230000015654 memory Effects 0.000 description 25
- 238000012544 monitoring process Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000414 obstructive effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 231100000817 safety factor Toxicity 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
Abstract
Description
このPCT国際出願は、参照により本明細書に組み込まれる、2018年9月28日に出願した、優先米国特許出願第16/147,177号の利益を主張するものである。
A:レーダシステムと、レーダシステムに通信可能に結合された1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行可能な命令を記憶する1つまたは複数のコンピュータ可読媒体とを備える自律車両であって、命令は、実行されると、自律車両に、レーダシステムによって環境のレーダセンサデータをキャプチャする動作と、レーダセンサデータに少なくとも部分的に基づいて、環境の第1の領域内のオブジェクトを検出する動作と、環境の第1の領域内のオブジェクトを検出したことに少なくとも部分的に基づいて、空間グリッドの第1のセルを占有されているものとして指定する動作であって、第1のセルが環境の第1の領域に関連付けられている、動作と、レーダシステムのレーダセンサの位置に対する第1のセルの位置に少なくとも部分的に基づいて、空間グリッドの第2のセルを閉塞されているものとして指定する動作であって、第2のセルが環境の第2の領域に関連付けられている、動作と、レーダセンサの視野に少なくとも部分的に基づいて、空間グリッドの第3のセルを自由空間であるものとして指定する動作であって、第3のセルが、レーダセンサの視野内にあり、非占有であり、非閉塞である環境の領域に関連付けられている、動作と、空間グリッドの第1のセル、第2のセル、および第3のセルの指定に少なくとも部分的に基づいて、環境内の自律車両を制御する動作とを含む動作を実行させる。
本明細書で説明する技法の1つまたは複数の例が説明されているが、それらの様々な改変、追加、並べ替え、および均等物が、本明細書で説明する技法の範囲内に含まれる。
Claims (15)
- 自律車両であって、
レーダシステムと、
前記レーダシステムに通信可能に結合された1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行可能な命令を記憶する1つまたは複数のコンピュータ可読媒体であって、前記命令は、実行されると、前記自律車両に、
前記レーダシステムによって環境のレーダセンサデータをキャプチャする動作と、
前記レーダセンサデータに少なくとも部分的に基づいて、前記環境の第1の領域内のオブジェクトを検出する動作と、
前記環境の前記第1の領域内の前記オブジェクトを検出したことに少なくとも部分的に基づいて、空間グリッドの第1のセルを占有されているものとして指定する動作であって、前記第1のセルが前記環境の前記第1の領域に関連付けられている、動作と、
前記レーダシステムのレーダセンサの位置に対する前記第1のセルの位置に少なくとも部分的に基づいて、前記空間グリッドの第2のセルを閉塞されているものとして指定する動作であって、前記第2のセルが前記環境の第2の領域に関連付けられている、動作と、
前記空間グリッドの前記第1のセルおよび前記第2のセルの前記指定に少なくとも部分的に基づいて、前記環境内の前記自律車両を制御する動作と
を含む動作を実行させる1つまたは複数のコンピュータ可読媒体と
を備えたことを特徴とする自律車両。 - 前記レーダセンサは、第1のレーダセンサを備え、前記レーダシステムは、前記第1のレーダセンサと第2のレーダセンサとを備え、
前記空間グリッドの前記第1のセルを占有されているものとして指定する動作は、前記空間グリッドの前記第1のセルに対応する前記領域が占有されていることを示す前記第1のレーダセンサまたは前記第2のレーダセンサのうちの少なくとも1つのレーダセンサデータに基づき、
前記空間グリッドの前記第2のセルを前記オブジェクトによって閉塞されているものとして指定する動作は、前記空間グリッドの前記第2のセルに対応する前記領域が閉塞されていることを示す前記第1のレーダセンサおよび前記第2のレーダセンサのレーダセンサデータに基づくことを特徴とする請求項1に記載の自律車両。 - 前記動作は、
前記レーダセンサデータに少なくとも部分的に基づいて、前記空間グリッドの第3のセルを自由空間であるものとして指定する動作であって、前記第3のセルが、前記レーダセンサの前記視野内にあり、非占有であり、非閉塞である前記環境の領域に関連付けられている、動作、
をさらに含み、
前記環境内の前記自律車両を制御する動作は、前記空間グリッドの前記第3のセルの前記指定に少なくとも部分的にさらに基づくことを特徴とする請求項1または2に記載の自律車両。 - 前記オブジェクトが静的オブジェクトであると決定する動作と、
前記空間グリッドの前記第1のセルに隣接するセルの占有確率を計算する動作と、
前記第1のセルに隣接する前記セルの前記占有確率がしきい値確率を超えることに少なくとも部分的に基づいて、前記第1のセルに隣接する前記セルを前記静的オブジェクトによって占有されているものとして指定する動作と
をさらに含むことを特徴とする請求項1または2に記載の自律車両。 - 前記レーダセンサデータまたは他のセンサデータに少なくとも部分的に基づいて、第2のセルを含む第2の領域を決定する動作と、
前記レーダセンサデータに少なくとも部分的に基づいて、前記第2の領域に入る前記オブジェクトを検出する動作と、
前記オブジェクトが前記第2の領域に入ることに少なくとも部分的に基づいて、前記第2の領域が非占有であると決定する動作と、
前記第2の領域が非占有であることを示すように前記空間グリッドの前記第2のセルを更新する動作と
をさらに含むことを特徴とする請求項1乃至4のいずれか1項に記載の自律車両。 - 前記動作は、
前記オブジェクトが動的オブジェクトであると決定する動作と、
前記動的オブジェクトのトラックに関連付けられた境界ボックスを決定する動作と、
前記境界ボックスのエリアに関連付けられた前記空間グリッドの1つまたは複数のセルを占有されているものとして指定する動作と
をさらに含むことを特徴とする請求項1乃至3、または5のいずれか1つに記載の自律車両。 - 前記空間グリッドは、レーダシステム空間グリッドを含み、
前記環境内の前記自律車両を制御する動作は、ライダ空間グリッドまたはカメラ空間グリッドのうちの少なくとも1つに少なくとも部分的にさらに基づくことを特徴とする請求項1乃至6のいずれか1項に記載の自律車両。 - レーダセンサによって、環境のレーダセンサデータをキャプチャするステップと、
前記レーダデータに少なくとも部分的に基づいて、空間グリッドの第1のセルを占有されているものとして指定するステップであって、前記第1のセルが前記環境の第1の領域に関連付けられている、ステップと、
前記レーダセンサの位置と、第2のセルとに対する前記第1のセルの位置に少なくとも部分的に基づいて、前記第2のセルを閉塞されているものとして指定するステップと、
前記環境に関連付けられた前記空間グリッドを出力するステップと
を含むことを特徴とする方法。 - 前記レーダセンサは、第1のレーダセンサを備え、
前記方法は、
第2のレーダセンサによって、環境のレーダセンサデータをキャプチャするステップをさらに含み、
前記空間グリッドの前記第1のセルを占有されているものとして指定するステップは、前記空間グリッドの前記第1のセルに対応する前記領域が占有されていることを示す前記第1のレーダセンサまたは前記第2のレーダセンサのうちの少なくとも1つのレーダセンサデータに基づき、
前記空間グリッドの前記第2のセルを前記オブジェクトによって閉塞されているものとして指定するステップは、前記空間グリッドの前記第2のセルに対応する前記領域が閉塞されていることを示す前記第1のレーダセンサおよび前記第2のレーダセンサのレーダセンサデータに基づくことを特徴とする請求項8に記載の方法。 - 前記レーダセンサデータに少なくとも部分的に基づいて、前記空間グリッドの第3のセルを自由空間であるものとして指定するステップであって、前記第3のセルが、前記レーダセンサの前記視野内にあり、非占有であり、非閉塞である前記環境の領域に関連付けられている、ステップをさらに含み、
前記環境内の前記自律車両を制御するステップは、前記空間グリッドの前記第3のセルの前記指定に少なくとも部分的にさらに基づくことを特徴とする請求項8または9に記載の方法。 - 前記空間グリッドの前記第1のセルに隣接するセルの占有確率を計算するステップと、
前記第1のセルに隣接する前記セルの前記占有確率がしきい値確率を超えることに少なくとも部分的に基づいて、前記第1のセルに隣接する前記セルを占有されているものとして指定するステップと
をさらに含むことを特徴とする請求項8乃至10のいずれか1項に記載の方法。 - 前記レーダセンサデータに少なくとも部分的に基づいて、前記第1の領域に入るオブジェクトを検出するステップと、
前記オブジェクトが前記第1の領域に入ることに少なくとも部分的に基づいて、前記第1の領域が非占有であると決定するステップと、
前記第1の領域が非占有であることを示すように前記空間グリッドの前記第1のセルを更新するステップと
をさらに含むことを特徴とする請求項8乃至11のいずれか1項に記載の方法。 - 前記占有された領域が動的オブジェクトに関連付けられていると決定するステップと、
前記動的オブジェクトのトラックに関連付けられた境界ボックスを決定するステップと、
前記境界ボックスの前記トラックのエリアに関連付けられた前記空間グリッドの1つまたは複数のセルを占有されているものとして指定するステップと
をさらに含むことを特徴とする請求項8乃至12のいずれか1項に記載の方法。 - 前記占有グリッドをライダデータまたはカメラデータのうちの少なくとも1つと融合するステップをさらに含むことを特徴とする請求項8乃至13のいずれか1項に記載の方法。
- 実行されると、1つまたは複数のプロセッサに、請求項8乃至14のいずれか1項に記載の方法を実行させる命令を記憶する1つまたは複数の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/147,177 US11353577B2 (en) | 2018-09-28 | 2018-09-28 | Radar spatial estimation |
US16/147,177 | 2018-09-28 | ||
PCT/US2019/053013 WO2020069025A1 (en) | 2018-09-28 | 2019-09-25 | Radar spatial estimation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022502306A true JP2022502306A (ja) | 2022-01-11 |
JPWO2020069025A5 JPWO2020069025A5 (ja) | 2022-09-22 |
Family
ID=69945441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021517297A Pending JP2022502306A (ja) | 2018-09-28 | 2019-09-25 | レーダ空間推定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11353577B2 (ja) |
EP (1) | EP3857264A4 (ja) |
JP (1) | JP2022502306A (ja) |
CN (1) | CN112752988B (ja) |
WO (1) | WO2020069025A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102593795B1 (ko) * | 2022-09-30 | 2023-10-26 | 주식회사 플럭시티 | 공간 속성 정보를 3d 정보와 결합하는 방법 및 장치 |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11126199B2 (en) * | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
US11048265B2 (en) | 2018-06-18 | 2021-06-29 | Zoox, Inc. | Occlusion aware planning |
US10642275B2 (en) * | 2018-06-18 | 2020-05-05 | Zoox, Inc. | Occulsion aware planning and control |
EP3867721A1 (en) * | 2018-10-15 | 2021-08-25 | Starship Technologies OÜ | Method and system for operating a robot |
US10814870B2 (en) * | 2018-12-04 | 2020-10-27 | GM Global Technology Operations LLC | Multi-headed recurrent neural network (RNN) for multi-class trajectory predictions |
CN111382768B (zh) * | 2018-12-29 | 2023-11-14 | 华为技术有限公司 | 多传感器数据融合方法和装置 |
US11555927B2 (en) * | 2019-02-05 | 2023-01-17 | Honda Motor Co., Ltd. | System and method for providing online multi-LiDAR dynamic occupancy mapping |
US11620478B2 (en) * | 2019-02-06 | 2023-04-04 | Texas Instruments Incorporated | Semantic occupancy grid management in ADAS/autonomous driving |
US20220159261A1 (en) * | 2019-03-21 | 2022-05-19 | Lg Electronics Inc. | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method |
US11314254B2 (en) * | 2019-03-26 | 2022-04-26 | Intel Corporation | Methods and apparatus for dynamically routing robots based on exploratory on-board mapping |
JP7244325B2 (ja) * | 2019-03-27 | 2023-03-22 | 株式会社Soken | 物体検出装置 |
US11280897B2 (en) * | 2019-03-31 | 2022-03-22 | Waymo Llc | Radar field of view extensions |
US11170567B2 (en) * | 2019-06-28 | 2021-11-09 | Woven Planet North America, Inc. | Dynamic object detection model based on static map collection data |
US11143747B2 (en) * | 2019-07-11 | 2021-10-12 | GM Global Technology Operations LLC | Methods and systems for classifying received signals from radar system |
KR20210111557A (ko) * | 2020-03-03 | 2021-09-13 | 현대자동차주식회사 | 심층 학습 기반의 객체 분류 장치 및 그 방법 |
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
US11625009B2 (en) * | 2020-03-26 | 2023-04-11 | Intel Corporation | Non-uniform occupancy grid manager |
EP3905105A1 (en) * | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
EP3905106A1 (en) * | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
US20200326721A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | Occupancy verification device and method |
CN112052878B (zh) * | 2020-08-11 | 2024-04-16 | 浙江大华技术股份有限公司 | 一种雷达的遮挡识别的方法、装置及存储介质 |
KR20220027359A (ko) * | 2020-08-26 | 2022-03-08 | 현대자동차주식회사 | 자율주행을 위한 높이 맵 격자간격 조정방법 |
EP3961481A1 (en) * | 2020-08-31 | 2022-03-02 | Aptiv Technologies Limited | Vehicles, systems and methods for determining an occupancy map of a vicinity of a vehicle |
US20240004031A1 (en) * | 2020-11-12 | 2024-01-04 | The Regents Of The University Of California | Multi radar object detection |
DE102020130069A1 (de) * | 2020-11-13 | 2022-05-19 | Audi Aktiengesellschaft | Steuerung eines Kraftfahrzeugs bei teilweiser Sichtfeldverdeckung |
FR3116640B1 (fr) * | 2020-11-20 | 2023-11-17 | Commissariat Energie Atomique | Procédé itératif d’estimation du mouvement d’un corps matériel par génération d’une grille de mouvement filtrée |
US20220196829A1 (en) * | 2020-12-17 | 2022-06-23 | Aptiv Technologies Limited | Radar Reference Map Generation |
KR20220095661A (ko) * | 2020-12-30 | 2022-07-07 | 현대자동차주식회사 | 센서 퓨전 트랙 생성장치 및 센서 퓨전 트랙 생성방법 |
US20220261008A1 (en) * | 2021-02-16 | 2022-08-18 | Sony Group Corporation | Circuitry and method |
US11810367B2 (en) * | 2021-06-29 | 2023-11-07 | Toyota Research Institute, Inc. | System and method for determining if a vehicle is parked |
KR20230014344A (ko) * | 2021-07-21 | 2023-01-30 | 현대모비스 주식회사 | 차량의 주변 환경 모니터링 장치 및 방법 |
EP4123338A3 (en) * | 2021-07-21 | 2023-04-19 | Hyundai Mobis Co., Ltd. | Apparatus and method for monitoring surrounding environment of vehicle |
EP4123336A1 (en) * | 2021-07-21 | 2023-01-25 | Hyundai Mobis Co., Ltd. | Apparatus and method for monitoring surrounding environment of vehicle |
US11834077B2 (en) * | 2021-09-14 | 2023-12-05 | Barry Gilhuly | Systems, methods, and media for occlusion-aware motion planning |
CN114212106B (zh) * | 2021-12-17 | 2023-10-10 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆的可行驶区域内安全概率的确定方法及装置 |
US20230192090A1 (en) * | 2021-12-22 | 2023-06-22 | Motional Ad Llc | Precedence determination at multi-way stops |
GB2617062A (en) * | 2022-03-23 | 2023-10-04 | Aptiv Tech Ltd | Sensor processing method, apparatus, computer program product, and automotive sensor system |
CN114643984A (zh) * | 2022-05-20 | 2022-06-21 | 阿里巴巴达摩院(杭州)科技有限公司 | 驾驶避险方法、装置、设备、介质及产品 |
CN114677494B (zh) * | 2022-05-26 | 2022-09-16 | 中国人民解放军国防科技大学 | 基于剖分网格的雷达探测能力计算方法、装置及设备 |
CN114897951B (zh) * | 2022-05-30 | 2023-02-28 | 中国测绘科学研究院 | 聚合多视角深度信息的单张光场影像深度估计方法及系统 |
CN116299254B (zh) * | 2022-09-07 | 2023-10-13 | 无锡国芯微电子系统有限公司 | 一种被动雷达寻的器的目标跟踪方法 |
WO2024081667A1 (en) * | 2022-10-14 | 2024-04-18 | Motional Ad Llc | Radar- and vision-based navigation using bounding boxes |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6055042A (en) | 1997-12-16 | 2000-04-25 | Caterpillar Inc. | Method and apparatus for detecting obstacles using multiple sensors for range selective detection |
US6173215B1 (en) | 1997-12-19 | 2001-01-09 | Caterpillar Inc. | Method for determining a desired response to detection of an obstacle |
US7266477B2 (en) * | 2005-06-22 | 2007-09-04 | Deere & Company | Method and system for sensor signal fusion |
CN104169738B (zh) | 2012-04-26 | 2016-11-09 | 英特尔公司 | 确定相对定位信息 |
US9429650B2 (en) * | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
US9367065B2 (en) * | 2013-01-25 | 2016-06-14 | Google Inc. | Modifying behavior of autonomous vehicles based on sensor blind spots and limitations |
EP2840007B1 (en) | 2013-08-22 | 2018-04-04 | Honda Research Institute Europe GmbH | Consistent behaviour generation of a predictive advanced driver assistant system |
US9315192B1 (en) | 2013-09-30 | 2016-04-19 | Google Inc. | Methods and systems for pedestrian avoidance using LIDAR |
US9255988B2 (en) * | 2014-01-16 | 2016-02-09 | GM Global Technology Operations LLC | Object fusion system of multiple radar imaging sensors |
FR3022049B1 (fr) * | 2014-06-06 | 2016-07-22 | Inria Inst Nat De Rech En Informatique Et En Automatique | Procede d'analyse d'une scene dynamique, module d'analyse et programme d'ordinateur associes |
US9804594B2 (en) | 2014-11-07 | 2017-10-31 | Clearpath Robotics, Inc. | Self-calibrating sensors and actuators for unmanned vehicles |
US9530062B2 (en) * | 2014-12-23 | 2016-12-27 | Volkswagen Ag | Fused raised pavement marker detection for autonomous driving using lidar and camera |
DE102015201706A1 (de) * | 2015-02-02 | 2016-08-04 | Bayerische Motoren Werke Aktiengesellschaft | Verarbeitung von Sensormessungen eines Fahrzeugumfeldes bei geringer Querauflösung |
US9612123B1 (en) | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US10145951B2 (en) | 2016-03-30 | 2018-12-04 | Aptiv Technologies Limited | Object detection using radar and vision defined image detection zone |
US9910442B2 (en) * | 2016-06-28 | 2018-03-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded area detection with static obstacle maps |
US10137890B2 (en) | 2016-06-28 | 2018-11-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded obstacle classification for vehicles |
US20180113209A1 (en) * | 2016-10-21 | 2018-04-26 | Waymo Llc | Radar generated occupancy grid for autonomous vehicle perception and planning |
US10296794B2 (en) | 2016-12-20 | 2019-05-21 | Jayant Rtti | On-demand artificial intelligence and roadway stewardship system |
US10311312B2 (en) | 2017-08-31 | 2019-06-04 | TuSimple | System and method for vehicle occlusion detection |
US10037613B1 (en) | 2017-03-30 | 2018-07-31 | Uber Technologies, Inc. | Systems and methods to track vehicles proximate perceived by an autonomous vehicle |
US10086809B1 (en) * | 2017-05-02 | 2018-10-02 | Delphi Technologies, Inc. | Automatic braking system |
US10268191B1 (en) | 2017-07-07 | 2019-04-23 | Zoox, Inc. | Predictive teleoperator situational awareness |
US11625045B2 (en) * | 2017-08-31 | 2023-04-11 | Uatc, Llc | Systems and methods for controlling an autonomous vehicle with occluded sensor zones |
US10783381B2 (en) | 2017-08-31 | 2020-09-22 | Tusimple, Inc. | System and method for vehicle occlusion detection |
EP3460516B1 (en) * | 2017-09-20 | 2020-05-27 | Aptiv Technologies Limited | A device and a method for distinguishing between traversable and non-traversable objects |
US10552689B2 (en) * | 2017-11-09 | 2020-02-04 | Here Global B.V. | Automatic occlusion detection in road network data |
US11422561B2 (en) | 2018-01-11 | 2022-08-23 | Toyota Jidosha Kabushiki Kaisha | Sensor system for multiple perspective sensor data sets |
US20190387185A1 (en) * | 2018-06-13 | 2019-12-19 | Luminar Technologies, Inc. | Thermal imager with enhanced processing |
US10491885B1 (en) * | 2018-06-13 | 2019-11-26 | Luminar Technologies, Inc. | Post-processing by lidar system guided by camera information |
US10642275B2 (en) | 2018-06-18 | 2020-05-05 | Zoox, Inc. | Occulsion aware planning and control |
US11048265B2 (en) | 2018-06-18 | 2021-06-29 | Zoox, Inc. | Occlusion aware planning |
US11326888B2 (en) * | 2018-07-25 | 2022-05-10 | Uatc, Llc | Generation of polar occlusion maps for autonomous vehicles |
US10678246B1 (en) * | 2018-07-30 | 2020-06-09 | GM Global Technology Operations LLC | Occupancy grid movie system |
US20200049511A1 (en) * | 2018-08-07 | 2020-02-13 | Ford Global Technologies, Llc | Sensor fusion |
-
2018
- 2018-09-28 US US16/147,177 patent/US11353577B2/en active Active
-
2019
- 2019-09-25 EP EP19865906.2A patent/EP3857264A4/en active Pending
- 2019-09-25 CN CN201980063663.9A patent/CN112752988B/zh active Active
- 2019-09-25 WO PCT/US2019/053013 patent/WO2020069025A1/en unknown
- 2019-09-25 JP JP2021517297A patent/JP2022502306A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102593795B1 (ko) * | 2022-09-30 | 2023-10-26 | 주식회사 플럭시티 | 공간 속성 정보를 3d 정보와 결합하는 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20200103523A1 (en) | 2020-04-02 |
WO2020069025A1 (en) | 2020-04-02 |
EP3857264A1 (en) | 2021-08-04 |
CN112752988A (zh) | 2021-05-04 |
US11353577B2 (en) | 2022-06-07 |
EP3857264A4 (en) | 2022-06-22 |
CN112752988B (zh) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112752988B (zh) | 雷达空间估计 | |
US11802969B2 (en) | Occlusion aware planning and control | |
US11631200B2 (en) | Prediction on top-down scenes based on action data | |
US11740633B2 (en) | Determining occupancy of occluded regions | |
US11351991B2 (en) | Prediction based on attributes | |
US11048265B2 (en) | Occlusion aware planning | |
US11215997B2 (en) | Probabilistic risk assessment for trajectory evaluation | |
US11021148B2 (en) | Pedestrian prediction based on attributes | |
US11169531B2 (en) | Trajectory prediction on top-down scenes | |
US11126180B1 (en) | Predicting an occupancy associated with occluded region | |
US11643073B2 (en) | Trajectory modifications based on a collision zone | |
US11422259B2 (en) | Multi-resolution maps for localization | |
US10890663B2 (en) | Loading multi-resolution maps for localization | |
JP2021522585A (ja) | マスクを使用したデータセグメンテーション | |
EP3807807A1 (en) | Occlusion aware planning | |
CN114072841A (zh) | 根据图像使深度精准化 | |
JP2023505059A (ja) | センサデータを使用した高さ推定 | |
US20220176988A1 (en) | Determining inputs for perception system | |
WO2020006091A1 (en) | Multi-resolution maps for localization | |
US20230245336A1 (en) | Distance representation and encoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240409 |