JP2023065307A - ライダーセンサとレーダーセンサを使用して物体検出を実行するニューラルネットワークをトレーニングするためのシステム及び方法 - Google Patents
ライダーセンサとレーダーセンサを使用して物体検出を実行するニューラルネットワークをトレーニングするためのシステム及び方法 Download PDFInfo
- Publication number
- JP2023065307A JP2023065307A JP2022155157A JP2022155157A JP2023065307A JP 2023065307 A JP2023065307 A JP 2023065307A JP 2022155157 A JP2022155157 A JP 2022155157A JP 2022155157 A JP2022155157 A JP 2022155157A JP 2023065307 A JP2023065307 A JP 2023065307A
- Authority
- JP
- Japan
- Prior art keywords
- lidar
- radar
- bounding boxes
- neural network
- routine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 title description 6
- 230000003416 augmentation Effects 0.000 claims abstract description 21
- 230000003190 augmentative effect Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 29
- 239000013598 vector Substances 0.000 description 10
- 238000011176 pooling Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
れる様々な形態が説明される。
20 :レーダーセンサ
30 :ライダーセンサ
40 :レーダー強度マップモジュール
50 :ライダー強度マップモジュール
60 :拡張モジュール
70 :教師ニューラルネットワーク
71 :レーダー特徴抽出モジュール
72 :ライダー特徴抽出モジュール
73 :候補境界ボックスモジュール
74 :連結モジュール
75 :回帰モジュール
80 :生徒ニューラルネットワーク
81 :レーダー特徴抽出モジュール
82 :ライダー特徴抽出モジュール
83 :候補境界ボックスモジュール
84 :連結モジュール
85 :回帰モジュール
90 :移動平均モジュール
100 :損失モジュール
110 :グラウンドトルースデータベース
200 :車両
Claims (20)
- 1つ以上のレーダーセンサから得られたレーダーデータと1つ以上のライダーセンサから得られたライダーデータとに基づいて1つ以上の物体を検出するように、生徒ニューラルネットワークをトレーニングする方法であって、
レーダーデータに基づくレーダーベースの強度マップとライダーデータに基づくライダーベースの強度マップとを生成すること、
レーダーベースの強度マップ及びライダーベースの強度マップに対して1つ以上の拡張ルーチンを実行して、レーダー入力とライダー入力とを生成すること、
教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成すること、
生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の生徒ベースの境界ボックスを生成すること、
複数の教師ベースの境界ボックス及び複数のグラウンドトルース境界ボックスに基づいて、複数の生徒ベースの境界ボックスの損失値を決定すること、
損失値に基づいて生徒ニューラルネットワークの1つ以上の重みを更新すること、及び、
生徒ニューラルネットワークの1つ以上の重みに関連付けられた移動平均に基づいて、教師ニューラルネットワークの1つ以上の重みを更新すること、を備える方法。 - レーダーベースの強度マップ及びライダーベースの強度マップに対して1つ以上の拡張ルーチンを実行して、レーダー入力とライダー入力とを生成することは、
レーダーベースの強度マップに対して第1の拡張ルーチンを実行してレーダー入力を生成すること、
ライダーベースの強度マップに対して第1の拡張ルーチンを実行して拡張ライダー入力を生成すること、及び、
拡張ライダー入力に対して第2の拡張ルーチンを実行してライダー入力を生成すること、をさらに備える請求項1に記載の方法。 - 第1の拡張ルーチンは、変換ルーチン、回転ルーチン、スケーリングルーチン、フリッピングルーチン、又は、それらの組み合わせである請求項2に記載の方法。
- 第2の拡張ルーチンは、ノイズ拡張ルーチンである請求項2に記載の方法。
- 教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成することは、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の教師ベースの境界ボックスを生成すること、をさらに備える請求項1に記載の方法。 - 複数のレーダーベースの候補境界ボックスと、複数のライダーベースの候補境界ボックスとは、事前定義された期間にわたって連結される請求項5に記載の方法。
- 生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて複数の生徒ベースの境界ボックスを生成することは、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の生徒ベースの境界ボックスを生成すること、をさらに備える請求項1に記載の方法。 - 複数のレーダーベースの候補境界ボックスと、複数のライダーベースの候補境界ボックスとは、事前定義された期間にわたって連結される請求項7に記載の方法。
- 生徒ニューラルネットワークの1つ以上の重みに関連付けられた移動平均は指数移動平均である請求項1に記載の方法。
- 損失値が閾値未満であることに応答して、生徒ニューラルネットワークがトレーニングされていると決定することをさらに備える請求項1に記載の方法。
- 1つ以上のレーダーセンサから得られたレーダーデータと1つ以上のライダーセンサから得られたライダーデータとに基づいて1つ以上の物体を検出するように、生徒ニューラルネットワークをトレーニングするシステムであって、
1つ以上のプロセッサと、
1つ以上のプロセッサによって実行可能な命令を格納する1つ以上の非一時的コンピュータ可読媒体と、を備え、
命令は、
レーダーデータに基づくレーダーベースの強度マップとライダーデータに基づくライダーベースの強度マップとを生成すること、
レーダーベースの強度マップ及びライダーベースの強度マップに対して1つ以上の拡張ルーチンを実行して、レーダー入力とライダー入力とを生成すること、
教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成すること、
生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の生徒ベースの境界ボックスを生成すること、
複数の教師ベースの境界ボックス及び複数のグラウンドトルース境界ボックスに基づいて複数の生徒ベースの境界ボックスの損失値を決定すること、
損失値に基づいて生徒ニューラルネットワークの1つ以上の重みを更新すること、
生徒ニューラルネットワークの1つ以上の重みに関連付けられた指数移動平均に基づいて、教師ニューラルネットワークの1つ以上の重みを更新すること、及び、
損失値が閾値未満であることに応答して、生徒ニューラルネットワークがトレーニングされていると決定すること、を含むシステム。 - レーダーベースの強度マップ及びライダーベースの強度マップに対して1つ以上の拡張ルーチンを実行して、レーダー入力とライダー入力とを生成する命令は、
レーダーベースの強度マップに対して第1の拡張ルーチンを実行してレーダー入力を生成すること、
ライダーベースの強度マップに対して第1の拡張ルーチンを実行して拡張ライダー入力を生成すること、及び、
拡張ライダー入力に対して第2の拡張ルーチンを実行してライダー入力を生成すること、をさらに備える請求項11に記載のシステム。 - 第1の拡張ルーチンは、変換ルーチン、回転ルーチン、スケーリングルーチン、フリッピングルーチン、又は、それらの組み合わせであり、
第2の拡張ルーチンは、ノイズ拡張ルーチンである請求項12に記載のシステム。 - 教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成する命令は、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の教師ベースの境界ボックスを生成すること、をさらに備える請求項11に記載のシステム。 - 生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて複数の生徒ベースの境界ボックスを生成する命令は、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の生徒ベースの境界ボックスを生成すること、をさらに備える請求項11に記載のシステム。 - 1つ以上のレーダーセンサから得られたレーダーデータと1つ以上のライダーセンサから得られたライダーデータとに基づいて1つ以上の物体を検出するように、生徒ニューラルネットワークをトレーニングする方法であって、
レーダーデータに基づくレーダーベースの強度マップとライダーデータに基づくライダーベースの強度マップとを生成すること、
レーダーベースの強度マップに対して第1の拡張ルーチンを実行して、レーダー入力を生成すること、
ライダーベースの強度マップに対して第1の拡張ルーチンを実行して、拡張ライダー入力を生成すること、
拡張ライダー入力に対して第2の拡張ルーチンを実行して、ライダー入力を生成すること、
教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成すること、
生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の生徒ベースの境界ボックスを生成すること、
複数の教師ベースの境界ボックス及び複数のグラウンドトルース境界ボックスに基づいて複数の生徒ベースの境界ボックスの損失値を決定すること、
損失値に基づいて生徒ニューラルネットワークの1つ以上の重みを更新すること、
生徒ニューラルネットワークの1つ以上の重みに関連付けられた移動平均に基づいて、教師ニューラルネットワークの1つ以上の重みを更新すること、及び、
損失値が閾値未満であることに応答して、生徒ニューラルネットワークがトレーニングされていると決定すること、を備える方法。 - 第1の拡張ルーチンは、変換ルーチン、回転ルーチン、スケーリングルーチン、フリッピングルーチン、又は、それらの組み合わせであり、
第2の拡張ルーチンは、ノイズ拡張ルーチンである請求項16に記載の方法。 - 教師ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて、複数の教師ベースの境界ボックスを生成することは、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の教師ベースの境界ボックスを生成すること、をさらに備える請求項16に記載の方法。 - 生徒ニューラルネットワークを使用し、レーダー入力及びライダー入力に基づいて複数の生徒ベースの境界ボックスを生成することは、
レーダー入力に基づいて1つ以上のレーダーベースの特徴を抽出し、ライダー入力に基づいて1つ以上のライダーベースの特徴を抽出すること、
1つ以上のレーダーベースの特徴に基づいて複数のレーダーベースの候補境界ボックスを生成し、1つ以上のライダーベースの特徴に基づいて複数のライダーベースの候補境界ボックスを生成すること、
複数のレーダーベースの候補境界ボックスと複数のライダーベースの候補境界ボックスとを連結して、テンソルを生成すること、及び、
テンソルに対して回帰ルーチンを実行して、複数の生徒ベースの境界ボックスを生成すること、をさらに備える請求項16に記載の方法。 - 生徒ニューラルネットワークの1つ以上の重みに関連付けられた移動平均は指数移動平均である請求項16に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163263103P | 2021-10-27 | 2021-10-27 | |
US63/263,103 | 2021-10-27 | ||
US17/832,906 | 2022-06-06 | ||
US17/832,906 US20230130588A1 (en) | 2021-10-27 | 2022-06-06 | System and method for training a neural network to perform object detection using lidar sensors and radar sensors |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023065307A true JP2023065307A (ja) | 2023-05-12 |
JP7383856B2 JP7383856B2 (ja) | 2023-11-21 |
Family
ID=83994970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022155157A Active JP7383856B2 (ja) | 2021-10-27 | 2022-09-28 | ライダーセンサとレーダーセンサを使用して物体検出を実行するニューラルネットワークをトレーニングするためのシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230130588A1 (ja) |
EP (1) | EP4174522A1 (ja) |
JP (1) | JP7383856B2 (ja) |
CN (1) | CN116030444A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11892563B1 (en) * | 2023-08-21 | 2024-02-06 | Project Canary, Pbc | Detecting human presence in an outdoor monitored site |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3525000B1 (en) | 2018-02-09 | 2021-07-21 | Bayerische Motoren Werke Aktiengesellschaft | Methods and apparatuses for object detection in a scene based on lidar data and radar data of the scene |
US11927668B2 (en) | 2018-11-30 | 2024-03-12 | Qualcomm Incorporated | Radar deep learning |
-
2022
- 2022-06-06 US US17/832,906 patent/US20230130588A1/en active Pending
- 2022-09-28 JP JP2022155157A patent/JP7383856B2/ja active Active
- 2022-10-24 EP EP22203282.3A patent/EP4174522A1/en active Pending
- 2022-10-24 CN CN202211301800.8A patent/CN116030444A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4174522A1 (en) | 2023-05-03 |
US20230130588A1 (en) | 2023-04-27 |
CN116030444A (zh) | 2023-04-28 |
JP7383856B2 (ja) | 2023-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10592805B2 (en) | Physics modeling for radar and ultrasonic sensors | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
US9870512B2 (en) | Lidar-based classification of object movement | |
JP2019055768A (ja) | ビークルの自律動作能力の構成 | |
US20170227647A1 (en) | Vehicle and method of recognizing position of vehicle based on map | |
CN113158763A (zh) | 4d毫米波和激光点云多视角特征融合的三维目标检测方法 | |
US20210063560A1 (en) | Estimating In-Plane Velocity from an Arbitrary Radar Return | |
JP2018194562A (ja) | 道路境界検出方法及び装置 | |
KR102374211B1 (ko) | 객체 인식 방법 및 이를 수행하는 객체 인식 장치 | |
EP4130798A1 (en) | Target identification method and device | |
US20210072397A1 (en) | Generation of synthetic lidar signals | |
Lee et al. | Fast road detection by cnn-based camera–lidar fusion and spherical coordinate transformation | |
US11967103B2 (en) | Multi-modal 3-D pose estimation | |
WO2020191727A1 (zh) | 一种雷达功率控制方法及装置 | |
CN112505671B (zh) | Gnss信号缺失环境下毫米波雷达目标定位方法及装置 | |
KR20230026130A (ko) | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 | |
JP7383856B2 (ja) | ライダーセンサとレーダーセンサを使用して物体検出を実行するニューラルネットワークをトレーニングするためのシステム及び方法 | |
CN112823353A (zh) | 使用机器学习进行对象定位 | |
JP2017116445A (ja) | 物体検出装置 | |
CN114663857A (zh) | 一种点云目标检测方法、装置和域控制器 | |
US20230112664A1 (en) | Systems and methods for detecting objects based on lidar data | |
Venugopala | Comparative study of 3D object detection frameworks based on LiDAR data and sensor fusion techniques | |
US20230162382A1 (en) | Method and system for determining lidar intensity values, and training method | |
US20220404490A1 (en) | Radar-based method and apparatus for generating a model of an object relative to a vehicle | |
US11760412B2 (en) | Systems and methods for controlling a vehicle localization routine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230926 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |