JP7315723B2 - 車両姿勢認識方法及び関連装置 - Google Patents
車両姿勢認識方法及び関連装置 Download PDFInfo
- Publication number
- JP7315723B2 JP7315723B2 JP2021575083A JP2021575083A JP7315723B2 JP 7315723 B2 JP7315723 B2 JP 7315723B2 JP 2021575083 A JP2021575083 A JP 2021575083A JP 2021575083 A JP2021575083 A JP 2021575083A JP 7315723 B2 JP7315723 B2 JP 7315723B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- target
- component
- feature point
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 230000008859 change Effects 0.000 claims description 28
- 230000003247 decreasing effect Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
(i-1)回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、ターゲット特徴点のコンポーネント認識結果を特定することであって、コンポーネント認識結果は第1の結果信頼性を有する、ことと、
複数の特徴点のコンポーネント認識結果に基づいて、特定すべき複数のコンポーネントを特定することと、を行うように構成されている。
特定すべき複数のコンポーネント間の位置関係に基づいて、ターゲット特徴点の車両平面認識結果を特定することであって、車両平面認識結果は第2の結果信頼性を有する、ことと、
第1の結果信頼性及び第2の結果信頼性に基づく更新により、i回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率を取得することと、を行うように構成されている。
ターゲット特徴点がターゲットコンポーネント上に位置する確率を、プリセットされた第1の変更量増やすこと及び/又はターゲット特徴点が非ターゲットコンポーネント上に位置する確率をプリセットされた第2の変更量減らすことを行うように構成され、ターゲットコンポーネントはコンポーネント認識結果によって示されるコンポーネントである。
ターゲット特徴点がターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率を、プリセットされた第3の変更量増やすこと及び/又はターゲット特徴点が非ターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率をプリセットされた第4の変更量減らすことを行うように構成され、ターゲット車両平面は車両平面認識結果によって示される車両平面である。
最も高い確率に対応するコンポーネントをターゲット特徴点が位置するコンポーネントとして特定するように構成されている。
特定すべき複数のコンポーネント間の位置関係を、複数のプリセットされた位置関係と比較することであって、各プリセットされた位置関係は1つの車両平面に対応する、ことと、
差異が最も小さいプリセットされた位置関係に対応する車両平面を、ターゲット特徴点が位置する車両平面として特定することと、を行うように構成されている。
第2のコストが第2の閾値未満であると判断ユニットが判断した場合、複数の反復を終了するように構成されている。
Si=ρi(F、Si-1,Li-1),∀i≧2
Siはi回目の反復の複数の特徴点の第1の結果信頼性を示し、ρi()は第1の結果信頼性を予測する関数を示し、Fは特徴マップを示し且つ4次元行列を用いて表され、4次元行列の寸法は特徴マップに含まれる特徴点のD、W、Hにそれぞれ対応し且つ特徴点が特徴マップの各層に対応するコンポーネント上に位置する確率に対応し、Si-1は(i-1)回目の反復の複数の特徴点の第1の結果信頼性を示し、Li-1は(i-1)回目の反復の複数の特徴点の第2の結果信頼性を示し、∀i≧2はiが2以上であることを示す。
それに対応して、特徴マップ内の各特徴点の車両平面認識結果は第2の結果信頼性を有し、複数の特徴点の第2の結果の信頼性は下記式(2)で表され得る。
Li=φi(F、Si-1,Li-1),∀i≧2
Liはi回目の反復の複数の特徴点の第2の結果信頼性を示し、φi()は第2の結果信頼性を予測する関数を示し、Fは特徴マップを示し且つ4次元行列を用いて表され、4次元行列の寸法は特徴マップに含まれる特徴点のD、W、Hにそれぞれ対応し且つ特徴点が特徴マップの各層に対応するコンポーネント上に位置する確率に対応し、Si-1は(i-1)回目の反復の複数の特徴点の第1の結果信頼性を示し、Li-1は(i-1)回目の反復の複数の特徴点の第2の結果信頼性を示し、∀i≧2はiが2以上であることを示す。
(i-1)回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、ターゲット特徴点のコンポーネント認識結果を特定することであって、該コンポーネント認識結果は第1の結果信頼性を有する、ことと、
複数の特徴点のコンポーネント認識結果に基づいて、特定すべき複数のコンポーネントを特定することと、を行うように構成されている。
特定すべき複数のコンポーネント間の位置関係に基づいて、ターゲット特徴点の車両平面認識結果を特定することであって、該車両平面認識結果は第2の結果信頼性を有する、ことと、
第1の結果信頼性及び第2の結果信頼性に基づく更新により、i回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率を取得することと、を行うように構成されている。
ターゲット特徴点がターゲットコンポーネント上に位置する確率を、プリセットされた第1の変更量増やすこと及び/又はターゲット特徴点が非ターゲットコンポーネント上に位置する確率をプリセットされた第2の変更量減らすことを行うように構成され、該ターゲットコンポーネントはコンポーネント認識結果によって示されるコンポーネントである。
ターゲット特徴点がターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率を、プリセットされた第3の変更量増やすこと及び/又はターゲット特徴点が非ターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率をプリセットされた第4の変更量減らすことを行うように構成され、該ターゲット車両平面は前記車両平面認識結果によって示される車両平面である。
最も高い確率に対応するコンポーネントをターゲット特徴点が位置するコンポーネントとして特定するように構成されている。
特定すべき複数のコンポーネント間の位置関係を、複数のプリセットされた位置関係と比較することであって、各プリセットされた位置関係は1つの車両平面に対応する、ことと、
差異が最も小さいプリセットされた位置関係に対応する車両平面を、ターゲット特徴点が位置する車両平面として特定することと、を行うように構成されている。
第2のコストが第2の閾値未満であると判定ユニットが判定した場合、複数の反復を終了するようにさらに構成されている。
特徴マップ内の複数の特徴点に基づいて、該特徴マップに含まれるターゲット車両の複数のコンポーネントを特定することであって、該特徴マップは、各特徴点がターゲット車両の異なるコンポーネント上に位置する確率を表すために用いられる、ことと、
複数のコンポーネント間の位置関係に基づいて、ターゲット車両の車両平面を特定することと、
車両平面に基づいてターゲット車両の姿勢を認識することと、
の動作を実施するように構成され、
複数の特徴点はターゲット特徴点を含み、車両平面は複数の反復を介して特定され、該複数の反復のうちのi回目の反復は、
(i-1)回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、ターゲット特徴点のコンポーネント認識結果を特定することであって、該コンポーネント認識結果は第1の結果信頼性を有する、ことと、
複数の特徴点のコンポーネント認識結果に基づいて、特定すべき複数のコンポーネントを特定することと、
特定すべき複数のコンポーネント間の位置関係に基づいて、ターゲット特徴点の車両平面認識結果を特定することであって、該車両平面認識結果は第2の結果信頼性を有する、ことと、
第1の結果信頼性及び第2の結果信頼性に基づく更新により、i回目の反復においてターゲット特徴点が異なるコンポーネント上に位置する確率を取得することと、
を含む。
ターゲット特徴点がターゲットコンポーネント上に位置する確率を、プリセットされた第1の変更量増やすこと及び/又はターゲット特徴点が非ターゲットコンポーネント上に位置する確率をプリセットされた第2の変更量減らすことであって、該ターゲットコンポーネントはコンポーネント認識結果によって示されるコンポーネントである、こと、
という動作を実施するようにさらに構成されている。
ターゲット特徴点がターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率を、プリセットされた第3の変更量増やすこと及び/又はターゲット特徴点が非ターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率をプリセットされた第4の変更量減らすことであって、該ターゲット車両平面は車両平面認識結果によって示される車両平面である、こと、
という動作を実施するようにさらに構成されている。
最も高い確率に対応するコンポーネントをターゲット特徴点が位置するコンポーネントとして特定すること、
という動作を実施するようにさらに構成されている。
特定すべき複数のコンポーネント間の位置関係を、複数のプリセットされた位置関係と比較することであって、各プリセットされた位置関係は1つの車両平面に対応する、ことと、
差異が最も小さいプリセットされた位置関係に対応する車両平面を、ターゲット特徴点が位置する車両平面として特定することと、
という動作を実施するようにさらに構成されている。
第1のコストが第1の閾値未満の場合に、複数の反復を終了すること、
という動作を実施するようにさらに構成され、
特徴マップは多層特徴マップであり、特徴マップの各層はターゲット車両の1つのコンポーネントに対応し、第1のコストは下記式に基づいて得られ、
第2のコストが第2の閾値未満の場合に、複数の反復を終了すること、
という動作を実施するようにさらに構成され、
第2のコストは下記式に基づいて得られ、
特徴マップにおけるターゲット車両のコンポーネント上に位置する確率が反映されない特徴点に対応するW1(P)又はW2(P)を0に設定すること、
という動作を実施するようにさらに構成されている。
Claims (12)
- 車両姿勢認識方法であって、
特徴マップ内の複数の特徴点に基づいて、該特徴マップに含まれるターゲット車両の複数のコンポーネントを特定することであって、該特徴マップは3次元ボクセルネットワークを用いることにより前記ターゲット車両の3次元点群データから得られ、該特徴マップは、各層が前記ターゲット車両の1つのコンポーネントに対応する多層特徴マップであり、各特徴点が前記ターゲット車両の異なるコンポーネント上に位置する確率を表すために用いられる、ことと、
前記複数のコンポーネント間の位置関係に基づいて、
前記ターゲット車両の車両平面を特定することと、
前記車両平面に基づいて前記ターゲット車両の姿勢を認識することと、
を含み、
前記複数の特徴点はターゲット特徴点を含み、前記車両平面は複数の反復を介して特定され、該複数の反復のうちのi回目の反復は、
(i-1)回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、前記ターゲット特徴点のコンポーネント認識結果を特定することであって、該コンポーネント認識結果は第1の結果信頼性を有する、ことと、
前記複数の特徴点のコンポーネント認識結果に基づいて、特定すべき複数のコンポーネントを特定することと、
前記特定すべき複数のコンポーネント間の位置関係に基づいて、前記ターゲット特徴点の車両平面認識結果を特定することであって、該車両平面認識結果は第2の結果信頼性を有する、ことと、
前記第1の結果信頼性及び前記第2の結果信頼性に基づく更新により、前記i回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率を取得することと、
を含む、方法。 - 前記第1の結果信頼性が前記第2の結果信頼性よりも高い場合、前記第1の結果信頼性及び前記第2の結果信頼性に基づく更新により、前記i回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率を取得することは、
前記ターゲット特徴点がターゲットコンポーネント上に位置する確率を、プリセットされた第1の変更量増やすこと及び/又は前記ターゲット特徴点が非ターゲットコンポーネント上に位置する確率をプリセットされた第2の変更量減らすことであって、該ターゲットコンポーネントは前記コンポーネント認識結果によって示されるコンポーネントである、こと、
を含む、請求項1に記載の方法。 - 前記第1の結果信頼性が前記第2の結果信頼性よりも低い場合、前記第1の結果信頼性及び前記第2の結果信頼性に基づく更新により、前記i回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率を取得することは、
前記ターゲット特徴点がターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率を、プリセットされた第3の変更量増やすこと及び/又は前記ターゲット特徴点が非ターゲット車両平面上の少なくとも1つのコンポーネント上に位置する確率をプリセットされた第4の変更量減らすことであって、該ターゲット車両平面は前記車両平面認識結果によって示される車両平面である、こと、
を含む、請求項1に記載の方法。 - 前記(i-1)回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、前記ターゲット特徴点のコンポーネント認識結果を特定することは、
最も高い確率に対応するコンポーネントを前記ターゲット特徴点が位置するコンポーネントとして特定すること、
を含む、請求項1乃至3のいずれか一項に記載の方法。 - 前記特定すべき複数のコンポーネント間の位置関係に基づいて、前記ターゲット特徴点の車両平面認識結果を決定することは、
前記特定すべき複数のコンポーネント間の位置関係を、複数のプリセットされた位置関係と比較することであって、各プリセットされた位置関係は1つの車両平面に対応する、ことと、
差異が最も小さいプリセットされた位置関係に対応する車両平面を、前記ターゲット特徴点が位置する車両平面として特定することと、
を含む、請求項1乃至4のいずれか一項に記載の方法。 - 前記i回目の反復は、
第1のコストが第1の閾値未満の場合に、前記複数の反復を終了すること、
をさらに含み、
前記特徴マップは多層特徴マップであり、特徴マップの各層は前記ターゲット車両の1つのコンポーネントに対応し、前記第1のコストは下記式に基づいて得られ、
- 前記i回目の反復は、
第2のコストが第2の閾値未満の場合に、前記複数の反復を終了すること、
をさらに含み、
前記第2のコストは下記式に基づいて得られ、
- 前記特徴マップにおける前記ターゲット車両のコンポーネント上に位置する確率が反映されない特徴点に対応するW1(P)又はW2(P)は0に設定されている、請求項6又は7に記載の方法。
- 第1の特定ユニット、第2の特定ユニット及び認識ユニットを含む車両姿勢認識装置であって、
前記第1の特定ユニットは、特徴マップ内の複数の特徴点に基づいて、該特徴マップに含まれるターゲット車両の複数のコンポーネントを特定するように構成され、該特徴マップは3次元ボクセルネットワークを用いることにより前記ターゲット車両の3次元点群データから得られ、該特徴マップは、各層が前記ターゲット車両の1つのコンポーネントに対応する多層特徴マップであり、各特徴点が前記ターゲット車両の異なるコンポーネント上に位置する確率を表すために用いられ、
前記第2の特定ユニットは、前記複数のコンポーネント間の位置関係に基づいて前記ターゲット車両の車両平面を特定するように構成され、
前記認識ユニットは、前記車両平面に基づいて前記ターゲット車両の姿勢を認識するように構成され、
前記複数の特徴点はターゲット特徴点を含み、前記車両平面は複数の反復を介して特定され、該複数の反復のうちのi回目の反復において、
前記第1の特定ユニットは、
(i-1)回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率に基づいて、前記ターゲット特徴点のコンポーネント認識結果を特定することであって、該コンポーネント認識結果は第1の結果信頼性を有する、ことと、
前記複数の特徴点のコンポーネント認識結果に基づいて、特定すべき複数のコンポーネントを特定することと、
を行うように構成され、
前記第2の特定ユニットは、
前記特定すべき複数のコンポーネント間の位置関係に基づいて、前記ターゲット特徴点の車両平面認識結果を特定することであって、該車両平面認識結果は第2の結果信頼性を有する、ことと、
前記第1の結果信頼性及び前記第2の結果信頼性に基づく更新により、前記i回目の反復において前記ターゲット特徴点が異なるコンポーネント上に位置する確率を取得することと、
を行うように構成されている、装置。 - プロセッサ及びメモリを含む、車両姿勢を認識するための装置であって、
前記メモリはプログラムコードを記憶し、該プログラムコードを前記プロセッサに送信するように構成され、
前記プロセッサは、前記プログラムコードの命令に従って、請求項1乃至8のいずれか一項に記載の車両姿勢認識方法を行うように構成されている、装置。 - コンピュータ読み取り可能記憶媒体であって、当該コンピュータ読み取り可能記憶媒体はプログラムコードを記憶するように構成され、該プログラムコードは、請求項1乃至8のいずれか一項に記載の車両姿勢認識方法を行うために用いられる、コンピュータ読み取り可能記憶媒体。
- コンピュータプログラムであって、コンピュータ上で実行された場合に、該コンピュータに請求項1乃至8のいずれか一項に記載の車両姿勢認識方法を行わせる命令を含む、コンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/091480 WO2020252615A1 (zh) | 2019-06-17 | 2019-06-17 | 一种车辆姿态识别方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022537320A JP2022537320A (ja) | 2022-08-25 |
JP7315723B2 true JP7315723B2 (ja) | 2023-07-26 |
Family
ID=74036886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021575083A Active JP7315723B2 (ja) | 2019-06-17 | 2019-06-17 | 車両姿勢認識方法及び関連装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3968221A4 (ja) |
JP (1) | JP7315723B2 (ja) |
CN (1) | CN112513879B (ja) |
WO (1) | WO2020252615A1 (ja) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006002299A2 (en) * | 2004-06-22 | 2006-01-05 | Sarnoff Corporation | Method and apparatus for recognizing 3-d objects |
US9199643B1 (en) * | 2014-09-25 | 2015-12-01 | GM Global Technology Operations LLC | Sensor odometry and application in crash avoidance vehicle |
CN104392204B (zh) * | 2014-10-21 | 2018-03-09 | 北京智谷睿拓技术服务有限公司 | 姿态识别方法及姿态识别装置 |
CN108240807B (zh) * | 2016-12-27 | 2023-06-02 | 法法汽车(中国)有限公司 | 估计空间占据的方法 |
US10670725B2 (en) * | 2017-07-25 | 2020-06-02 | Waymo Llc | Determining yaw error from map data, lasers, and cameras |
US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
CN107702722A (zh) * | 2017-11-07 | 2018-02-16 | 云南昆船智能装备有限公司 | 一种激光导引agv自然导航定位方法 |
CN109657596A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观部件识别方法 |
CN109747638B (zh) * | 2018-12-25 | 2020-06-16 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆行驶意图识别方法及装置 |
CN109858393A (zh) * | 2019-01-11 | 2019-06-07 | 平安科技(深圳)有限公司 | 车辆违规识别方法、系统、计算机设备和存储介质 |
-
2019
- 2019-06-17 JP JP2021575083A patent/JP7315723B2/ja active Active
- 2019-06-17 CN CN201980049600.8A patent/CN112513879B/zh active Active
- 2019-06-17 WO PCT/CN2019/091480 patent/WO2020252615A1/zh unknown
- 2019-06-17 EP EP19933809.6A patent/EP3968221A4/en active Pending
Non-Patent Citations (1)
Title |
---|
Yao Xue et al.,VEHICLE DETECTION AND POSE ESTIMATION BY PROBABILISTIC REPRESENTATION,2017 IEEE International Conference on Image Processing (ICIP),IEEE,2017年09月17日,pp. 3355-3359,https://ieeexplore.ieee.org/document/8296904 |
Also Published As
Publication number | Publication date |
---|---|
CN112513879B (zh) | 2021-09-14 |
JP2022537320A (ja) | 2022-08-25 |
EP3968221A1 (en) | 2022-03-16 |
EP3968221A4 (en) | 2022-05-25 |
CN112513879A (zh) | 2021-03-16 |
WO2020252615A1 (zh) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691952B2 (en) | Adapting to appearance variations when tracking a target object in video sequence | |
US20210082181A1 (en) | Method and apparatus for object detection, intelligent driving method and device, and storage medium | |
US10733755B2 (en) | Learning geometric differentials for matching 3D models to objects in a 2D image | |
JP6743124B2 (ja) | 画像中のオブジェクト検出のためのコンテキストベースの事前分布 | |
CN106919908B (zh) | 障碍物识别方法及装置、计算机设备及可读介质 | |
KR102539942B1 (ko) | 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
US11256964B2 (en) | Recursive multi-fidelity behavior prediction | |
KR20170140214A (ko) | 신경망을 위한 훈련 기준으로서의 필터 특이성 | |
CN110009029B (zh) | 基于点云分割的特征匹配方法 | |
US11074438B2 (en) | Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision | |
US11479213B1 (en) | Sensor obstruction detection and mitigation | |
US20200051254A1 (en) | Decoupled motion models for object tracking | |
CN112991389B (zh) | 一种目标跟踪方法、装置及移动机器人 | |
KR20180048930A (ko) | 분류를 위한 강제된 희소성 | |
Sun et al. | PointMoSeg: Sparse tensor-based end-to-end moving-obstacle segmentation in 3-D lidar point clouds for autonomous driving | |
CN111615676A (zh) | 用于估计由监督机器学习器做出的决策的不确定性的系统和方法 | |
Plachetka et al. | DNN-based recognition of pole-like objects in LiDAR point clouds | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
Al Mamun et al. | An efficient encode-decode deep learning network for lane markings instant segmentation | |
JP7315723B2 (ja) | 車両姿勢認識方法及び関連装置 | |
CN113119996B (zh) | 一种轨迹预测方法、装置、电子设备及存储介质 | |
CN116868239A (zh) | 静态占用跟踪 | |
CN113963027B (zh) | 不确定性检测模型的训练、不确定性的检测方法及装置 | |
US20240119720A1 (en) | Network architecture for a three-dimensional object detection in a point cloud, method and vehicle | |
Swain et al. | Machine Learning Algorithms for Autonomous Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7315723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |