JP2021532442A - ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体 - Google Patents
ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体 Download PDFInfo
- Publication number
- JP2021532442A JP2021532442A JP2020567923A JP2020567923A JP2021532442A JP 2021532442 A JP2021532442 A JP 2021532442A JP 2020567923 A JP2020567923 A JP 2020567923A JP 2020567923 A JP2020567923 A JP 2020567923A JP 2021532442 A JP2021532442 A JP 2021532442A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- point cloud
- initial
- point
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Abstract
Description
本願は、2019年6月18日に中国特許局提出された、出願番号が201910523342.4であり、発明名称が「ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
三次元(3D)ポイントクラウドデータを取得することと、
前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定することと、
前記ポイントクラウドセマンティクス特徴に基づいて、前景点の部位位置情報を決定することであって、前記前景点は、前記ポイントクラウドデータのうち、ターゲットに属するポイントクラウドデータを表し、前記前景点の部位位置情報は、ターゲットにおける、前景点の相対的位置を表すためのものである、ことと、
前記ポイントクラウドデータに基づいて、少なくとも1つの初期3D枠を抽出することと、
前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定することであって、前記検出枠内の領域にターゲットが存在する、ことと、を含む。
上記いずれか1つのターゲット検出方法により、前記スマート運転装置の周囲の前記ターゲットの3D検出枠を得ることと、
前記ターゲットの3D検出枠に基づいて、運転ポリシーンを生成することと、を含む。
取得モジュールは、3Dポイントクラウドデータを取得し、前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定するように構成され、
第1処理モジュールは、前記ポイントクラウドセマンティクス特徴に基づいて、前景点の部位位置情報を決定し、前記前景点は、前記ポイントクラウドデータのうち、ターゲットに属するポイントクラウドデータを表し、前記前景点の部位位置情報は、ターゲットにおける、前景点の相対的位置を表すためのものであり、前記ポイントクラウドデータに基づいて、少なくとも1つの初期3D枠を抽出するように構成され、
第2処理モジュールは、前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定するように構成され、前記検出枠内の領域にターゲットが存在する。
前記プロセッサは、前記コンピュータプログラムを実行する時、上記いずれか1つのターゲット検出方法を実行するように構成される。
前記結合した特徴をベクトル化して特徴ベクトルを得る。前記特徴ベクトルに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行う。具体的に実現する時、結合した特徴をベクトル化して特徴ベクトルを得た後、複数の全結合層(Fully−Connected layers:FC layers)を追加して、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行う。ここで、全結合層は、ニューラルネットワークにおける1つの基礎ユニットであり、畳み込み層又はプーリング層における、カテゴリを区別できる局所的情報を整合することができる。
結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得る。前記スパース畳み込み処理された特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行う。任意選択的に、スパース畳み込み処理された特徴マップを得た後、更に、畳み込み処理により、局所的スケールから全局的スケールまでの特徴を段階的に集約することで、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を実現させる。具体的な例において、プーリング解像度が低い場合、第2実現形態により、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うことができる。
結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得る。前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行い、ダウンサンプリングされた特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行う。ここで、スパース畳み込み処理された特徴マップに対してダウンサンプリング処理を行うことで、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定をより効果的に行うことができ、また演算リソースを節約することができる。
は、特徴ベクトルに応じてチャネル方向で加算を行うことを表す。図3を参照すると、横方向特徴及び底部特徴に対して、スパース畳み込み、チャネル接続、チャネル縮減、スパース逆畳み込み等の処理を行い、横方向特徴及び底部特徴に対する特徴修正を実現させることが明らかである。
)で表される。ここで、(Cx,Cy,Cz)は、3D枠の中心位置を表す。(h,w,l)は、3D枠に対応する鳥瞰図のサイズを表す。
は、対応する鳥瞰図における、3Dの方向を表し、即ち、対応する鳥瞰図における、3D枠の向きと鳥瞰図のX軸方向との挟角を表す。部位位置タグ(Ox,Oy,Oz)は、式(1)により算出される。
(1)
は、予測した3D点の部位位置情報を表す。ここで、前景点のみに対して部位位置予測を行うことができる。
(3)
、
及び
はそれぞれ、3D枠中心位置のオフセットを表す。
、
及び
はそれぞれ、3D枠に対応する鳥瞰図のサイズのオフセットを表す。
は、3D枠に対応する鳥瞰図の方向のオフセットを表す。daは、正規化鳥瞰図における中心オフセットを表す。xa、ya及びzaは、3Dアンカー/候補枠の中心位置を表す。ha、wa及びlaは、3Dアンカー/候補枠に対応する鳥瞰図のサイズを表す。
は、3Dアンカー/候補枠に対応する鳥瞰図の方向を表す。xg、yg及びzgは、対応するground−truth枠の中心位置を表す。hg、wg及びlgは、該ground−truth枠に対応する鳥瞰図のサイズを表す。
は、該ground−truth枠に対応する鳥瞰図の方向を表す。
取得モジュール601は、3Dポイントクラウドデータを取得し、前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定するように構成され、
第1処理モジュール602は、前記ポイントクラウドセマンティクス特徴に基づいて、前景点の部位位置情報を決定し、前記前景点は、前記ポイントクラウドデータのうち、ターゲットに属するポイントクラウドデータを表し、前記前景点の部位位置情報は、ターゲットにおける、前景点の相対的位置を表すためのものであり、前記ポイントクラウドデータに基づいて、少なくとも1つの初期3D枠を抽出するように構成され、
第2処理モジュール603は、前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定するように構成され、前記検出枠内の領域にターゲットが存在する。
前記結合した特徴をベクトル化して特徴ベクトルを得て、前記特徴ベクトルに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成され、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成され、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行い、ダウンサンプリングされた特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成される。
前記メモリ71は、コンピュータプログラム及びデータを記憶するように構成され、
前記プロセッサ72は、前記メモリに記憶されたコンピュータプログラムを実行し、前記実施例のいずれか1つのターゲット検出方法又はスマート運転方法を実現させるように構成される。
Claims (22)
- ターゲット検出方法であって、前記方法は、
三次元(3D)ポイントクラウドデータを取得することと、
前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定することと、
前記ポイントクラウドセマンティクス特徴に基づいて、前景点の部位位置情報を決定することであって、前記前景点は、前記ポイントクラウドデータのうち、ターゲットに属するポイントクラウドデータを表し、前記前景点の部位位置情報は、ターゲットにおける、前景点の相対的位置を表すためのものである、ことと、
前記ポイントクラウドデータに基づいて、少なくとも1つの初期3D枠を抽出することと、
前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定することであって、前記検出枠内の領域にターゲットが存在する、ことと、を含む、ターゲット検出方法。 - 前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定することは、
各初期3D枠に対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得ることと、
プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行い、前記ターゲットの3D検出枠を決定することと、を含むことを特徴とする
請求項1に記載の方法。 - 各初期3D枠に対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得ることは、
各初期3D枠を複数のメッシュに均一に分け、各メッシュに対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得ることを含むことを特徴とする
請求項2に記載の方法。 - 各メッシュに対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行うことは、
1つのメッシュに前景点が含まれないことに応答して、前記メッシュの部位位置情報を空きとマーキングし、前記メッシュのプーリングされた前景点の部位位置情報を得て、前記メッシュのポイントクラウドセマンティクス特徴をゼロとし、前記メッシュのプーリングされたポイントクラウドセマンティクス特徴を得ることと、
1つのメッシュに前景点が含まれることに応答して、前記メッシュの前景点の部位位置情報に対して平均プーリング処理を行い、前記メッシュのプーリングされた前景点の部位位置情報を得て、前記メッシュの前景点のポイントクラウドセマンティクス特徴に対して最大プーリング処理を行い、前記メッシュのプーリングされたポイントクラウドセマンティクス特徴を得ることと、を含むことを特徴とする
請求項3に記載の方法。 - プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うことは、
前記プーリングされた各初期3D枠の部位位置情報とポイントクラウドセマンティクス特徴を結合し、結合した特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うことを含むことを特徴とする
請求項2に記載の方法。 - 結合した特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うことは、
前記結合した特徴をベクトル化して特徴ベクトルを得て、前記特徴ベクトルに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うこと、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うこと、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行い、ダウンサンプリングされた特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うこと、を含むことを特徴とする
請求項5に記載の方法。 - 前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行うことは、
前記スパース畳み込み処理された特徴マップに対してプーリング処理を行うことで、前記スパース畳み込み処理された特徴マップに対するダウンサンプリング処理を実現させることを含むことを特徴とする
請求項6に記載の方法。 - 前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定することは、
前記3Dポイントクラウドデータに対して3Dメッシュ化処理を行い、3Dメッシュを得て、前記3Dメッシュの非空白メッシュから、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を抽出することを含むことを特徴とする
請求項1から7のうちいずれか一項に記載の方法。 - 前記ポイントクラウドセマンティクス特徴に基づいて前景点の部位位置情報を決定することは、
前記ポイントクラウドセマンティクス特徴に基づいて、前記ポイントクラウドデータに対して前景と背景の分割を行い、前景点を決定することであって、前記前景点は、前記ポイントクラウドデータのうち、前景に属するポイントクラウドデータである、ことと、
前景点の部位位置情報を予測するためのニューラルネットワークを利用して、決定された前景点を処理し、前景点の部位位置情報を得ることであって、前記ニューラルネットワークは、3D枠のアノテーション情報を含む訓練データセットにより訓練されたものであり、前記3D枠のアノテーション情報は、少なくとも、前記訓練データセットのポイントクラウドデータの前景点の部位位置情報を含む、ことと、を含むことを特徴とする
請求項1から7のうちいずれか一項に記載の方法。 - スマート運転方法であって、スマート運転装置に適用され、前記スマート運転方法は、
請求項1から9のうちいずれか一項に記載のターゲット検出方法により、前記スマート運転装置の周囲の前記ターゲットの3D検出枠を得ることと、
前記ターゲットの3D検出枠に基づいて、運転ポリシーンを生成することと、を含む、スマート運転方法。 - ターゲット検出装置であって、前記装置は、取得モジュールと、第1処理モジュールと、第2処理モジュールと、を備え、
取得モジュールは、3Dポイントクラウドデータを取得し、前記3Dポイントクラウドデータに基づいて、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を決定するように構成され、
第1処理モジュールは、前記ポイントクラウドセマンティクス特徴に基づいて、前景点の部位位置情報を決定し、前記前景点は、前記ポイントクラウドデータのうち、ターゲットに属するポイントクラウドデータを表し、前記前景点の部位位置情報は、ターゲットにおける、前景点の相対的位置を表すためのものであり、前記ポイントクラウドデータに基づいて、少なくとも1つの初期3D枠を抽出するように構成され、
第2処理モジュールは、前記ポイントクラウドデータに対応するポイントクラウドセマンティクス特徴、前記前景点の部位位置情報及び前記少なくとも1つの初期3D枠に基づいて、ターゲットの3D検出枠を決定するように構成され、前記検出枠内の領域にターゲットが存在する、ターゲット検出装置。 - 前記第2処理モジュールは、各初期3D枠に対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得て、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行い、前記ターゲットの3D検出枠を決定するように構成されることを特徴とする
請求項11に記載の装置。 - 前記第2処理モジュールは、各初期3D枠を複数のメッシュに均一に分け、各メッシュに対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得て、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行い、前記ターゲットの3D検出枠を決定するように構成されることを特徴とする
請求項12に記載の装置。 - 前記第2処理モジュールは、各メッシュに対して前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行う場合、
1つのメッシュに前景点が含まれないことに応答して、前記メッシュの部位位置情報を空きとマーキングし、前記メッシュのプーリングされた前景点の部位位置情報を得て、前記メッシュのポイントクラウドセマンティクス特徴をゼロとし、前記メッシュのプーリングされたポイントクラウドセマンティクス特徴を得て、1つのメッシュに前景点が含まれることに応答して、前記メッシュの前景点の部位位置情報に対して平均プーリング処理を行い、前記メッシュのプーリングされた前景点の部位位置情報を得て、前記メッシュの前景点のポイントクラウドセマンティクス特徴に対して最大プーリング処理を行い、前記メッシュのプーリングされたポイントクラウドセマンティクス特徴を得るように構成されることを特徴とする
請求項13に記載の装置。 - 前記第2処理モジュールは、各初期3D枠に対して、前景点の部位位置情報及びポイントクラウドセマンティクス特徴のプーリング処理を行い、プーリングされた各初期3D枠の部位位置情報及びポイントクラウドセマンティクス特徴を得て、前記プーリングされた各初期3D枠の部位位置情報とポイントクラウドセマンティクス特徴を結合し、結合した特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成されることを特徴とする
請求項12に記載の装置。 - 前記第2処理モジュールは、結合した特徴に基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行う場合、
前記結合した特徴をベクトル化して特徴ベクトルを得て、前記特徴ベクトルに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成され、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成され、
又は、前記結合した特徴に対してスパース畳み込み処理を行うことで、スパース畳み込み処理された特徴マップを得て、前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行い、ダウンサンプリングされた特徴マップに基づいて、各初期3D枠の修正及び/又は各初期3D枠の信頼度決定を行うように構成されることを特徴とする
請求項15に記載の装置。 - 前記第2処理モジュールは、前記スパース畳み込み処理された特徴マップに対してダウンサンプリングを行う場合、
前記スパース畳み込み処理された特徴マップに対してプーリング処理を行うことで、前記スパース畳み込み処理された特徴マップに対するダウンサンプリング処理を実現させるように構成されることを特徴とする
請求項16に記載の装置。 - 前記取得モジュールは、3Dポイントクラウドデータを取得し、前記3Dポイントクラウドデータに対して3Dメッシュ化処理を行い、3Dメッシュを得て、前記3Dメッシュの非空白メッシュから、前記3Dポイントクラウドデータに対応するポイントクラウドセマンティクス特徴を抽出するように構成されることを特徴とする
請求項11から17のうちいずれか一項に記載の装置。 - 前記第1処理モジュールは、前記ポイントクラウドセマンティクス特徴に基づいて前景点の部位位置情報を決定する場合、
前記ポイントクラウドセマンティクス特徴に基づいて、前記ポイントクラウドデータに対して前景と背景の分割を行い、前景点を決定し、前景点は、前記ポイントクラウドデータのうち、前景に属するポイントクラウドデータであり、前景点の部位位置情報を予測するためのニューラルネットワークを利用して、決定された前景点を処理し、前景点の部位位置情報を得るように構成され、前記ニューラルネットワークは、3D枠のアノテーション情報を含む訓練データセットにより訓練されたものであり、前記3D枠のアノテーション情報は、少なくとも、前記訓練データセットのポイントクラウドデータの前景点の部位位置情報を含むことを特徴とする
請求項11から17のうちいずれか一項に記載の装置。 - 電子機器であって、プロセッサと、プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記コンピュータプログラムを実行する時、請求項1から10のうちいずれか一項に記載の方法を実行するように構成される、電子機器。 - コンピュータ記憶媒体であって、前記コンピュータ記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、請求項1から10のうちいずれか一項に記載の方法を実現させる、コンピュータ記憶媒体。
- コンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータによる実行可能な命令を含み、該コンピュータによる実行可能な命令が実行された後、請求項1から10のうちいずれか一項に記載の方法を実現させることができる、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910523342.4A CN112101066B (zh) | 2019-06-17 | 2019-06-17 | 目标检测方法和装置及智能驾驶方法、设备和存储介质 |
CN201910523342.4 | 2019-06-17 | ||
PCT/CN2019/121774 WO2020253121A1 (zh) | 2019-06-17 | 2019-11-28 | 目标检测方法和装置及智能驾驶方法、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532442A true JP2021532442A (ja) | 2021-11-25 |
JP7033373B2 JP7033373B2 (ja) | 2022-03-10 |
Family
ID=73748556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567923A Active JP7033373B2 (ja) | 2019-06-17 | 2019-11-28 | ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210082181A1 (ja) |
JP (1) | JP7033373B2 (ja) |
KR (1) | KR20210008083A (ja) |
CN (1) | CN112101066B (ja) |
SG (1) | SG11202011959SA (ja) |
WO (1) | WO2020253121A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US20210026355A1 (en) * | 2019-07-25 | 2021-01-28 | Nvidia Corporation | Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications |
US11885907B2 (en) | 2019-11-21 | 2024-01-30 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US11531088B2 (en) | 2019-11-21 | 2022-12-20 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US11532168B2 (en) | 2019-11-15 | 2022-12-20 | Nvidia Corporation | Multi-view deep neural network for LiDAR perception |
US11277626B2 (en) | 2020-02-21 | 2022-03-15 | Alibaba Group Holding Limited | Region of interest quality controllable video coding techniques |
US11388423B2 (en) | 2020-03-23 | 2022-07-12 | Alibaba Group Holding Limited | Region-of-interest based video encoding |
TWI738367B (zh) * | 2020-06-01 | 2021-09-01 | 國立中正大學 | 以卷積神經網路檢測物件影像之方法 |
US11443147B2 (en) * | 2020-12-11 | 2022-09-13 | Argo AI, LLC | Systems and methods for object detection using stereovision information |
CN112784691B (zh) * | 2020-12-31 | 2023-06-02 | 杭州海康威视数字技术股份有限公司 | 一种目标检测模型训练方法、目标检测方法和装置 |
CN115035359A (zh) * | 2021-02-24 | 2022-09-09 | 华为技术有限公司 | 一种点云数据处理方法、训练数据处理方法及装置 |
CN112801059B (zh) * | 2021-04-07 | 2021-07-20 | 广东众聚人工智能科技有限公司 | 图卷积网络系统和基于图卷积网络系统的3d物体检测方法 |
CN113298840B (zh) * | 2021-05-26 | 2022-09-16 | 南京邮电大学 | 基于带电作业场景下的多模态物体检测方法、系统、装置及存储介质 |
CN113283349A (zh) * | 2021-05-28 | 2021-08-20 | 中国公路工程咨询集团有限公司 | 基于目标锚框优选策略的交通基建施工目标监测系统与方法 |
CN113469025A (zh) * | 2021-06-29 | 2021-10-01 | 阿波罗智联(北京)科技有限公司 | 应用于车路协同的目标检测方法、装置、路侧设备和车辆 |
US20230035475A1 (en) * | 2021-07-16 | 2023-02-02 | Huawei Technologies Co., Ltd. | Methods and systems for semantic segmentation of a point cloud |
KR20230026130A (ko) | 2021-08-17 | 2023-02-24 | 충북대학교 산학협력단 | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 |
CN113688738B (zh) * | 2021-08-25 | 2024-04-09 | 北京交通大学 | 一种基于激光雷达点云数据的目标识别系统及方法 |
CN113658199B (zh) * | 2021-09-02 | 2023-11-03 | 中国矿业大学 | 基于回归修正的染色体实例分割网络 |
CN117882115A (zh) * | 2021-09-08 | 2024-04-12 | 华为技术有限公司 | 用于点云的无提议和无聚类全景分割系统的系统和方法 |
CN113642585B (zh) * | 2021-10-14 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、存储介质及计算机程序产品 |
US20230135234A1 (en) * | 2021-10-28 | 2023-05-04 | Nvidia Corporation | Using neural networks for 3d surface structure estimation based on real-world data for autonomous systems and applications |
CN113780257B (zh) * | 2021-11-12 | 2022-02-22 | 紫东信息科技(苏州)有限公司 | 多模态融合弱监督车辆目标检测方法及系统 |
CN115249349B (zh) * | 2021-11-18 | 2023-06-27 | 上海仙途智能科技有限公司 | 一种点云去噪方法、电子设备及存储介质 |
CN114298581A (zh) * | 2021-12-30 | 2022-04-08 | 广州极飞科技股份有限公司 | 质量评估模型生成方法、质量评估方法、装置、电子设备和可读存储介质 |
CN114509785A (zh) * | 2022-02-16 | 2022-05-17 | 中国第一汽车股份有限公司 | 三维物体检测方法、装置、存储介质、处理器及系统 |
CN115588187B (zh) * | 2022-12-13 | 2023-04-11 | 华南师范大学 | 基于三维点云的行人检测方法、装置、设备以及存储介质 |
CN115937644B (zh) * | 2022-12-15 | 2024-01-02 | 清华大学 | 一种基于全局及局部融合的点云特征提取方法及装置 |
CN115861561B (zh) * | 2023-02-24 | 2023-05-30 | 航天宏图信息技术股份有限公司 | 一种基于语义约束的等高线生成方法和装置 |
CN117475410B (zh) * | 2023-12-27 | 2024-03-15 | 山东海润数聚科技有限公司 | 基于前景点筛选的三维目标检测方法、系统、设备、介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075037A (ja) * | 2017-10-19 | 2019-05-16 | 日本コントロールシステム株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019192059A (ja) * | 2018-04-27 | 2019-10-31 | 田中 成典 | 対象物認識装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9183459B1 (en) * | 2014-05-06 | 2015-11-10 | The Boeing Company | Sensor fusion using detector confidence boosting |
TWI651686B (zh) * | 2017-11-30 | 2019-02-21 | 國家中山科學研究院 | 一種光學雷達行人偵測方法 |
CN108171217A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于点融合网络的三维物体检测方法 |
CN109188457B (zh) * | 2018-09-07 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 物体检测框的生成方法、装置、设备、存储介质及车辆 |
CN109410307B (zh) * | 2018-10-16 | 2022-09-20 | 大连理工大学 | 一种场景点云语义分割方法 |
CN109655019B (zh) * | 2018-10-29 | 2021-02-02 | 北方工业大学 | 一种基于深度学习和三维重建的货物体积测量方法 |
CN109597087B (zh) * | 2018-11-15 | 2022-07-01 | 天津大学 | 一种基于点云数据的3d目标检测方法 |
CN109635685B (zh) * | 2018-11-29 | 2021-02-12 | 北京市商汤科技开发有限公司 | 目标对象3d检测方法、装置、介质及设备 |
-
2019
- 2019-06-17 CN CN201910523342.4A patent/CN112101066B/zh active Active
- 2019-11-28 SG SG11202011959SA patent/SG11202011959SA/en unknown
- 2019-11-28 KR KR1020207035715A patent/KR20210008083A/ko not_active Application Discontinuation
- 2019-11-28 WO PCT/CN2019/121774 patent/WO2020253121A1/zh active Application Filing
- 2019-11-28 JP JP2020567923A patent/JP7033373B2/ja active Active
-
2020
- 2020-11-30 US US17/106,826 patent/US20210082181A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075037A (ja) * | 2017-10-19 | 2019-05-16 | 日本コントロールシステム株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019192059A (ja) * | 2018-04-27 | 2019-10-31 | 田中 成典 | 対象物認識装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7033373B2 (ja) | 2022-03-10 |
SG11202011959SA (en) | 2021-01-28 |
CN112101066A (zh) | 2020-12-18 |
CN112101066B (zh) | 2024-03-08 |
WO2020253121A1 (zh) | 2020-12-24 |
US20210082181A1 (en) | 2021-03-18 |
KR20210008083A (ko) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7033373B2 (ja) | ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体 | |
CN108986152B (zh) | 一种基于差分图像的异物检测方法及装置 | |
CN110827202A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
Ding et al. | Fast lane detection based on bird’s eye view and improved random sample consensus algorithm | |
CN113761999A (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
CN111898659A (zh) | 一种目标检测方法及系统 | |
CN113673400A (zh) | 基于深度学习的实景三维语义重建方法、装置及存储介质 | |
CN114998856B (zh) | 一种多相机图像的3d目标检测方法、装置、设备及介质 | |
CN110751040B (zh) | 一种三维物体的检测方法和装置、电子设备、存储介质 | |
CN115147328A (zh) | 三维目标检测方法及装置 | |
CN112348116A (zh) | 利用空间上下文的目标检测方法、装置和计算机设备 | |
Dimitrievski et al. | Semantically aware multilateral filter for depth upsampling in automotive lidar point clouds | |
CN112699711A (zh) | 车道线检测方法、装置、存储介质及电子设备 | |
CN113269147B (zh) | 基于空间和形状的三维检测方法、系统、存储及处理装置 | |
CN114972492A (zh) | 一种基于鸟瞰图的位姿确定方法、设备和计算机存储介质 | |
CN114898306B (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
CN111738069A (zh) | 人脸检测方法、装置、电子设备及存储介质 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN114005110B (zh) | 3d检测模型训练方法与装置、3d检测方法与装置 | |
CN113657225B (zh) | 一种目标检测方法 | |
Saleem et al. | Extending the stixel world using polynomial ground manifold approximation | |
US20200202140A1 (en) | Method and device for evaluating images, operating assistance method, and operating device | |
US20240029392A1 (en) | Prediction method for target object, computer device, and storage medium | |
US20230419522A1 (en) | Method for obtaining depth images, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7033373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |