JP2022520522A - 物体認識方法及び装置、記憶媒体並びにコンピュータプログラム - Google Patents
物体認識方法及び装置、記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2022520522A JP2022520522A JP2021541127A JP2021541127A JP2022520522A JP 2022520522 A JP2022520522 A JP 2022520522A JP 2021541127 A JP2021541127 A JP 2021541127A JP 2021541127 A JP2021541127 A JP 2021541127A JP 2022520522 A JP2022520522 A JP 2022520522A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- target
- recognized
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000004590 computer program Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims description 25
- 230000000295 complement effect Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 7
- 239000000047 product Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、2020年1月15日に提出された、出願番号が202010043515.5であり、発明名称が「物体認識方法及び装置、記憶媒体」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が援用により本発明に組み入れられる。
本発明は、コンピュータビジョン技術分野に関し、具体的に物体認識方法及び装置、記憶媒体並びにコンピュータプログラムに関する。
処理すべきポイントクラウドデータを取得し、認識すべき物体のポイントクラウドデータを含む前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するステップと、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定するステップと、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得するステップと、を含む。前記認識結果は、少なくとも前記目標種別を含む。
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得することを含み、
前記目標幾何体の次元と前記処理すべきポイントクラウドデータの次元とは、同じであり、前記目標幾何体は、規則的な形状の幾何体を含む。
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定するステップは、
前記目標特徴に基づいて、前記認識すべき物体の頭部形状と前記複数の種別のうちの各種別に対応する頭部形状との間の類似度を特定することにより、複数の類似度を取得することと、
取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定することと、を含む。
前記認識すべき物体の認識結果を取得する前に、前記方法は、
前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得するステップと、
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得するステップと、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得するステップと、を更に含み、前記複数の目標平面のうちの2つずつの平面は、互いに垂直である。
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定することと、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得することと、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定することと、を含む。
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得することを含む。
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得することを含む。
処理すべきポイントクラウドデータを取得し、認識すべき物体のポイントクラウドデータを含む前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するための第1特定モジュールと、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定するための第2特定モジュールと、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得するための認識モジュールと、を備え、前記認識結果は、少なくとも前記目標種別を含む。
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得し、
前記目標幾何体の次元と前記処理すべきポイントクラウドデータの次元とは、同じであり、前記目標幾何体は、規則的な形状の幾何体を含む。
前記認識モジュールは、前記目標特徴に基づいて、前記認識すべき物体の頭部形状と前記複数の種別のうちの各種別に対応する頭部形状との間の類似度を特定することにより、複数の類似度を取得し、取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定する。
前記装置は、トレーニングモジュールを更に備え、
トレーニングモジュールは、
前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得し、
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得し、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得する。前記複数の目標平面のうちの2つずつの平面は、互いに垂直である。
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定し、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得し、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定する。
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得する。
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得する。
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得することを含んでもよい。
前記目標特徴に基づいて、前記認識すべき物体の頭部形状と前記複数の種別のうちの各種別に対応する頭部形状との間の類似度を特定することにより、複数の類似度を取得することと、
取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定することと、を含んでもよい。
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得するステップと、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得するステップと、を更に含み、前記複数の目標平面のうちの2つずつの平面は、互いに垂直である。
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定することと、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得することと、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定することと、を含んでもよい。
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得することを含んでもよい。
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得することを含んでもよい。
物体枠の中心を座標原点に位置合わせするとともに、物体を回転して、物体の進行方向をy軸とし、垂直方向をx軸とすることを含んでもよい。
各物体枠の中心を対称中心とし、前記第1座標に対応する第1ポイントクラウドデータに対して対称処理を行い、前記第1座標に対応する第2座標の第2ポイントクラウドデータを取得することを含んでもよい。
認識すべき物体のポイントクラウドデータを含む処理すべきポイントクラウドデータを取得し、前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するための第1特定モジュール10と、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定するための第2特定モジュール20と、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得するための認識モジュール30と、を備え、前記認識結果は、少なくとも前記目標種別を含む。
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得する。
前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得し、
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得し、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得する。前記複数の目標平面のうちの2つずつの平面は、互いに垂直である。
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定し、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得し、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定する。
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得する。
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得する。
処理すべきポイントクラウドデータを取得し、認識すべき物体のポイントクラウドデータを含む前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得することと、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定することと、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得することと、を実施させる。前記認識結果は、少なくとも前記目標種別を含む。
取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定することと、を前記プロセッサに実施させる。
Claims (19)
- 物体認識方法であって、
認識すべき物体のポイントクラウドデータを含む処理すべきポイントクラウドデータを取得し、前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するステップと、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定するステップと、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得するステップと、を含み、
前記認識結果は、少なくとも前記目標種別を含むことを特徴とする物体認識方法。 - 前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するステップは、
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得することを含み、
前記目標幾何体の次元と前記処理すべきポイントクラウドデータの次元とは、同じであり、前記目標幾何体は、規則的な形状の幾何体を含むことを特徴とする請求項1に記載の物体認識方法。 - 異なる種別に属する物体は、異なる頭部形状を有し、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定するステップは、
前記目標特徴に基づいて、前記認識すべき物体の頭部形状と前記複数の種別のうちの各種別に対応する頭部形状との間の類似度を特定することにより、複数の類似度を取得することと、
取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定することと、を含むことを特徴とする請求項1又は2に記載の物体認識方法。 - 前記処理すべきポイントクラウドデータがサンプルポイントクラウドデータを含む場合に、前記認識結果は、前記認識すべき物体の形状特徴を更に含み、
前記認識すべき物体の認識結果を取得する前に、前記物体認識方法は、
前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得するステップと、
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得するステップと、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得するステップと、を更に含み、
前記複数の目標平面のうちの2つずつの平面は、互いに垂直であることを特徴とする請求項1から3の何れか一項に記載の物体認識方法。 - 前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得するステップは、
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定することと、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得することと、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定することと、を含むことを特徴とする請求項4に記載の物体認識方法。 - 前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得することは、
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得することを含むことを特徴とする請求項5に記載の物体認識方法。 - 前記複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得するステップは、
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得することを含むことを特徴とする請求項4に記載の物体認識方法。 - 前記目標ポイントクラウドデータは、各ポイントの位置情報を含み、前記認識結果は、前記認識すべき物体の位置情報を更に含むことを特徴とする請求項1から7の何れか一項に記載の物体認識方法。
- 物体認識装置であって、
認識すべき物体のポイントクラウドデータを含む処理すべきポイントクラウドデータを取得し、前記処理すべきポイントクラウドデータを処理し、目標ポイントクラウドデータを取得するための第1特定モジュールと、
前記目標ポイントクラウドデータから前記認識すべき物体を認識し、前記認識すべき物体の目標特徴を特定するための第2特定モジュールと、
前記目標特徴に基づいて、複数の種別のうち、前記認識すべき物体の属する目標種別を特定することにより、前記認識すべき物体の認識結果を取得するための認識モジュールと、を備え、
前記認識結果は、少なくとも前記目標種別を含むことを特徴とする物体認識装置。 - 前記第1特定モジュールは、
目標幾何体を介して、前記処理すべきポイントクラウドデータを目標ステップ幅でトラバースすることにより、前記目標ポイントクラウドデータを取得し、
前記目標幾何体の次元と前記処理すべきポイントクラウドデータの次元とは、同じであり、前記目標幾何体は、規則的な形状の幾何体を含むことを特徴とする請求項9に記載の物体認識装置。 - 異なる種別に属する物体は、異なる頭部形状を有し、
前記認識モジュールは、前記目標特徴に基づいて、前記認識すべき物体の頭部形状と前記複数の種別のうちの各種別に対応する頭部形状との間の類似度を特定することにより、複数の類似度を取得し、取得された複数の類似度のうちの最高の類似度に対応する種別を前記目標種別として特定することを特徴とする請求項9又は10に記載の物体認識装置。 - 前記処理すべきポイントクラウドデータがサンプルポイントクラウドデータを含む場合に、前記認識結果は、前記認識すべき物体の形状特徴を更に含み、
前記物体認識装置は、トレーニングモジュールを更に備え、
前記トレーニングモジュールは、
前記サンプルポイントクラウドデータから前記認識すべき物体を認識することにより、前記認識すべき物体に対応する目標サンプルポイントクラウドデータを取得し、
前記目標サンプルポイントクラウドデータにおける各ポイントを複数の目標平面にマッピングすることにより、前記複数の目標平面のうちの各平面における前記目標サンプルポイントクラウドデータに対応する形状情報を取得し、
複数の前記形状情報に基づいて、前記認識すべき物体の形状特徴を取得し、
前記複数の目標平面のうちの2つずつの平面は、互いに垂直であることを特徴とする請求項9から11の何れか一項に記載の物体認識装置。 - 前記トレーニングモジュールは、
前記サンプルポイントクラウドデータに基づいて、前記認識すべき物体に対応する形状を特定し、
前記認識すべき物体に対応する形状に基づいて、前記サンプルポイントクラウドデータから、前記認識すべき物体に対応する第1ポイントクラウドデータを取得し、
前記第1ポイントクラウドデータを補完することで前記第1ポイントクラウドデータに対応する第2ポイントクラウドデータを取得し、前記第2ポイントクラウドデータを前記目標サンプルポイントクラウドデータとして特定することを特徴とする請求項12に記載の物体認識装置。 - 前記トレーニングモジュールは、
前記認識すべき物体に対応する形状の中心を特定し、前記中心を対称中心とし、中心対称を採用して前記第1ポイントクラウドデータを補完することで前記第2ポイントクラウドデータを取得することを特徴とする請求項13に記載の物体認識装置。 - 前記トレーニングモジュールは、
複数の前記形状情報をフィッティングし、前記認識すべき物体の形状特徴を取得することを特徴とする請求項12に記載の物体認識装置。 - 前記目標ポイントクラウドデータは、各ポイントの位置情報を含み、前記認識結果は、前記認識すべき物体の位置情報を更に含むことを特徴とする請求項9から15の何れか一項に記載の物体認識装置。
- 物体認識装置であって、
メモリと、プロセッサと、前記メモリに記憶されて前記プロセッサで運転され得るコンピュータプログラムと、を含み、
前記コンピュータプログラムが前記プロセッサによって実行されたときに、前記プロセッサに請求項1から8の何れか一項に記載の物体認識方法を実施させることを特徴とする物体認識装置。 - コンピュータプログラムが記憶される記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されたときに、前記プロセッサに請求項1から8の何れか一項に記載の物体認識方法を実施させることを特徴とする記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行されたときに、前記プロセッサに請求項1から8の何れか一項に記載の物体認識方法を実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010043515.5A CN111259958B (zh) | 2020-01-15 | 2020-01-15 | 物体识别方法及装置、存储介质 |
CN202010043515.5 | 2020-01-15 | ||
PCT/CN2020/126485 WO2021143297A1 (zh) | 2020-01-15 | 2020-11-04 | 物体识别方法及装置、存储介质和计算机程序 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022520522A true JP2022520522A (ja) | 2022-03-31 |
Family
ID=70950621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541127A Pending JP2022520522A (ja) | 2020-01-15 | 2020-11-04 | 物体認識方法及び装置、記憶媒体並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220222922A1 (ja) |
JP (1) | JP2022520522A (ja) |
CN (1) | CN111259958B (ja) |
WO (1) | WO2021143297A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259958B (zh) * | 2020-01-15 | 2024-04-16 | 北京市商汤科技开发有限公司 | 物体识别方法及装置、存储介质 |
CN112906519B (zh) * | 2021-02-04 | 2023-09-26 | 北京邮电大学 | 一种车辆类型识别方法及装置 |
CN115321090B (zh) * | 2022-10-17 | 2023-01-13 | 中国民航大学 | 机场行李自动接取方法、装置、设备、系统及介质 |
CN116758533B (zh) * | 2023-06-02 | 2024-04-09 | 广东光速智能设备有限公司 | 塔吊吊物类型识别的方法、装置、终端及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
US20150003723A1 (en) * | 2013-06-27 | 2015-01-01 | Chevron U.S.A. Inc. | System and method of detecting objects in scene point cloud |
JP2019191908A (ja) * | 2018-04-25 | 2019-10-31 | 田中 成典 | 対象物認識装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
CN105740798B (zh) * | 2016-01-27 | 2019-07-23 | 西安理工大学 | 一种基于结构分析的点云场景物体识别方法 |
CN106127153B (zh) * | 2016-06-24 | 2019-03-05 | 南京林业大学 | 车载激光扫描点云数据的交通标牌识别方法 |
CN106250881A (zh) * | 2016-08-25 | 2016-12-21 | 深圳大学 | 一种基于三维点云数据的目标识别方法及系统 |
CN106846272A (zh) * | 2017-01-18 | 2017-06-13 | 西安工程大学 | 一种点云模型的去噪精简方法 |
CN107316048B (zh) * | 2017-05-03 | 2020-08-28 | 深圳市速腾聚创科技有限公司 | 点云分类方法及装置 |
FR3067495B1 (fr) * | 2017-06-08 | 2019-07-05 | Renault S.A.S | Procede et systeme d'identification d'au moins un objet en deplacement |
CN107748890A (zh) * | 2017-09-11 | 2018-03-02 | 汕头大学 | 一种基于深度图像的视觉抓取方法、装置及其可读存储介质 |
CN109558838B (zh) * | 2018-11-29 | 2021-02-02 | 北京经纬恒润科技股份有限公司 | 一种物体识别方法及系统 |
CN111259958B (zh) * | 2020-01-15 | 2024-04-16 | 北京市商汤科技开发有限公司 | 物体识别方法及装置、存储介质 |
-
2020
- 2020-01-15 CN CN202010043515.5A patent/CN111259958B/zh active Active
- 2020-11-04 JP JP2021541127A patent/JP2022520522A/ja active Pending
- 2020-11-04 WO PCT/CN2020/126485 patent/WO2021143297A1/zh active Application Filing
-
2022
- 2022-04-01 US US17/711,627 patent/US20220222922A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
US20150003723A1 (en) * | 2013-06-27 | 2015-01-01 | Chevron U.S.A. Inc. | System and method of detecting objects in scene point cloud |
JP2019191908A (ja) * | 2018-04-25 | 2019-10-31 | 田中 成典 | 対象物認識装置 |
Non-Patent Citations (3)
Title |
---|
XU ZEWEI ET AL.: "Vehicle Recognition and Classification Method Based on Laser Scanning Point Cloud Data", 2015 INTERNATIONAL CONFERENCE ON TRANSPORTATION INFORMATION AND SAFETY (ICTIS), JPN6022032560, 28 June 2015 (2015-06-28), US, ISSN: 0004842429 * |
伊東 聖矢 外3名: "ポイントクラウドを入力とした物体認識と形状補完ネットワークの提案", 電子情報通信学会技術研究報告, vol. 第117巻 第392号, JPN6022032558, 11 January 2018 (2018-01-11), JP, pages 325 - 328, ISSN: 0005001350 * |
池城 和夫 外1名: "人体パーツマッチングと時系列姿勢情報を用いたオクルージョン領域を含む人体の形状復元手法", 画像電子学会誌 VOL.45 NO.1 2016 [CD−ROM], vol. 第45巻 第1号, JPN6022032557, 30 January 2016 (2016-01-30), JP, pages 84 - 97, ISSN: 0005001349 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021143297A1 (zh) | 2021-07-22 |
CN111259958B (zh) | 2024-04-16 |
US20220222922A1 (en) | 2022-07-14 |
CN111259958A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022520522A (ja) | 物体認識方法及び装置、記憶媒体並びにコンピュータプログラム | |
EP3505962B1 (en) | Method and apparatus for processing point cloud data | |
US11017244B2 (en) | Obstacle type recognizing method and apparatus, device and storage medium | |
CN112287860B (zh) | 物体识别模型的训练方法及装置、物体识别方法及系统 | |
CN113156421A (zh) | 基于毫米波雷达和摄像头信息融合的障碍物检测方法 | |
JP5822255B2 (ja) | 対象物識別装置及びプログラム | |
WO2022033076A1 (zh) | 目标检测方法、装置、设备、存储介质及程序产品 | |
CN110879994A (zh) | 基于形状注意力机制的三维目测检测方法、系统、装置 | |
CN107748890A (zh) | 一种基于深度图像的视觉抓取方法、装置及其可读存储介质 | |
CN113111887A (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN113412505A (zh) | 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的系统和方法 | |
CN108765584B (zh) | 激光点云数据集增广方法、装置及可读存储介质 | |
WO2020237516A1 (zh) | 点云的处理方法、设备和计算机可读存储介质 | |
WO2022148143A1 (zh) | 一种目标检测方法及装置 | |
CN112613378A (zh) | 3d目标检测方法、系统、介质及终端 | |
CN114820463A (zh) | 点云检测和分割方法、装置,以及,电子设备 | |
CN112287859A (zh) | 物体识别方法、装置和系统,计算机可读存储介质 | |
CN109658523B (zh) | 利用ar增强现实应用实现车辆各功能使用说明的方法 | |
CN114495026A (zh) | 一种激光雷达识别方法、装置、电子设备和存储介质 | |
CN112395962A (zh) | 数据增广方法及装置、物体识别方法及系统 | |
KR20200087354A (ko) | 자율주행용 데이터 라벨링 장치 및 방법 | |
Liu et al. | Vehicle-related distance estimation using customized YOLOv7 | |
Wang et al. | Acmarker: Acoustic camera-based fiducial marker system in underwater environment | |
JP7034746B2 (ja) | 特徴表現装置、それを含む認識システム、及び特徴表現プログラム | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210715 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220803 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |