JP2022539843A - 点群におけるオブジェクト検出 - Google Patents
点群におけるオブジェクト検出 Download PDFInfo
- Publication number
- JP2022539843A JP2022539843A JP2022500800A JP2022500800A JP2022539843A JP 2022539843 A JP2022539843 A JP 2022539843A JP 2022500800 A JP2022500800 A JP 2022500800A JP 2022500800 A JP2022500800 A JP 2022500800A JP 2022539843 A JP2022539843 A JP 2022539843A
- Authority
- JP
- Japan
- Prior art keywords
- points
- dimensional
- location
- suggested
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000005259 measurement Methods 0.000 claims abstract description 12
- 238000003860 storage Methods 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 32
- 238000005070 sampling Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 abstract description 15
- 230000008447 perception Effects 0.000 description 26
- 230000001953 sensory effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本出願は、2019年7月8日に出願された米国仮出願第62/871,669号の優先権を主張する。先行出願の開示は、本出願の開示の一部と見なされ、参照により本出願の開示に組み込まれる。
Claims (15)
- 方法であって、
1つ以上のセンサによってキャプチャされたシーンのセンサ測定値を表す点群データを取得することであって、前記点群データが、前記シーン内の複数の三次元の点を含む、取得することと、
前記シーン内の前記三次元の点に基づいて、複数の二次元の提案場所を判定することと、
各二次元の提案場所に対して、前記二次元の提案場所の近くにある前記点群データ内の三次元の点から特徴表現を生成することと、
前記シーン内のオブジェクトを識別するオブジェクト検出出力を生成するように構成されたオブジェクト検出ニューラルネットワークを使用して、前記二次元の提案場所の前記特徴表現を処理することと、を含む、方法。 - 各三次元点がそれぞれの(x,y)座標を有し、前記シーン内の前記三次元の点に基づいて、複数の二次元の提案場所を判定することが、
前記シーン内の前記三次元の点の(x,y)座標のうちから、固定数の二次元の提案場所をサンプリングすることと、を含む、先行請求項に記載の方法。 - 前記固定数の二次元の提案場所をサンプリングすることが、
最も遠い点のサンプリングを使用して、前記固定数の二次元の提案場所をサンプリングすることを含む、請求項2に記載の方法。 - 前記固定数の二次元の提案場所をサンプリングすることが、
ランダムな均一サンプリングを使用して、前記固定数の二次元の提案場所をサンプリングすることを含む、請求項2に記載の方法。 - 各二次元の提案場所に対して、前記二次元の提案場所の近くにある前記点群データ内の三次元の点から特徴表現を生成することが、
前記提案場所の閾値半径内にある(x,y)座標を有する固定数の点を判定することと、
前記提案場所の閾値半径内にある(x,y)座標を有するサンプリングされた固定数の点から、前記二次元の提案場所について特徴表現を生成することと、を含む、先行する請求項のいずれか一項に記載の方法。 - 前記1つ以上のセンサが、自動運転車両のセンサであり、前記提案場所の閾値半径内にある固定数の点を判定することが、
前記閾値半径内にある(x,y)座標を有する点からより多い第2の数の点をサンプリングすることと、
前記自動運転車両の動作に対する相対的な重要性に基づいて前記第2の数の点をランク付けすることと、
前記ランク付けに基づいてサンプリングされた前記第2の点のサブセットを、前記判定された固定点数として選択することと、を含む、請求項5に記載の方法。 - 前記自動運転車両の動作に対する相対的な重要性に基づいて前記第2の数の点をランク付けすることが、
前記自動運転車両からの距離に基づいて前記第2の数の点をランク付けすることを含む、請求項6に記載の方法。 - 前記二次元の提案場所について前記特徴表現を生成することが、
各判定された点に対して、前記二次元の提案場所を中心とする再中心化された点を生成することと、
特徴量化器ニューラルネットワークを使用して、前記再中心化された点を含む特徴量化器入力を処理して、前記特徴表現を生成することと、を含む、請求項5~7のいずれか一項に記載の方法。 - 前記特徴量化器ニューラルネットワークが、可変数の入力点を処理するように構成されている、請求項8に記載の方法。
- 前記点群データが、前記三次元の点の各々について前記1つ以上のセンサによって生成されたセンサ特徴を含み、前記特徴量化器入力が、前記判定された点の各々についての前記センサ特徴を含む、請求項8または9のいずれか一項に記載の方法。
- 前記シーン内のオブジェクトを識別するオブジェクト検出出力を生成するように構成されたオブジェクト検出ニューラルネットワークを使用して、前記二次元の提案場所の前記特徴表現を処理することが、
各提案場所に対して、
複数のアンカーオフセットの各々についてそれぞれの特徴ベクトルを生成するために前記特徴表現を射影することと、
前記特徴ベクトルを処理して、前記複数のアンカーオフセットの各々について、前記アンカーオフセットによる前記提案場所オフセットに対応する前記シーンの領域に対する可能なオブジェクトの場所、およびオブジェクトが前記識別された場所に位置する尤度、を識別するオブジェクト検出出力を生成することと、を含む、先行請求項のいずれか一項に記載の方法。 - 前記特徴表現を射影して、複数のアンカーオフセットの各々についてそれぞれの特徴ベクトルを生成することが、
各アンカーオフセットに対して、前記アンカーオフセットに対する射影重みに従って前記特徴表現を射影することであって、異なるアンカーオフセットが、異なる射影重みを有する、射影することと、を含む、請求項11に記載の方法。 - 前記取得された点群データから地上反射に関連付けられる可能性が高い点を除去することをさらに含む、先行請求項のいずれか一項に記載の方法。
- システムであって、
1つ以上のコンピュータと、
前記1つ以上のコンピュータによって実行されたとき、前記1つ以上のコンピュータに先行請求項のいずれか一項に記載のそれぞれの方法の動作を実行させる命令を格納している、1つ以上の記憶デバイスと、を含む、システム。 - 1つ以上のコンピュータによって実行されたとき、前記1つ以上のコンピュータに先行請求項のいずれか一項に記載のそれぞれの方法の動作を実行させる命令を格納している、1つ以上の非一時的なコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962871669P | 2019-07-08 | 2019-07-08 | |
US62/871,669 | 2019-07-08 | ||
PCT/US2020/041200 WO2021007320A1 (en) | 2019-07-08 | 2020-07-08 | Object detection in point clouds |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022539843A true JP2022539843A (ja) | 2022-09-13 |
Family
ID=71944315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022500800A Ceased JP2022539843A (ja) | 2019-07-08 | 2020-07-08 | 点群におけるオブジェクト検出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11450120B2 (ja) |
EP (1) | EP3980932A1 (ja) |
JP (1) | JP2022539843A (ja) |
KR (1) | KR20220031685A (ja) |
CN (1) | CN114080629A (ja) |
WO (1) | WO2021007320A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021131652A (ja) * | 2020-02-19 | 2021-09-09 | 株式会社トプコン | データ構造、記録媒体、プログラム、及びシステム |
US11636592B2 (en) * | 2020-07-17 | 2023-04-25 | International Business Machines Corporation | Medical object detection and identification via machine learning |
CN112801036A (zh) * | 2021-02-25 | 2021-05-14 | 同济大学 | 一种目标识别方法、训练方法、介质、电子设备及汽车 |
WO2022187251A1 (en) * | 2021-03-01 | 2022-09-09 | Waymo Llc | Generating scene flow labels from point clouds using object labels |
US20220292813A1 (en) * | 2021-03-10 | 2022-09-15 | Acronis International Gmbh | Systems and methods for detecting objects an image using a neural network trained by an imbalanced dataset |
CN113205116B (zh) * | 2021-04-15 | 2024-02-02 | 江苏方天电力技术有限公司 | 输电线路无人机巡检拍摄目标点自动提取及航迹规划方法 |
WO2023003354A1 (ko) * | 2021-07-20 | 2023-01-26 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
CN115965925B (zh) * | 2023-03-03 | 2023-06-23 | 安徽蔚来智驾科技有限公司 | 点云目标检测方法、计算机设备、存储介质及车辆 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190188541A1 (en) * | 2017-03-17 | 2019-06-20 | Chien-Yi WANG | Joint 3d object detection and orientation estimation via multimodal fusion |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1969523B1 (en) * | 2005-12-16 | 2011-04-27 | Technion Research and Development of Foundation, Ltd. | Method and apparatus for determining similarity between surfaces |
WO2011153624A2 (en) * | 2010-06-11 | 2011-12-15 | Ambercore Software Inc. | System and method for manipulating data having spatial coordinates |
GB2537681B (en) * | 2015-04-24 | 2018-04-25 | Univ Oxford Innovation Ltd | A method of detecting objects within a 3D environment |
CN110832348B (zh) * | 2016-12-30 | 2023-08-15 | 辉达公司 | 用于自主车辆的高清晰度地图的点云数据丰富 |
US10460180B2 (en) * | 2017-04-20 | 2019-10-29 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
US10970553B2 (en) * | 2017-11-15 | 2021-04-06 | Uatc, Llc | Semantic segmentation of three-dimensional data |
US10671860B2 (en) * | 2018-02-20 | 2020-06-02 | GM Global Technology Operations LLC | Providing information-rich map semantics to navigation metric map |
CN112639819A (zh) * | 2018-07-05 | 2021-04-09 | 优创半导体科技有限公司 | 使用多个传感器和复杂度降低的神经网络进行对象检测 |
US11676005B2 (en) * | 2018-11-14 | 2023-06-13 | Huawei Technologies Co., Ltd. | Method and system for deep neural networks using dynamically selected feature-relevant points from a point cloud |
-
2020
- 2020-07-08 JP JP2022500800A patent/JP2022539843A/ja not_active Ceased
- 2020-07-08 EP EP20750916.7A patent/EP3980932A1/en active Pending
- 2020-07-08 WO PCT/US2020/041200 patent/WO2021007320A1/en unknown
- 2020-07-08 CN CN202080050276.4A patent/CN114080629A/zh active Pending
- 2020-07-08 KR KR1020227004263A patent/KR20220031685A/ko unknown
- 2020-07-08 US US16/923,823 patent/US11450120B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190188541A1 (en) * | 2017-03-17 | 2019-06-20 | Chien-Yi WANG | Joint 3d object detection and orientation estimation via multimodal fusion |
Non-Patent Citations (3)
Title |
---|
JORGE BELTRAN ET AL.: ""BirdNet: A 3D Object Detection Framework from LiDAR Information"", 2018 21ST INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN6023009895, November 2018 (2018-11-01), pages 3517 - 3523, ISSN: 0005090526 * |
YIN ZHOU ET AL.: ""VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection"", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6023009893, June 2018 (2018-06-01), pages 4490 - 4499, XP033473359, ISSN: 0005090524, DOI: 10.1109/CVPR.2018.00472 * |
國貞祐貴他: "1次元畳み込みニューラルネットワーク(1D−CNN)による全方位LIDARからの歩行者検出", 第24回 画像センシングシンポジウム SSII2018, JPN6023009892, 13 June 2018 (2018-06-13), JP, ISSN: 0005090525 * |
Also Published As
Publication number | Publication date |
---|---|
CN114080629A (zh) | 2022-02-22 |
KR20220031685A (ko) | 2022-03-11 |
WO2021007320A1 (en) | 2021-01-14 |
US20210012089A1 (en) | 2021-01-14 |
EP3980932A1 (en) | 2022-04-13 |
US11450120B2 (en) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450120B2 (en) | Object detection in point clouds | |
JP7239703B2 (ja) | 領域外コンテキストを用いたオブジェクト分類 | |
US11164363B2 (en) | Processing point clouds using dynamic voxelization | |
JP7459224B2 (ja) | アンカー軌道を使用したエージェント軌道予測 | |
RU2767955C1 (ru) | Способы и системы для определения компьютером наличия динамических объектов | |
US11851081B2 (en) | Predictability-based autonomous vehicle trajectory assessments | |
US20240338567A1 (en) | Multi-Task Multi-Sensor Fusion for Three-Dimensional Object Detection | |
US20230213643A1 (en) | Camera-radar sensor fusion using local attention mechanism | |
US11967103B2 (en) | Multi-modal 3-D pose estimation | |
CN114514524A (zh) | 多智能体模拟 | |
US20220366263A1 (en) | Training distilled machine learning models using a pre-trained feature extractor | |
US11105924B2 (en) | Object localization using machine learning | |
US11657268B1 (en) | Training neural networks to assign scores | |
US20220230418A1 (en) | Computer-implemented method for training a computer vision model | |
US11774596B2 (en) | Streaming object detection within sensor data | |
US20240232647A9 (en) | Efficient search for data augmentation policies | |
US20240161398A1 (en) | Late-to-early temporal fusion for point clouds | |
US20240062386A1 (en) | High throughput point cloud processing | |
US20230104843A1 (en) | Detecting stationary non-participants of traffic | |
US20220289209A1 (en) | Evaluating multi-modal trajectory predictions for autonomous driving | |
CN114509772A (zh) | 使用参考对象进行远程距离估计 | |
CN117710917A (zh) | 基于长短时序混合编码的端到端多模态多任务自动驾驶感知方法和装置 | |
CN117034732A (zh) | 基于真实与仿真对抗学习的自动驾驶模型训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230929 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20240126 |