CN110390302A - 一种三维目标检测方法 - Google Patents
一种三维目标检测方法 Download PDFInfo
- Publication number
- CN110390302A CN110390302A CN201910673663.2A CN201910673663A CN110390302A CN 110390302 A CN110390302 A CN 110390302A CN 201910673663 A CN201910673663 A CN 201910673663A CN 110390302 A CN110390302 A CN 110390302A
- Authority
- CN
- China
- Prior art keywords
- target
- point cloud
- frame
- view frustums
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种三维目标检测方法,包括以下步骤:利用二维目标检测算法在原始图像上提取目标的候选边界框;将所述候选边界框对应的深度图像区域转化为视锥体点云;对所述视锥体点云进行实例分割,获得感兴趣的目标点云;通过神经网络回归目标的三维边界框。本发明通过二维目标检测算法提取边界框后再回归到三维边界,能够提升目标检测的速度和精度,检测过程中既可以利用二维信息的特征也可以利用三维信息的特征来检测有遮挡的目标。
Description
技术领域
本发明涉及目标检测技术领域,特别涉及一种三维目标检测方法。
背景技术
相对于二维上语义理解任务,三维上的语义理解任务更具有挑战且很有意义。三维目标检测在自动驾驶以及增强现实中发挥着极其重要的作用。一方面,三维目标检测可以知道目标的大致大小以及位置,对于自动驾驶来说可谓是至关重要;另一方面,在增强现实技术中需要对真实世界和虚拟世界进行结合以及互动时,对于目标的位置变化以及大小的计算尤其重要。在自动驾驶发展道路上急需一种快速且准确的目标检测算法,来保证交通的安全性和智能驾驶的可靠性。
目前,三维目标检测的算法主要基于点云,图像或者深度图像数据以及三维数据的一些重新表示的数据的基础上来处理,主要方法有:通过神经网络分别提取颜色信息和深度信息特征建立模型将二维信息的结果转化三维空间;直接利用三维点云进行目标特征提取以及检测。
近几年,深度学习的发展十分迅速,在二维上利用深度学习进行目标检测的速度和精度等方面都有很大的提升,因此驱动了利用大量数据来进行数理统计的方法来学习潜在特征。相对于二维目标检测,三维目标检测具有更大的挑战且检测精度相对落后,因此如何提高检测的速度以及检测精度是业界需要努力的方向。
发明内容
本发明的目的在于提供一种一种三维目标检测方法,其能够提高检测速度,同时能够提升检测精度。
为实现上述目的,本发明采用以下技术方案:
一种三维目标检测方法,包括以下步骤:
S1、利用二维目标检测算法在原始图像上提取目标的候选边界框;
S2、将所述候选边界框对应的深度图像区域转化为视锥体点云;
S3、对所述视锥体点云进行实例分割,获得感兴趣的目标点云;
S4、通过神经网络回归目标的三维边界框。
进一步地,所述步骤S2包括以下分步骤:
S21、提取所述候选边界框对应的深度图像区域,得到候选区域;
S22、通过相机投影矩阵将候选区域转化为视锥体,并收集所述视锥体内的所有点形成所述视锥体点云。
优选地,所述步骤S3中的实例分割通过以下方法实现:
利用两层EdgeConv卷积网络学习视锥体点云的局部和全局特征,并对每个点进行判断是否属于感兴趣的目标。
进一步地,所述步骤S4包括以下分步骤:
S41、计算所述目标点云的质心坐标值;
S42、将目标点云中的每个点的坐标值减去所述质心坐标值,将目标点云转化为局部坐标系;
S43、针对转化为局部坐标系的目标点云,利用神经回归目标的三维边界框。
优选地,所述步骤S43中的利用神经回归目标的三维边界框通过以下方法实现:
通过T-Net神经网络学习目标点云的质心与目标真实中心的残差,来预测目标的真正中心;预先定义目标的边界框大小以及角度参数,通过边界框网络回归目标的三维边界框大小以及角度。
采用上述技术方案后,本发明与背景技术相比,具有如下优点:
本发明通过二维目标检测算法提取边界框后再回归到三维边界,能够提升目标检测的速度和精度,检测过程中既可以利用二维信息的特征也可以利用三维信息的特征来检测有遮挡的目标。本发明通过考虑点云之间的联系,利用图卷积网络来学习目标的局部特征,有更好的实例分割细粒度,能更好的学习三维目标的边界框。本发明可以用于室内和室外场景的目标检测,对于小目标的召回率更高。
附图说明
图1为本发明的流程示意图;
图2示出了实例分割采用的卷积网络。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
请参阅图1,本发明公开了一种三维目标检测方法,其包括以下步骤:
S1、利用二维目标检测算法在原始图像上提取目标的候选边界框。
原始图像为深度深度图像,候选边界框为二维边界框。提取候选边界框的目的是在其边界框内的部分提取到点云。二维目标检测算法采用现有的检测算法,只要能够实现获取目标的二维边界框目的即可,本发明不做具体限定。
S2、将候选边界框对应的深度图像区域转化为视锥体点云。该步骤通过以下分步骤实现:
S21、提取候选边界框对应的深度图像区域,得到候选区域。
S22、通过相机投影矩阵将候选区域转化为视锥体(有深度传感器指定的近平面和远平面),并收集视锥体内的所有点形成视锥体点云。投影矩阵在采集图像数据以及三维信息时已经给出,因此可以根据投影矩阵来截取候选区域的深度信息并将其转化为点云。
S3、对视锥体点云进行实例分割,获得感兴趣的目标点云。实例分割具体通过以下方法实现:
利用两层EdgeConv卷积网络学习视锥体点云的局部和全局特征,并对每个点进行判断是否属于感兴趣的目标。
采用分割算法的目的是为了分割出感兴趣的目标点云,因此分割的效果将影响最终回归目标的三维边界框。利用深度学习直接在原始点云上进行分类分割在近几年得到快速的发展,然而在实例分割上还有许多挑战。许多分割算法并没有考虑到点云之间的相关性,导致实例分割的细粒度很差。因此,在考虑点之间的几何相关性后,利用图卷积神经网络进行实例分割能有更好的分割细粒度。
神经网络模块EdgeConv直接使用点云作为输入,可以获取足够多的局部信息,可用于分类分割任务。如图2所示,我们将其扩展到实例分割,通过将局部信息和全局信息结合起来来判断候选区域的点云中每个点是否属于感兴趣目标来进行实例分割。在考虑点之间的几何相关信息后,实例分割的效果有了显著提升,分割出来的目标有更好的完整度。
因为视锥体可能朝向不同方向,可能导致点云的位置变化很大,所以在进行实例分割之前,需要将视锥体点云归一化,使视锥体的中心轴线和图像平面正交。
S4、通过神经网络回归目标的三维边界框。该步骤通过以下分步骤实现:
S41、计算目标点云的质心坐标值。
S42、将目标点云中的每个点的坐标值减去质心坐标值,将目标点云转化为局部坐标系。通过坐标系转换能够有效的提升置换不变性。
S43、针对转化为局部坐标系的目标点云,利用神经回归目标的三维边界框。通过T-Net神经网络学习目标点云的质心与目标真实中心的残差,来预测目标的真正中心;预先定义目标的边界框大小以及角度参数,通过边界框网络回归目标的三维边界框大小以及角度。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (5)
1.一种三维目标检测方法,其特征在于,包括以下步骤:
S1、利用二维目标检测算法在原始图像上提取目标的候选边界框;
S2、将所述候选边界框对应的深度图像区域转化为视锥体点云;
S3、对所述视锥体点云进行实例分割,获得感兴趣的目标点云;
S4、通过神经网络回归目标的三维边界框。
2.如权利要求1所述的一种三维目标检测方法,其特征在于,所述步骤S2包括以下分步骤:
S21、提取所述候选边界框对应的深度图像区域,得到候选区域;
S22、通过相机投影矩阵将候选区域转化为视锥体,并收集所述视锥体内的所有点形成所述视锥体点云。
3.如权利要求1所述的一种三维目标检测方法,其特征在于,所述步骤S3中的实例分割通过以下方法实现:
利用两层EdgeConv卷积网络学习视锥体点云的局部和全局特征,并对每个点进行判断是否属于感兴趣的目标。
4.如权利要求1、2或3所述的一种三维目标检测方法,其特征在于,所述步骤S4包括以下分步骤:
S41、计算所述目标点云的质心坐标值;
S42、将目标点云中的每个点的坐标值减去所述质心坐标值,将目标点云转化为局部坐标系;
S43、针对转化为局部坐标系的目标点云,利用神经回归目标的三维边界框。
5.如权利要求4所述的一种三维目标检测方法,其特征在于,所述步骤S43中的利用神经回归目标的三维边界框通过以下方法实现:
通过T-Net神经网络学习目标点云的质心与目标真实中心的残差,来预测目标的真正中心;预先定义目标的边界框大小以及角度参数,通过边界框网络回归目标的三维边界框大小以及角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910673663.2A CN110390302A (zh) | 2019-07-24 | 2019-07-24 | 一种三维目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910673663.2A CN110390302A (zh) | 2019-07-24 | 2019-07-24 | 一种三维目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110390302A true CN110390302A (zh) | 2019-10-29 |
Family
ID=68287449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910673663.2A Pending CN110390302A (zh) | 2019-07-24 | 2019-07-24 | 一种三维目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110390302A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826499A (zh) * | 2019-11-08 | 2020-02-21 | 上海眼控科技股份有限公司 | 物体空间参数检测方法、装置、电子设备及存储介质 |
CN111008627A (zh) * | 2019-12-05 | 2020-04-14 | 哈尔滨工业大学(深圳) | 一种在边界遮挡状况下检测标记码边框的方法 |
CN111260794A (zh) * | 2020-01-14 | 2020-06-09 | 厦门大学 | 基于跨源图像匹配的户外增强现实应用方法 |
CN111339880A (zh) * | 2020-02-19 | 2020-06-26 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
CN111539949A (zh) * | 2020-05-12 | 2020-08-14 | 河北工业大学 | 一种基于点云数据的锂电池极片表面缺陷检测方法 |
CN111739005A (zh) * | 2020-06-22 | 2020-10-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、电子设备及存储介质 |
CN112464905A (zh) * | 2020-12-17 | 2021-03-09 | 湖南大学 | 3d目标检测方法及装置 |
CN112487884A (zh) * | 2020-11-16 | 2021-03-12 | 香港中文大学(深圳) | 一种交通违法行为检测方法、装置及计算机可读存储介质 |
CN112571415A (zh) * | 2020-12-03 | 2021-03-30 | 哈尔滨工业大学(深圳) | 一种基于视觉导引的机器人自主开门方法与系统 |
CN114387202A (zh) * | 2021-06-25 | 2022-04-22 | 南京交通职业技术学院 | 一种基于车端点云与图像融合的3d目标检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
-
2019
- 2019-07-24 CN CN201910673663.2A patent/CN110390302A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
Non-Patent Citations (2)
Title |
---|
CHARLES R. QI 等: "Frustum PointNets for 3D Object Detection from RGB-D Data", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
WEISHENG LIN 等: "USING EDGECONV TO IMPROVE 3D OBJECT DETECTION FROM RGB-D DATA", 《THE INTERNATIONAL ARCHIVES OF THE PHOTOGRAMMETRY, REMOTE SENSING AND SPATIAL INFORMATION SCIENCES》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826499A (zh) * | 2019-11-08 | 2020-02-21 | 上海眼控科技股份有限公司 | 物体空间参数检测方法、装置、电子设备及存储介质 |
CN111008627A (zh) * | 2019-12-05 | 2020-04-14 | 哈尔滨工业大学(深圳) | 一种在边界遮挡状况下检测标记码边框的方法 |
CN111008627B (zh) * | 2019-12-05 | 2023-09-05 | 哈尔滨工业大学(深圳) | 一种在边界遮挡状况下检测标记码边框的方法 |
CN111260794B (zh) * | 2020-01-14 | 2022-07-08 | 厦门大学 | 基于跨源图像匹配的户外增强现实应用方法 |
CN111260794A (zh) * | 2020-01-14 | 2020-06-09 | 厦门大学 | 基于跨源图像匹配的户外增强现实应用方法 |
CN111339880A (zh) * | 2020-02-19 | 2020-06-26 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
CN111539949A (zh) * | 2020-05-12 | 2020-08-14 | 河北工业大学 | 一种基于点云数据的锂电池极片表面缺陷检测方法 |
CN111539949B (zh) * | 2020-05-12 | 2022-05-13 | 河北工业大学 | 一种基于点云数据的锂电池极片表面缺陷检测方法 |
CN111739005B (zh) * | 2020-06-22 | 2023-08-08 | 北京百度网讯科技有限公司 | 图像检测方法、装置、电子设备及存储介质 |
CN111739005A (zh) * | 2020-06-22 | 2020-10-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、电子设备及存储介质 |
CN112487884A (zh) * | 2020-11-16 | 2021-03-12 | 香港中文大学(深圳) | 一种交通违法行为检测方法、装置及计算机可读存储介质 |
CN112571415A (zh) * | 2020-12-03 | 2021-03-30 | 哈尔滨工业大学(深圳) | 一种基于视觉导引的机器人自主开门方法与系统 |
CN112571415B (zh) * | 2020-12-03 | 2022-03-01 | 哈尔滨工业大学(深圳) | 一种基于视觉导引的机器人自主开门方法与系统 |
CN112464905A (zh) * | 2020-12-17 | 2021-03-09 | 湖南大学 | 3d目标检测方法及装置 |
CN112464905B (zh) * | 2020-12-17 | 2022-07-26 | 湖南大学 | 3d目标检测方法及装置 |
CN114387202A (zh) * | 2021-06-25 | 2022-04-22 | 南京交通职业技术学院 | 一种基于车端点云与图像融合的3d目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390302A (zh) | 一种三维目标检测方法 | |
EP3251090B1 (en) | Occlusion handling for computer vision | |
US20210110711A1 (en) | Monitoring a scene to analyze an event using a plurality of image streams | |
CN110570457B (zh) | 一种基于流数据的三维物体检测与跟踪方法 | |
KR101965878B1 (ko) | 시각적 피처들을 이용한 이미지들의 자동 연결 | |
WO2020134238A1 (zh) | 活体检测方法、装置以及存储介质 | |
CN112818925B (zh) | 一种城市建筑和树冠识别方法 | |
CN109101861A (zh) | 障碍物类型识别方法、装置、设备及存储介质 | |
US11574424B2 (en) | Augmented reality map curation | |
CN104636725A (zh) | 一种基于深度图像的手势识别方法与系统 | |
CN111241989A (zh) | 图像识别方法及装置、电子设备 | |
CN109635783A (zh) | 视频监控方法、装置、终端和介质 | |
WO2020007483A1 (en) | Method, apparatus and computer program for performing three dimensional radio model construction | |
CN112037142B (zh) | 一种图像去噪方法、装置、计算机及可读存储介质 | |
CN112595728B (zh) | 一种道路问题确定方法和相关装置 | |
KR20230086457A (ko) | 화재 감지 시스템의 구축을 위한 전차 장치 및 그 방법 | |
Zhao et al. | Scalable building height estimation from street scene images | |
CN112989958A (zh) | 基于YOLOv4与显著性检测的安全帽佩戴识别方法 | |
CN116958606A (zh) | 一种图像匹配方法及相关装置 | |
CN114565753A (zh) | 一种基于改进YOLOv4网络的无人机小目标识别方法 | |
KR101357581B1 (ko) | 깊이 정보 기반 사람의 피부 영역 검출 방법 | |
JP2021182243A (ja) | 画像判定装置、方法、及びプログラム | |
CN117576245B (zh) | 一种图像的风格转换方法、装置、电子设备及存储介质 | |
KR102599330B1 (ko) | 영상 기반 안개영역 검출 및 가시거리 산출 시스템 | |
CN117437445A (zh) | 基于模型匹配的车辆三维位姿估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191029 |
|
RJ01 | Rejection of invention patent application after publication |