CN113221962A - 一种解耦分类与回归任务的三维点云单阶段目标检测方法 - Google Patents

一种解耦分类与回归任务的三维点云单阶段目标检测方法 Download PDF

Info

Publication number
CN113221962A
CN113221962A CN202110428644.0A CN202110428644A CN113221962A CN 113221962 A CN113221962 A CN 113221962A CN 202110428644 A CN202110428644 A CN 202110428644A CN 113221962 A CN113221962 A CN 113221962A
Authority
CN
China
Prior art keywords
prediction
classification
regression
head
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110428644.0A
Other languages
English (en)
Other versions
CN113221962B (zh
Inventor
何芸倩
夏桂华
张智
苏丽
王立鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202110428644.0A priority Critical patent/CN113221962B/zh
Publication of CN113221962A publication Critical patent/CN113221962A/zh
Application granted granted Critical
Publication of CN113221962B publication Critical patent/CN113221962B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种解耦分类与回归任务的三维点云单阶段目标检测方法,步骤包括:(1)对于点云进行体素化处理,使数据从无须的点云变成有序的栅格结构,(2)利用三维稀疏卷积进行网络的特征提取从而得到高阶特征图,(3)在特征图中,使用双头的检测器聚合特征并预测出目标的分类、回归框以及方向。本发明为了解决目标检测子任务之间的特征纠缠问题,设计了双头的检测网络结构,能够在高维特征中分别提取分类与回归任务各自关注的特征,分别预测子任务。并且在解耦的基础上,利用联合检测的方法,将两个任务中相关信息相结合,共同预测目标类别。本发明提升了三维目标检测的准确率,并可以很容易的迁移到其他方法中。

Description

一种解耦分类与回归任务的三维点云单阶段目标检测方法
技术领域
本发明涉及一种解耦分类与回归任务的三维点云单阶段目标检测方法,属于计算机视觉 三维点云处理领域。
背景技术
物体检测是计算机视觉领域中二维和三维空间的基础工作之一。准确的目标检测结果是 跟踪等任务的前序,在智能交通、室内智能家居等应用中至关重要。根据网络构造结构,目 标检测框架分为一阶段结构和两阶段结构。一阶段结构能够直接检测物体,而两级结构则增 加了一个能够聚合整个物体完整局部特征的网络,从而用更多的时间以及计算资源换取更高 的精度。
目标检测通常包括两个子任务:分类和回归。在二维检测网络中,大多数方法的分类和 回归任务都共用一个检测,因此这两个任务被迫共用大部分参数值。这将导致一些准确性的 损失,这在3D对象检测任务中也会发生。IoU-Net首先讨论了两个任务之间会产生冲突的事 实,并提出了一个单独的IoU预测头来提高回归任务的精度,3D检测方法STD中也采用了 类似的结构。但是,这些改进的多头结构多用于两阶段检测框架的细化部分。对于单阶段检 测方法来说,没有第二阶段对预测结果进行细化,所以两个任务的特征纠缠得比较紧密。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种使用两个头来共同预测目标类 别的扩展结构的解耦分类与回归任务的三维点云单阶段目标检测方法,在解耦的同时,充分 利用其相关信息。
为解决上述技术问题,本发明的一种解耦分类与回归任务的三维点云单阶段目标检测方 法,包括以下步骤:
步骤1:输入整个场景的点云数据,利用体素化方式将三维点云从无序的点集转化为 规则的三维矩阵结构;
步骤2:在体素化后的规则数据上采用三维稀疏卷积网络进行特征提取,缩小特征尺 寸并得到高阶特征,将最终的高阶三维特征图使用维度相连的方式融合z轴方向的信息, 使用得到的二维鸟瞰图特征进行最终的结果预测;
步骤3:在特征提取后的场景鸟瞰图高阶特征中,分类与回归两个子任务分别使用两 个平行的特征提取头来进行信息提取,得到分类信息与回归信息,使得鸟瞰图中每个超像素点都获得相应的分类预测和边框预测,其中角度预测包含于边框预测中,与边框的 预测共享一个特征提取头,分类特征头只预测类别结果
Figure BDA0003030563710000021
回归头同时预测类别结果
Figure BDA0003030563710000022
和边框结果;
步骤4:执行训练阶段:使用联合预测方式,在回归头中提取类别信息,并最终将此类别预测与分类头得到的类别预测结合共同确认区域建议框的类别,构造联合损失函数:
Figure BDA0003030563710000023
其中,
Figure BDA0003030563710000024
是分类预测头的分类损失,
Figure BDA0003030563710000025
是回归预测头的分类损失,
Figure BDA0003030563710000026
是回归损 失,Ldir表示方向的损失,α,β,γ是设定的调节分类损失、回归损失和方向损失所占比例的参数,λ是设定的调节分类预测头和回归预测头损失比例的参数;
预测结果包括分类预测分数scls和边框预测,预测结果与数据的标签做对比,通过损 失函数计算两者之间的差距,通过计算损失函数梯度对网络参数进行学习优化,得到训练后的网络参数;
步骤5:执行应用阶段:将最终的预测分数进行排序,其中高于给定阈值的预测为最 终结果,最终的预测结果为对应的预测框的结果,即预测到目标的位置与大小。
本发明还包括:
步骤5中最终的预测分数具体为:
Figure BDA0003030563710000027
其中scls表示最终的分类分数,
Figure BDA0003030563710000028
Figure BDA0003030563710000029
分别表示分类预测头和回归预测头的分类分 数。
发明的有益效果:本发明提出了一种基于单级检测结构的解耦头,将两个头直接应用在 高层特征图上,同时利用卷积神经网络对局部信息进行聚合,不同的卷积网络参数可以使两 个头关注不同的特征,即分类任务更关注对象的突出特征,而回归任务更关注对象的边缘信 息。在高级特征图上进行特征聚合,可以在不增加过多计算量的情况下,最大限度地提取可 区分的特征。与分类特征对回归特征的抑制不同,回归特征也在一定程度上对预测得分有贡 献。
解决分类与回归两个子任务特征的冲突纠缠,使用两个平行的预测头对两个子任务 进行分别预测,能够使两个特征更专注于子任务的贡献;同时利用其原有的纠缠性,使用联合预测的方式,从两个检测头中同时预测物体类别,从不同特征贡献层面聚合互补,以得到更好的预测准确率。本发明的基于单级检测方法的解耦头结构,分别用于回归和分类 任务,从而更改好的提取更关注于各自子任务的特征。本发明的一种扩展的联合策略,让专 注于不同特征的两个预测头同时描述物体类别,来更好地表达物体的分类。本发明能够提升 三维目标检测在车辆的检测中的准确率。
附图说明
图1本发明方法流程示意图;
图2是使用解耦预测头进行结果预测;
图3是双头联合预测。
具体实施方式
下面结合说明书附图和具体实施方式对本发明做进一步说明。
本发明改进了传统的单阶段检测区域建议网络,可以用于提升通用的目标检测问题的效 果。主要的步骤有:(1)对于点云进行体素化处理,使数据从无须的点云变成有序的栅格结 构,(2)利用三维稀疏卷积进行网络的特征提取从而得到高阶特征图,(3)在特征图中,使 用双头的检测器聚合特征并预测出目标的分类、回归框以及方向。本发明为了解决目标检测 子任务之间的特征纠缠问题,设计了双头的检测网络结构,能够在高维特征中分别提取分类 与回归任务各自关注的特征,分别预测子任务。并且在解耦的基础上,利用联合检测的方法, 将两个任务中相关信息相结合,共同预测目标类别。本发明提升了三维目标检测的准确率, 并可以很容易的迁移到其他方法中。
本发明涉及解耦的区域建议网络的三维单阶段目标检测方法。首先,利用体素化方式 将三维点云从无序的点集转化为规则的三维矩阵结构,以便于局部特征的提取,另外用 稠密的网格进行体素化能够一定程度的实现降采样效果,减小计算量。
其次,在体素化后的规则数据上进行特征提取。由于传统的二维卷积网络直接应用 到三维会带来较大的计算损耗,而规则化的点云仍保留其数据的稀疏性,故使用稀疏卷积进行速度的提升。由于场景中的目标高度趋于一致,故预测目标框的长宽是区别较大 的信息,在本发明中,最终的高阶特征图融合了z轴方向的信息,使用鸟瞰图特征进行 最终的结果区域框提取。
再次,在特征提取后的场景鸟瞰图高阶特征中,对应分类与回归两个子任务使用两 个平行的特征提取头来进行信息提取,使得每个超像素点都获得相应的区域建议分类与 框。由于单阶段目标检测任务的单向性,两个子任务的信息纠缠较为严重,使用两组特征提取网络可以一定程度的解耦任务,获得更有针对性的预测信息。其中角度预测与框 的预测共享一个特征提取头。
最后,在经过解耦头得到分类信息与回归信息后,考虑到回归信息关注的物体边缘 信息对分类任务也有一定程度的贡献,在本发明中使用联合的预测方式,在回归头中使用小的系数提取类别信息,并在最终将此类别预测与分类头得到的类别预测结合,共同 确认区域建议框的类别。
结合图1和图3,本发明具体包括以下步骤:
步骤一:输入整个场景的点云数据,利用体素化方式将三维点云从无序的点集转化 为规则的三维矩阵结构,以便于局部特征的提取,另外用稠密的网格进行体素化能够一定程度的实现降采样效果,减小计算量。
步骤二:在体素化后的规则数据上进行特征提取,输入体素信息,使用三维稀疏卷积方法进行处理,从而缩小特征尺寸并得到高阶特征。由于传统的二维卷积网络直接应 用到三维会带来较大的计算损耗,而规则化的点云仍保留其数据的稀疏性,故使用稀疏 卷积进行速度的提升。由于场景中的目标高度趋于一致,故预测目标框的长宽是区别较 大的信息,在本发明中,将最终的高阶三维特征图使用维度相连的方式融合z轴方向的 信息,使用得到的二维鸟瞰图特征进行最终的结果预测。
步骤三:在特征提取后的场景鸟瞰图高阶特征中,对应分类与回归两个子任务使用 两个平行的特征提取头来进行信息提取,使得鸟瞰图中每个超像素点都获得相应的分类 预测和边框预测。由于单阶段目标检测任务的单向性,两个子任务的信息纠缠较为严重, 使用两组特征提取网络可以一定程度的解耦任务,获得更有针对性的预测信息。
其中角度预测包含于边框预测中,与边框的预测共享一个特征提取头。分类特征头 只预测类别的结果
Figure BDA0003030563710000041
输出维度是A×B×1,而回归头同时预测维度为A×B×1类别结果
Figure BDA0003030563710000042
和维度为A×B×7的边框结果。
方法的预测结果由分类预测分数scls和边框预测共同组成。本发明为深度学习方法, 分为训练阶段与应用阶段。在训练阶段中,预测结果与数据的标签做对比,即通过损失函数计算两者之间的差距,通过计算损失函数梯度对网络参数进行学习优化,经过不断 优化后的网络参数为应用阶段使用的参数。在应用阶段,此步骤的预测结果经过筛选后 得到最终结果。
步骤四:在训练阶段,我们提出了一个联合的损失函数构成。在经过解耦头得到分类信息与回归信息后,考虑到回归信息关注的物体边缘信息对分类任务也有一定程度的贡献,在本发明中使用联合的预测方式,在回归头中使用小的系数提取类别信息,并在 最终将此类别预测与分类头得到的类别预测结合,共同确认区域建议框的类别。
在训练阶段,对于单头和双头架构,将该端到端网络的损耗函数定义为:
Ltotal=αLcls+βLreg+γLdir
其中Lcls表示分类的损失,Lreg表示回归的损失,Ldir表示方向的损失。回归值和方向 值共同构成了边框的预测。而α,β,γ则是这些组成的系数为经验设定参数。当使用联合预测时,本发明将损失函数定义为:
Figure BDA0003030563710000051
其中
Figure BDA0003030563710000052
是分类预测头的分类损失,
Figure BDA0003030563710000053
Figure BDA0003030563710000054
是回归预测头的分类和回归的损失。 而λ则是平衡两个分类损失的系数。特别是当λ=1时,它是一个普通的非联合双头结构预测函数。相应地,最终的分类预测得分也是由两个预测头的预测结果共同表示的。
步骤五:在应用的阶段,将预测结果根据最终的预测分数scls进行筛选从而得到最终 输出。将最终的预测分数scls进行排序,其中高于阈值0.3的预测为最终结果,最终的预测结果为对应的预测框,即预测到目标的位置与大小。最终的预测分数也是根据损失函 数设置的系数来设置的:
Figure BDA0003030563710000055
其中scls表示最终的分类分数,
Figure BDA0003030563710000056
Figure BDA0003030563710000057
分别表示两个预测头的分类分数。在同一个 实验中,用于计算损失和预测的因子λ是相同的值。

Claims (2)

1.一种解耦分类与回归任务的三维点云单阶段目标检测方法,其特征在于:包括以下步骤:
步骤1:输入整个场景的点云数据,利用体素化方式将三维点云从无序的点集转化为规则的三维矩阵结构;
步骤2:在体素化后的规则数据上采用三维稀疏卷积网络进行特征提取,缩小特征尺寸并得到高阶特征,将最终的高阶三维特征图使用维度相连的方式融合z轴方向的信息,使用得到的二维鸟瞰图特征进行最终的结果预测;
步骤3:在特征提取后的场景鸟瞰图高阶特征中,分类与回归两个子任务分别使用两个平行的特征提取头来进行信息提取,得到分类信息与回归信息,使得鸟瞰图中每个超像素点都获得相应的分类预测和边框预测,其中角度预测包含于边框预测中,与边框的预测共享一个特征提取头,分类特征头只预测类别结果
Figure FDA0003030563700000011
回归头同时预测类别结果
Figure FDA0003030563700000012
和边框结果;
步骤4:执行训练阶段:使用联合预测方式,在回归头中提取类别信息,并最终将此类别预测与分类头得到的类别预测结合共同确认区域建议框的类别,构造联合损失函数:
Figure FDA0003030563700000013
其中,
Figure FDA0003030563700000014
是分类预测头的分类损失,
Figure FDA0003030563700000015
是回归预测头的分类损失,
Figure FDA0003030563700000016
是回归损失,Ldir表示方向的损失,α,β,γ是设定的调节分类损失、回归损失和方向损失所占比例的参数,λ是设定的调节分类预测头和回归预测头损失比例的参数;
预测结果包括分类预测分数scls和边框预测,预测结果与数据的标签做对比,通过损失函数计算两者之间的差距,通过计算损失函数梯度对网络参数进行学习优化,得到训练后的网络参数;
步骤5:执行应用阶段:将最终的预测分数进行排序,其中高于给定阈值的预测为最终结果,最终的预测结果为对应的预测框的结果,即预测到目标的位置与大小。
2.根据权利要求1所述的一种解耦分类与回归任务的三维点云单阶段目标检测方法,其特征在于:步骤5所述的最终的预测分数具体为:
Figure FDA0003030563700000017
其中scls表示最终的分类分数,
Figure FDA0003030563700000018
Figure FDA0003030563700000019
分别表示分类预测头和回归预测头的分类分数。
CN202110428644.0A 2021-04-21 2021-04-21 一种解耦分类与回归任务的三维点云单阶段目标检测方法 Active CN113221962B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110428644.0A CN113221962B (zh) 2021-04-21 2021-04-21 一种解耦分类与回归任务的三维点云单阶段目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110428644.0A CN113221962B (zh) 2021-04-21 2021-04-21 一种解耦分类与回归任务的三维点云单阶段目标检测方法

Publications (2)

Publication Number Publication Date
CN113221962A true CN113221962A (zh) 2021-08-06
CN113221962B CN113221962B (zh) 2022-06-21

Family

ID=77088397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110428644.0A Active CN113221962B (zh) 2021-04-21 2021-04-21 一种解耦分类与回归任务的三维点云单阶段目标检测方法

Country Status (1)

Country Link
CN (1) CN113221962B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657246A (zh) * 2021-08-13 2021-11-16 哈尔滨工程大学 一种基于自监督学习的三维点云二阶段目标检测方法
CN113887538A (zh) * 2021-11-30 2022-01-04 北京的卢深视科技有限公司 模型训练、人脸识别方法、电子设备及存储介质
CN114022558A (zh) * 2022-01-05 2022-02-08 深圳思谋信息科技有限公司 图像定位方法、装置、计算机设备和存储介质
CN114964120A (zh) * 2022-02-10 2022-08-30 贵州大学 基于角度信息解耦的旋转检测框表达方式的系统
CN116664624A (zh) * 2023-06-01 2023-08-29 中国石油大学(华东) 基于解耦分类与回归特征的目标跟踪方法及跟踪器

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980895A (zh) * 2017-02-22 2017-07-25 中国科学院自动化研究所 基于旋转区域的卷积神经网络预测方法
WO2019028725A1 (en) * 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
CN109597087A (zh) * 2018-11-15 2019-04-09 天津大学 一种基于点云数据的3d目标检测方法
CN110046530A (zh) * 2019-03-15 2019-07-23 中科院微电子研究所昆山分所 一种基于多任务目标检测的条形码倾斜矫正方法
WO2020109016A1 (de) * 2018-11-26 2020-06-04 Osram Gmbh Verfahren zum gemeinsamen detektieren, verfolgen und klassifizieren von objekten
US20200265255A1 (en) * 2017-11-12 2020-08-20 Beijing Sensetime Technology Development Co., Ltd. Target detection method and apparatus, training method, electronic device and medium
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN111832655A (zh) * 2020-07-16 2020-10-27 四川大学 一种基于特征金字塔网络的多尺度三维目标检测方法
CN112561966A (zh) * 2020-12-22 2021-03-26 清华大学 一种融合时空信息的稀疏点云多目标跟踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980895A (zh) * 2017-02-22 2017-07-25 中国科学院自动化研究所 基于旋转区域的卷积神经网络预测方法
WO2019028725A1 (en) * 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
US20200265255A1 (en) * 2017-11-12 2020-08-20 Beijing Sensetime Technology Development Co., Ltd. Target detection method and apparatus, training method, electronic device and medium
CN109597087A (zh) * 2018-11-15 2019-04-09 天津大学 一种基于点云数据的3d目标检测方法
WO2020109016A1 (de) * 2018-11-26 2020-06-04 Osram Gmbh Verfahren zum gemeinsamen detektieren, verfolgen und klassifizieren von objekten
CN110046530A (zh) * 2019-03-15 2019-07-23 中科院微电子研究所昆山分所 一种基于多任务目标检测的条形码倾斜矫正方法
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN111832655A (zh) * 2020-07-16 2020-10-27 四川大学 一种基于特征金字塔网络的多尺度三维目标检测方法
CN112561966A (zh) * 2020-12-22 2021-03-26 清华大学 一种融合时空信息的稀疏点云多目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MARTIN SIMON等: "Complexer-YOLO: Real-Time 3D Object Detection and Tracking on Semantic Point Clouds", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
何俏君等: "基于YOLOv2-Tiny的环视实时车位线识别算法", 《汽车电器》 *
王立鹏等: "融合优选图案的深度学习目标识别及定位技术", 《哈尔滨工程大学学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657246A (zh) * 2021-08-13 2021-11-16 哈尔滨工程大学 一种基于自监督学习的三维点云二阶段目标检测方法
CN113657246B (zh) * 2021-08-13 2023-11-21 哈尔滨工程大学 一种基于自监督学习的三维点云二阶段目标检测方法
CN113887538A (zh) * 2021-11-30 2022-01-04 北京的卢深视科技有限公司 模型训练、人脸识别方法、电子设备及存储介质
CN113887538B (zh) * 2021-11-30 2022-03-25 北京的卢深视科技有限公司 模型训练、人脸识别方法、电子设备及存储介质
CN114022558A (zh) * 2022-01-05 2022-02-08 深圳思谋信息科技有限公司 图像定位方法、装置、计算机设备和存储介质
CN114964120A (zh) * 2022-02-10 2022-08-30 贵州大学 基于角度信息解耦的旋转检测框表达方式的系统
CN114964120B (zh) * 2022-02-10 2024-05-31 贵州大学 基于角度信息解耦的旋转检测框表达方式的系统
CN116664624A (zh) * 2023-06-01 2023-08-29 中国石油大学(华东) 基于解耦分类与回归特征的目标跟踪方法及跟踪器
CN116664624B (zh) * 2023-06-01 2023-10-27 中国石油大学(华东) 基于解耦分类与回归特征的目标跟踪方法及跟踪器

Also Published As

Publication number Publication date
CN113221962B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
CN113221962B (zh) 一种解耦分类与回归任务的三维点云单阶段目标检测方法
CN110175671B (zh) 神经网络的构建方法、图像处理方法及装置
Zhu et al. Class-balanced grouping and sampling for point cloud 3d object detection
WO2020244653A1 (zh) 物体识别方法及装置
CN110276765B (zh) 基于多任务学习深度神经网络的图像全景分割方法
US20220215227A1 (en) Neural Architecture Search Method, Image Processing Method And Apparatus, And Storage Medium
CN111967305A (zh) 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
de Geus et al. Single network panoptic segmentation for street scene understanding
Liu et al. TSingNet: Scale-aware and context-rich feature learning for traffic sign detection and recognition in the wild
CN112949673A (zh) 一种基于全局注意力的特征融合目标检测与识别方法
Kim et al. Season-invariant semantic segmentation with a deep multimodal network
EP4170548A1 (en) Method and device for constructing neural network
CN112598635A (zh) 一种基于对称点生成的点云3d目标检测方法
CN112381030B (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN115439766A (zh) 一种基于改进yolov5的无人机目标检测方法
CN114120045B (zh) 一种基于多门控混合专家模型的目标检测方法和装置
CN116824543A (zh) 一种基于od-yolo的自动驾驶目标检测方法
CN115797629A (zh) 基于检测增强和多阶段边界框特征细化的实例分割方法
CN114882011A (zh) 一种基于改进Scaled-YOLOv4模型的织物瑕疵检测方法
CN114821341A (zh) 基于fpn与pan网络的双重注意力的遥感小目标检测方法
CN113128564B (zh) 一种基于深度学习的复杂背景下典型目标检测方法及系统
CN112819832A (zh) 基于激光点云的城市场景语义分割细粒度边界提取方法
Zhang et al. Low-Cost LiDAR-Based Vehicle Detection for Self-Driving Container Trucks at Seaport
CN115272814B (zh) 一种远距离空间自适应多尺度的小目标检测方法
Su et al. A hybrid loss balancing algorithm based on gradient equilibrium and sample loss for understanding of road scenes at basic-level

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant