CN111626349A - 一种基于深度学习的目标检测方法和系统 - Google Patents
一种基于深度学习的目标检测方法和系统 Download PDFInfo
- Publication number
- CN111626349A CN111626349A CN202010442301.5A CN202010442301A CN111626349A CN 111626349 A CN111626349 A CN 111626349A CN 202010442301 A CN202010442301 A CN 202010442301A CN 111626349 A CN111626349 A CN 111626349A
- Authority
- CN
- China
- Prior art keywords
- backbone network
- target
- thermodynamic diagram
- training
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000010586 diagram Methods 0.000 claims abstract description 77
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012805 post-processing Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 29
- 238000012216 screening Methods 0.000 claims description 28
- 230000004927 fusion Effects 0.000 claims description 11
- 230000001629 suppression Effects 0.000 claims description 10
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 5
- 238000004590 computer program Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习的目标检测方法和系统,包括获:取包括待检测目标的待检图像;将待检图像输入训练完成的骨干网络生成热力图,并确定热力图的边缘信息;基于边缘信息得到预测框;其中,骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,超参数包括:输出预测的最大数量和置信度阈值。本发明摒弃原有检测方法中基于预设锚框的检测机制,降低了存储中存在的大量冗余,提高了检测模型的运算效率。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于深度学习的目标检测方法和系统。
背景技术
现有目标检测模型大多依赖预设锚框机制,通过在图像上生成大量密集且尺寸不等的预设锚框与目标真实位置匹配,再进一步分类目标并回归其精确位置。该机制既存在大量冗余,也浪费计算资源。另外,其精度严重依赖于预设锚框的长宽比和尺寸,这些超参数的选择视具体数据集中目标大小而定。因此,基于锚框机制的方法大多可移植性差。
发明内容
为克服上述现有技术的不足,本发明提出一种基于深度学习的目标检测方法,其改进之处在于,包括:
获取包括待检测目标的待检图像;
将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息;
基于所述边缘信息得到预测框;
其中,所述骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,所述超参数包括:输出预测的最大数量和置信度阈值。
优选的,所述骨干网络的训练包括:
获取已经识别目标类型和位置信息的多个图像,将各图像与图像中目标对应的类型和位置信息构成训练数据集;
按需求选择合适的骨干网络,初始化骨干网络参数,调整后处理过程中模型所需超参数;
将训练数据集按批次输入骨干网络进行训练,基于骨干网络输出热力图的边缘信息,利用损失函数对骨干网络进行训练直到所述骨干网络收敛。
优选的,所述将训练数据集按批次输入骨干网络进行训练,基于骨干网络输出热力图的边缘信息,利用损失函数对骨干网络进行训练直到所述骨干网络收敛,包括:
步骤a1:将训练数据集按批次输入所述骨干网络,得到包含目标上关键点的热力图;
步骤a2:对热力图进行筛选,得到代表热力图中目标的边缘信息的关键候选点;
步骤a3:基于所述关键候选点计算所述目标的位置,并将计算得到位置和训练集中的位置信息输入损失函数,判断所述骨干网络是否收敛:
若收敛,则结束,否则根据梯度下降法动态更新所述骨干网络中各层神经元的权重并转入步骤a1,直到所述骨干网络收敛。
优选的,所述将计算得到位置和训练集中的位置信息输入损失函数,判断所述骨干网络是否收敛,包括:
将计算得到位置和训练集中的位置信息输入像素级焦点损失函数;
判断像素级焦点损失函数的值是否小于预设阈值,或者骨干网络在训练集上达到预期迭代次数,若任一项为是,则所述骨干网络收敛,否则不收敛。
优选的,所述像素级焦点损失函数的计算式如下:
式中,Lfl表示像素级焦点损失函数的值,y表示训练数据集中目标位置信息的标签,y′表示骨干网络根据目标的图像计算的位置的标签,α表示平衡因子,γ表示样本加权因子。
优选的,所述按照训练需求选择骨干网络形式,包括:
当训练需求侧重于检测速度时,选择基于可变形卷积上采样的残差模块系列骨干网络;
当训练要求侧重于精度和速度之间的平衡时,选择基于编解码结构的深度融合骨干网络;
当训练要求侧重于精度时,选择基于残差模块的关键点检测时间沙漏104骨干网络。
优选的,所述将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息,包括:
将所述待检图像输入训练完成的骨干网络,得到包含待测目标上关键点热力图;
对所述热力图进行筛选得到代表待测目标边缘信息关键点关键候选点;
根据代表待测目标边缘信息关键点关键候选点,得到热力图的边缘信息。
优选的,所述对所述热力图进行筛选得到代表待测目标边缘信息关键点关键候选点,包括:
在所述热力图上对每个像素点基于像素点的非极大值抑制算法进行遍历,筛选出初筛候选点;
对所述初筛候选点采用边缘融合算法筛选出能够代表待测目标边缘信息的关键候选点。
优选的,所述基于所述边缘信息得到预测框,包括:
基于所述边缘信息,通过暴力枚举的方法得到待测目标分类结果和多个检测框;
采用幽灵框抑制算法对检测框进行筛选,得到包含待测目标的预测框。
基于同一发明构思,本申请还提供了一种基于深度学习的目标检测系统,其改进之处在于,包括:图像获取模块、热力图模块和预测框模块;
所述图像获取模块,用于获取包括待检测目标的待检图像;
所述热力图模块,用于将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息;
所述预测框模块,用于基于所述边缘信息得到预测框;
其中,所述骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,所述超参数包括:输出预测的最大数量和置信度阈值。
与最接近的现有技术相比,本发明具有的有益效果如下:
本发明提供了一种基于深度学习的目标检测方法和系统,包括获:取包括待检测目标的待检图像;将待检图像输入训练完成的骨干网络生成热力图,并确定热力图的边缘信息;基于边缘信息得到预测框;其中,骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,超参数包括:输出预测的最大数量和置信度阈值。本发明摒弃原有检测方法中基于预设锚框的检测机制,降低了存储中存在的大量冗余,提高了检测模型的运算效率。
附图说明
图1为本发明提供的一种基于深度学习的目标检测方法流程示意图;
图2为本发明提供的一个基于深度学习的目标检测方法实施例的流程示意图;
图3为本发明涉及的时间沙漏104网络结构示意图;
图4为本发明涉及的一种基于深度学习的目标检测系统基本结构示意图;
图5为本发明涉及的一种基于深度学习的目标检测系统详细结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步的详细说明。
实施例1:
本发明提供的一种基于深度学习的目标检测方法流程示意图如图1所示,包括:
步骤1:获取包括待检测目标的待检图像;
步骤2:将待检图像输入训练完成的骨干网络生成热力图,并确定热力图的边缘信息;
步骤3:基于边缘信息得到预测框;
其中,骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,超参数包括:输出预测的最大数量和置信度阈值。
具体的,基于深度学习的目标检测方法包括:
S1:准备训练数据集,按需求选择合适的骨干网络,初始化骨干网络参数,调整后处理过程中模型所需超参数;
S1中,获取已经识别目标类型和位置信息的多个图像,将各图像与图像中目标对应的类型和位置信息构成训练数据集。
S1中,如需求侧重于检测速度可选择基于可变形卷积上采样的残差模块系列骨干网络。可变形卷积引入两个新的模块来增强CNN的变换建模能力,即可变形卷积和可变形RoI池。两者都是基于模块中的增加空间采样位置的想法,其中带有额外的偏移量并学习目标任务的偏移量,不需要额外的监督。新的模块很容易地取代现有CNN中的普通对等体,并且很容易地通过标准的反向传播来进行端到端的训练,从而产生可变形卷积网络;
如需求侧重于精度和速度之间的平衡可选择基于编解码结构的深度融合骨干网络。深度融合骨干网络主要有两个创新点:
1)融合不同的分辨率/尺度上的特征;
2)合并所有的模块和通道的特征。
如需求侧重于模型的精度可选择基于残差模块的关键点检测时间沙漏104骨干网络。时间沙漏104利用多尺度特征来识别关键点,每个子网络称为时间沙漏模块,是一个沙漏型的结构,多个这种结构堆叠起来,称作堆叠沙漏。堆叠的方式,方便每个模块在整个图像上重新估计姿态和特征。输入图像通过全卷积网络后,得到特征,而后通过多个堆叠的时间沙漏模块,得到最终的热图。
S2:将训练数据集按批次输入骨干网络进行训练,按照损失函数指导模型收敛,包括:
S21:将训练数据集按批次输入骨干网络得到热图后,采用基于像素点的非极大值抑制算法能够在热图中根据相邻像素点之间的大小差异,选取最大值的像素点,滤去非极大值;
S22:利用像素级焦点损失函数指导模型收敛。
像素级焦点损失函数的计算式如下:
式中,Lfl表示像素级焦点损失函数的值,y表示训练数据集中目标位置信息的标签,y′表示骨干网络根据目标的图像计算的位置的标签,α表示平衡因子,γ表示样本加权因子。像素级焦点损失函数在基本的交叉熵损失上进行改进。首先在原有的基础上加了因子,其中样本加权因子γ>0使得减少易分类样本的损失,使得模型更关注于困难的、错分的样本。在此基础上,再引入一个平衡因子α,用来平衡正负样本本身的数量比例不均。只添加α虽然平衡了正负样本的重要性,但是无法解决简单与困难样本的问题,因此针对难分样本的γ也必不可少。γ调节简单样本权重降低的速率,当γ为0时即为交叉熵损失函数,当γ增加时,调整因子的影响也在增加;
S3:将待检图像输入训练好的骨干网络生成热力图;根据预先定义好的后处理过程确定所述热力图的边缘信息;基于所述边缘信息得到预测框。
S3中根据预先定义好的后处理过程将热力图结果转换成包含分类信息的最终预测框的具体步骤为:
S31:采用边缘融合算法。热力图中极值点的定义并不唯一,这就导致如果物体沿着水平或垂直方向边缘形成极值点的话,沿着该边缘的点可能都会被当做极值点。边缘融合算法对每一个极值点向它的两个方向进行聚集来解决上述问题。
S32:采用幽灵框抑制算法。若存在多个并排排列且大小相近的物体,则对目标来说,在指定中心点时,会有两个选择,一个是真实的目标,另一个是大一圈的幽灵框。幽灵框抑制算法用于滤去幽灵框,得到真实目标框;
S33:基于上述算法得到的关键点集可通过暴力枚举的方法得到最终检测框和分类结果。
实施例2:
下面给出另一个基于深度学习的目标检测方法的实施例,如图2所示的流程图,本实施例的步骤包括:
步骤C1:准备用于输入关键点提取网络的数据集,标注中明确关键点位置;
步骤C2:基于任务具体要求、硬件资源、模型效果合理选择关键点提取网络即骨干网络。如选择基于可变形卷积上采样的残差模块系列骨干网络,则表示注重模型的推理速度。残差模块系列骨干网络通过引入可变形卷积引入两个新的模块来增强卷积神经网络的变换建模能力,提高训练及推理效率。
步骤C3:将数据集送入关键点提取网络中,对网络进行训练,得到能输出目标关键点的网络模型;
其中步骤C3进一步包括:
步骤C31:使用像素级焦点损失函数,指导模型收敛,目的是更多的关注正样本、难分样本的学习。收敛后的模型在输入图像后,生成相关热力图;
步骤C32:在热力图上对每个像素点遍历基于像素点的非极大值抑制算法,筛选出图像关键点候选点;
步骤C4:基于步骤C32得到的极值点可能并不唯一,这是因为如果物体沿着水平或垂直方向边缘形成极值点的话,沿着该边缘的点可能都会被当做极值点。对候选点进行边缘融合算法进一步筛选出能够代表边缘信息的关键点候选点;
步骤C5:在候选点基础上直接生成候选框会生成包括除准确候选框在内的其他范围大于真实框的幽灵框。原因在于若存在多个大小相近、并排排列的物体时,框的边界会在相邻物体间取舍。这里就需要幽灵框抑制算法,抑制掉幽灵框。最后得到包括目标类型和位置信息的最终预测框。
实施例3:
基于同一发明构思,本发明还提供了一种基于深度学习的目标检测系统,由于这些设备解决技术问题的原理与基于深度学习的目标检测系统方法相似,重复之处不再赘述。
该系统基本结构如图4所示,包括:图像获取模块、热力图模块和预测框模块;
图像获取模块,用于获取包括待检测目标的待检图像;
热力图模块,用于将待检图像输入训练完成的骨干网络生成热力图,并确定热力图的边缘信息;
预测框模块,用于基于边缘信息得到预测框;
其中,骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,超参数包括:输出预测的最大数量和置信度阈值。
基于深度学习的目标检测系统详细结构如图5所示。
其中,该系统还包括用于训练骨干网络的网络训练模块;网络训练模块包括:训练数据集单元、初始化单元和训练单元;
训练数据集单元,用于获取已经识别目标类型和位置信息的多个图像,将各图像与图像中目标对应的类型和位置信息构成训练数据集;
初始化单元,用于按需求选择合适的骨干网络,初始化骨干网络参数,调整后处理过程中模型所需超参数;
训练单元,用于将训练数据集按批次输入骨干网络进行训练,基于骨干网络输出热力图的边缘信息,利用损失函数对骨干网络进行训练直到骨干网络收敛。
其中,训练单元包括:第一热力图子单元、第一关键候选点子单元和收敛判断子单元;
第一热力图子单元,用于将训练数据集按批次输入骨干网络,得到包含目标上关键点的热力图;
第一关键候选点子单元,用于对热力图进行筛选,得到代表热力图中目标的边缘信息的关键候选点;
收敛判断子单元,用于基于关键候选点计算目标的位置,并将计算得到位置和训练集中的位置信息输入损失函数,判断骨干网络是否收敛:
若收敛,则结束,否则根据梯度下降法动态更新骨干网络中各层神经元的权重并调用第一热力图子单元,直到骨干网络收敛。
其中,热力图模块包括:第二热力图单元、第二关键候选点单元和边缘信息单元;
第二热力图单元,用于将待检图像输入训练完成的骨干网络,得到包含待测目标上关键点热力图;
第二关键候选点单元,用于对热力图进行筛选得到代表待测目标边缘信息关键点关键候选点;
边缘信息单元,用于根据代表待测目标边缘信息关键点关键候选点,得到热力图的边缘信息。
其中,第二关键候选点单元包括:初筛子单元和融合筛选子单元;
初筛子单元,用于在热力图上对每个像素点基于像素点的非极大值抑制算法进行遍历,筛选出初筛候选点;
融合筛选子单元,用于对初筛候选点采用边缘融合算法筛选出能够代表待测目标边缘信息的关键候选点。
其中,预测框模块包括:枚举单元和预测框单元;
枚举单元,用于基于边缘信息,通过暴力枚举的方法得到待测目标分类结果和多个检测框;
预测框单元,用于采用幽灵框抑制算法对检测框进行筛选,得到包含待测目标的预测框。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用于说明本申请的技术方案而非对其保护范围的限制,尽管参照上述实施例对本申请进行了详细的说明,所属领域的普通技术人员应当理解:本领域技术人员阅读本申请后依然可对申请的具体实施方式进行种种变更、修改或者等同替换,但这些变更、修改或者等同替换,均在申请待批的权利要求保护范围之内。
Claims (10)
1.一种基于深度学习的目标检测方法,其特征在于,包括:
获取包括待检测目标的待检图像;
将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息;
基于所述边缘信息得到预测框;
其中,所述骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,所述超参数包括:输出预测的最大数量和置信度阈值。
2.如权利要求1所述的方法,其特征在于,所述骨干网络的训练包括:
获取已经识别目标类型和位置信息的多个图像,将各图像与图像中目标对应的类型和位置信息构成训练数据集;
按需求选择合适的骨干网络,初始化骨干网络参数,调整后处理过程中模型所需超参数;
将训练数据集按批次输入骨干网络进行训练,基于骨干网络输出热力图的边缘信息,利用损失函数对骨干网络进行训练直到所述骨干网络收敛。
3.如权利要求2所述的方法,其特征在于,所述将训练数据集按批次输入骨干网络进行训练,基于骨干网络输出热力图的边缘信息,利用损失函数对骨干网络进行训练直到所述骨干网络收敛,包括:
步骤a1:将训练数据集按批次输入所述骨干网络,得到包含目标上关键点的热力图;
步骤a2:对热力图进行筛选,得到代表热力图中目标的边缘信息的关键候选点;
步骤a3:基于所述关键候选点计算所述目标的位置,并将计算得到位置和训练集中的位置信息输入损失函数,判断所述骨干网络是否收敛:
若收敛,则结束,否则根据梯度下降法动态更新所述骨干网络中各层神经元的权重并转入步骤a1,直到所述骨干网络收敛。
4.如权利要求3所述的方法,其特征在于,所述将计算得到位置和训练集中的位置信息输入损失函数,判断所述骨干网络是否收敛,包括:
将计算得到位置和训练集中的位置信息输入像素级焦点损失函数;
判断像素级焦点损失函数的值是否小于预设阈值,或者骨干网络在训练集上达到预期迭代次数,若任一项为是,则所述骨干网络收敛,否则不收敛。
6.如权利要求2所述的方法,其特征在于,所述按照训练需求选择骨干网络形式,包括:
当训练需求侧重于检测速度时,选择基于可变形卷积上采样的残差模块系列骨干网络;
当训练要求侧重于精度和速度之间的平衡时,选择基于编解码结构的深度融合骨干网络;
当训练要求侧重于精度时,选择基于残差模块的关键点检测时间沙漏104骨干网络。
7.如权利要求1所述的方法,其特征在于,所述将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息,包括:
将所述待检图像输入训练完成的骨干网络,得到包含待测目标上关键点热力图;
对所述热力图进行筛选得到代表待测目标边缘信息关键点关键候选点;
根据代表待测目标边缘信息关键点关键候选点,得到热力图的边缘信息。
8.如权利要求7所述的方法,其特征在于,所述对所述热力图进行筛选得到代表待测目标边缘信息关键点关键候选点,包括:
在所述热力图上对每个像素点基于像素点的非极大值抑制算法进行遍历,筛选出初筛候选点;
对所述初筛候选点采用边缘融合算法筛选出能够代表待测目标边缘信息的关键候选点。
9.如权利要求1所述的方法,其特征在于,所述基于所述边缘信息得到预测框,包括:
基于所述边缘信息,通过暴力枚举的方法得到待测目标分类结果和多个检测框;
采用幽灵框抑制算法对检测框进行筛选,得到包含待测目标的预测框。
10.一种基于深度学习的目标检测系统,其特征在于,包括:图像获取模块、热力图模块和预测框模块;
所述图像获取模块,用于获取包括待检测目标的待检图像;
所述热力图模块,用于将所述待检图像输入训练完成的骨干网络生成热力图,并确定所述热力图的边缘信息;
所述预测框模块,用于基于所述边缘信息得到预测框;
其中,所述骨干网络的训练基于选择的骨干网络按批次对已识别目标类型和位置信息的图像进行训练并调整后处理过程中所需超参数,所述超参数包括:输出预测的最大数量和置信度阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010442301.5A CN111626349A (zh) | 2020-05-22 | 2020-05-22 | 一种基于深度学习的目标检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010442301.5A CN111626349A (zh) | 2020-05-22 | 2020-05-22 | 一种基于深度学习的目标检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626349A true CN111626349A (zh) | 2020-09-04 |
Family
ID=72272160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010442301.5A Pending CN111626349A (zh) | 2020-05-22 | 2020-05-22 | 一种基于深度学习的目标检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626349A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488059A (zh) * | 2020-12-18 | 2021-03-12 | 哈尔滨拓博科技有限公司 | 一种基于深度学习模型级联的空间手势控制方法 |
CN113011365A (zh) * | 2021-03-31 | 2021-06-22 | 中国科学院光电技术研究所 | 一种结合轻量化网络的目标检测方法 |
CN113343762A (zh) * | 2021-05-07 | 2021-09-03 | 北京邮电大学 | 人体姿态估计分组模型训练方法、姿态估计方法及装置 |
CN113792876A (zh) * | 2021-09-16 | 2021-12-14 | 北京百度网讯科技有限公司 | 骨干网络的生成方法、装置、设备以及存储介质 |
CN113822277A (zh) * | 2021-11-19 | 2021-12-21 | 万商云集(成都)科技股份有限公司 | 基于深度学习目标检测的违规广告图片检测方法及系统 |
CN114596637A (zh) * | 2022-03-23 | 2022-06-07 | 北京百度网讯科技有限公司 | 图像样本数据增强训练方法、装置及电子设备 |
CN116596923A (zh) * | 2023-07-17 | 2023-08-15 | 天津市蓟州区民力新能源科技有限公司 | 基于边缘检测的园林植物识别方法及系统 |
CN116703820A (zh) * | 2023-04-17 | 2023-09-05 | 之江实验室 | 一种基于热力图的高密度豆粒计数及中心点定位方法和系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
-
2020
- 2020-05-22 CN CN202010442301.5A patent/CN111626349A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
Non-Patent Citations (3)
Title |
---|
XINGYI ZHOU,ET AL.: "Bottom-up Object Detection by Grouping Extreme and Center Points", 《ARXIV》 * |
XINGYI ZHOU,ET AL.: "Objects as Points", 《ARXIV》 * |
ZHI TIAN,ET AL.: "FCOS: Fully Convolutional One-Stage Object Detection", 《ARXIV》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488059A (zh) * | 2020-12-18 | 2021-03-12 | 哈尔滨拓博科技有限公司 | 一种基于深度学习模型级联的空间手势控制方法 |
CN112488059B (zh) * | 2020-12-18 | 2022-10-04 | 哈尔滨拓博科技有限公司 | 一种基于深度学习模型级联的空间手势控制方法 |
CN113011365A (zh) * | 2021-03-31 | 2021-06-22 | 中国科学院光电技术研究所 | 一种结合轻量化网络的目标检测方法 |
CN113343762A (zh) * | 2021-05-07 | 2021-09-03 | 北京邮电大学 | 人体姿态估计分组模型训练方法、姿态估计方法及装置 |
CN113343762B (zh) * | 2021-05-07 | 2022-03-29 | 北京邮电大学 | 人体姿态估计分组模型训练方法、姿态估计方法及装置 |
CN113792876B (zh) * | 2021-09-16 | 2023-08-29 | 北京百度网讯科技有限公司 | 骨干网络的生成方法、装置、设备以及存储介质 |
CN113792876A (zh) * | 2021-09-16 | 2021-12-14 | 北京百度网讯科技有限公司 | 骨干网络的生成方法、装置、设备以及存储介质 |
US11929871B2 (en) | 2021-09-16 | 2024-03-12 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method for generating backbone network, apparatus for generating backbone network, device, and storage medium |
JP2022091919A (ja) * | 2021-09-16 | 2022-06-21 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | バックボーンネットワーク生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
JP7324891B2 (ja) | 2021-09-16 | 2023-08-10 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | バックボーンネットワーク生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
CN113822277A (zh) * | 2021-11-19 | 2021-12-21 | 万商云集(成都)科技股份有限公司 | 基于深度学习目标检测的违规广告图片检测方法及系统 |
CN114596637B (zh) * | 2022-03-23 | 2024-02-06 | 北京百度网讯科技有限公司 | 图像样本数据增强训练方法、装置及电子设备 |
CN114596637A (zh) * | 2022-03-23 | 2022-06-07 | 北京百度网讯科技有限公司 | 图像样本数据增强训练方法、装置及电子设备 |
CN116703820A (zh) * | 2023-04-17 | 2023-09-05 | 之江实验室 | 一种基于热力图的高密度豆粒计数及中心点定位方法和系统 |
CN116703820B (zh) * | 2023-04-17 | 2024-05-03 | 之江实验室 | 一种基于热力图的高密度豆粒计数及中心点定位方法和系统 |
CN116596923A (zh) * | 2023-07-17 | 2023-08-15 | 天津市蓟州区民力新能源科技有限公司 | 基于边缘检测的园林植物识别方法及系统 |
CN116596923B (zh) * | 2023-07-17 | 2023-09-12 | 天津市蓟州区民力新能源科技有限公司 | 基于边缘检测的园林植物识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626349A (zh) | 一种基于深度学习的目标检测方法和系统 | |
CN109886359B (zh) | 基于卷积神经网络的小目标检测方法及检测系统 | |
CN110852447B (zh) | 元学习方法和装置、初始化方法、计算设备和存储介质 | |
US20180114071A1 (en) | Method for analysing media content | |
CN111161311A (zh) | 一种基于深度学习的视觉多目标跟踪方法及装置 | |
CN111626176B (zh) | 一种基于动态注意力机制的遥感目标快速检测方法及系统 | |
CN110929577A (zh) | 一种基于YOLOv3的轻量级框架改进的目标识别方法 | |
CN111144215B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN109815770A (zh) | 二维码检测方法、装置及系统 | |
JP7028322B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
CN115222946B (zh) | 一种单阶段实例图像分割方法、装置以及计算机设备 | |
CN111368634B (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
CN110765865A (zh) | 基于改进的yolo算法的水下目标检测方法 | |
JP6892606B2 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN109919252A (zh) | 利用少数标注图像生成分类器的方法 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN108334910A (zh) | 一种事件检测模型训练方法以及事件检测方法 | |
CN113239914B (zh) | 课堂学生表情识别及课堂状态评估方法、装置 | |
CN114842180B (zh) | 一种点云补全方法、装置、设备及介质 | |
CN114639102B (zh) | 基于关键点与尺寸回归的细胞分割方法和装置 | |
Xu et al. | Tackling small data challenges in visual fire detection: a deep convolutional generative adversarial network approach | |
CN111027551B (zh) | 图像处理方法、设备和介质 | |
CN117252847A (zh) | 一种上颌前牙牙槽骨缺损检测与识别方法及装置 | |
CN116485796A (zh) | 害虫检测方法、装置、电子设备及存储介质 | |
CN114820755B (zh) | 一种深度图估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200904 |
|
RJ01 | Rejection of invention patent application after publication |