CN110956119A - 一种准确且快速的图像中目标检测方法 - Google Patents
一种准确且快速的图像中目标检测方法 Download PDFInfo
- Publication number
- CN110956119A CN110956119A CN201911176482.5A CN201911176482A CN110956119A CN 110956119 A CN110956119 A CN 110956119A CN 201911176482 A CN201911176482 A CN 201911176482A CN 110956119 A CN110956119 A CN 110956119A
- Authority
- CN
- China
- Prior art keywords
- size
- feature map
- convolution
- layer
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种准确且快速的图像中目标检测方法,包括以下步骤:检测目标;获取待检测目标样本数据集;选取骨干网络;设计轻量级的融合模块;设计特征增强模块;计算完整的目标检测网络结构。本发明在不降低运行速度的前提下提高了检测精度,其中融合模块的作用是提高小目标的检测精度,F步骤中的特征图20在没有通过融合模块时,处于较浅的卷积位置,虽有很好的细节信息,但是语义信息却不够,于是通过融合模块,加强语义信息。特征增强模块的作用是使得网络更好地适应目标尺度大小的变化,在实际进行检测时,目标的大小是不断变化的,通过设计特征增强模块使得一个特征图可以聚合多个感受野大小的信息,从而更加适应目标尺度大小的变化。
Description
技术领域
本发明涉及一种基于计算机视觉的目标检测算法,特别是一种准确且快速的图像中目标检测方法。
背景技术
目标检测(objection detection)是指利用计算机视觉算法找出图像中所有感兴趣的目标,确定它们的位置及类别。广泛应用于视频监控、无人驾驶、人机交互等领域。
目前基于深度学习的目标检测方法可按原理的不同分为两类,一类是二阶段检测器,其特点是精度更高,但是运行速度较慢,另一类是一阶段检测器,其特点是精度往往不如二阶段检测器,但是运行速度更快。
目前的目标检测方法仍然存在小目标检测精度低和精度与速度之间不能更好的平衡的问题。
发明内容
为解决现有技术存在的上述问题,本发明要设计一种在不降低运行速度的前提下,提高目标检测精度的准确且快速的图像中目标检测方法。
为了实现上述目的,本发明的技术方案如下:一种准确且快速的图像中目标检测方法,包括以下步骤:
A、检测目标
采用训练完成的卷积神经网络对获得的待检测图像进行目标的检测,并根据检测的结果判断图像中是否有目标以及目标所在的具体位置,所述的目标包括车和人。
B、获取待检测目标样本数据集
收集包含待检测目标的N张待检测图像:图像1、图像2、……、图像N,以及每张图像的标注文件,每张图像的标注文件包括该图像中目标的类别以及位置信息。每张图像包含各种场景下待检测目标的可能的状态。对于长宽不等的图像,先将图像用0像素填充到长宽相等的图像,再放缩到320×320的三通道RGB图像。
C、选取骨干网络
骨干网络采用VGG16卷积神经网络,VGG卷积神经网络是牛津大学在2014年提出来的模型,VGG16卷积神经网络是VGG卷积神经网络的变种,其网络层数只有16层,在实际使用时去掉最后的全连接层,并用卷积层代替,具体的网络结构依次为:卷积层1、卷积层2、最大池化层1、卷积层3、卷积层4、最大池化层2、卷积层5、卷积层6、卷积层7、最大池化层3、卷积层8、卷积层9、卷积层10、最大池化层4、卷积层11、卷积层12、卷积层13、最大池化层5、卷积层14和卷积层15。
D、设计轻量级的融合模块
在以VGG16卷积神经网络为骨干网络的前提下,对C步骤中由卷积层10所得到的conv4_3特征图和C步骤中卷积层15所得到的Fc7特征图进行融合,具体融合步骤如下:
D1、Fc7特征图通过有512个大小为1×1的卷积核、卷积步长为1的卷积层1进行降维。经过VGG16卷积神经网络,Fc7特征图的大小为20×20×1024,conv4_3特征图的大小为40×40×512,为了进行融合,先对Fc7特征图通过1×1×512卷积层来降维,具体是:
输入:[N,Cin,Hin,Win];
卷积核:卷积核大小、卷积核个数;
输出:[N,Cout,Hout,Wout];
式中,N为样本数目,Cin为输入通道数,Hin为输入图像高度,Win为输入图像宽度,Cout为输出通道数,Hout为输出图像高度,Wout为输出图像宽度,padding为填充大小,dilation为空洞率大小,kernel为卷积核大小,stride为步长。
Fc7特征图通过有512个大小为1×1的卷积核、卷积步长为1的卷积层1,得到大小为20×20×512的特征图1。
特征图1通过有512个大小为3×3的卷积核、卷积步长为1的卷积层2,得到大小为20×20×512的特征图2。
D2、特征图2通过上采样层来扩大Fc7特征图大小,以便于与conv4_3特征图进行融合,采用的方法为双线性插值方法,具体的插值公式如下:
式中x为图像高度方向的坐标,y为图像宽度上的坐标,f(x,y)为任意一点(x,y)处的像素值,Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)以及Q22=(x2,y2)为已知的四个点的坐标及其对应的像素值f(Q11)、f(Q21)、f(Q12)和f(Q22)。
特征图2通过采用双线性插值方式的上采样层,得到大小为40×40×512的特征图3。
D3、特征图3通过全局平均池化提取全局特征信息,然后通过python广播的方式与conv4_3特征图进行融合。
全局平均池化公式为在每一个通道上对每一个像素点求和并求平均值:
f(x,y):坐标(x,y)处的像素值,f(mean):像素平均值。
特征图3通过全局平均池化层,得到大小为1×1×512的特征图4。
D4、特征图4通过有512个大小为3×3的卷积核、卷积步长为1的卷积层3,得到大小为1×1×512的特征图5;
conv4_3特征图、特征图3和特征图5相加得到大小为40×40×512的特征图6;
特征图6通过有512个大小为3×3的卷积核、卷积步长为1的卷积层4,得到大小为40×40×512的最终结果特征图7。
E、设计特征增强模块
E1、由于在进行目标检测时,目标的尺度大小是不断变化,所以负责检测的特征图也具有多尺度的感受野信息。在整个特征增强模块当中设计四个分支,每个分支由卷积层和空洞卷积层组合组成,相邻的分支输出结果通过相加进行融合,使得最终得到的特征图的信息更加有效。
E2、具体的网络结构和每层的参数为:
输入大小为40×40×512的特征图1,通过有128个大小为1×1的卷积核、步长为1的卷积层1,得到大小为40×40×128的特征图2,并将其复制4份,命名为z1,z2,z3,z4;
z1通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为1的卷积层2,得到大小为40×40×128的特征图3;
z2与特征图3相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为1的卷积层3,得到大小为40×40×128的特征图4;
z3与卷积层4的结果相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为3的卷积层4,得到大小为40×40×128的特征图5;
z4与卷积层5的结果相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为7的卷积层5,得到大小为40×40×128的特征图6;
特征图3、特征图4、特征图5和特征图6通过聚合层,得到大小为40×40×512的特征图7;
特征图7与原始输入特征图1相加,得到最终的大小为40×40×512的特征图8。
F、计算完整的目标检测网络结构和每层参数输入大小为320×320×3的待检测图像,3代表图像为彩色图像有三个通道,通过有64个大小为3×3的卷积核、步长为1的卷积层1,得到大小为320×320×64的特征图1;
特征图1通过有64个大小为3×3的卷积核、卷积步长为1的卷积层2,得到大小为320×320×64的特征图2;
特征图2通过核大小为2×2,步长为2的最大池化层1,得到大小为160×160×64的特征图3;
特征图3通过有128个大小为3×3的卷积核、卷积步长为1的卷积层3,得到大小为160×160×128的特征图4;
特征图4通过有128个大小为3×3的卷积核、卷积步长为1的卷积层4,得到大小为160×160×128的特征图5;
特征图5通过核大小为2×2,步长为2的最大池化层2,得到大小为80×80×128的特征图6;
特征图6通过有256个大小为3×3的卷积核、卷积步长为1的卷积层5,得到大小为80×80×256的特征图7;
特征图7通过有256个大小为3×3的卷积核、卷积步长为1的卷积层6,得到大小为80×80×256的特征图8;
特征图8通过有256个大小为3×3的卷积核、卷积步长为1的卷积层7,得到大小为80×80×256的特征图9;
特征图9通过核大小为2×2,步长为2的最大池化层3,得到大小为40×40×256的特征图10;
特征图10通过有512个大小为3×3的卷积核、卷积步长为1的卷积层8,得到大小为40×40×512的特征图11;
特征图11通过有512个大小为3×3的卷积核、卷积步长为1的卷积层9,得到大小为40×40×512的特征图12;
特征图12通过有512个大小为3×3的卷积核、卷积步长为1的卷积层10,得到大小为40×40×512的特征图13;
特征图13通过核大小为2×2,步长为2的最大池化层4,得到大小为20×20×512的特征图14;
特征图14通过有512个大小为3×3的卷积核、卷积步长为1的卷积层11,得到大小为20×20×512的特征图15;
特征图15通过有512个大小为3×3的卷积核、卷积步长为1的卷积层12,得到大小为20×20×512的特征图16;
特征图16通过有512个大小为3×3的卷积核、卷积步长为1的卷积层13,得到大小为20×20×512的特征图17;
特征图17通过核大小为3×3,步长为1的最大池化层5,得到大小为20×20×512的特征图18;
特征图18通过有1024个大小为3×3的卷积核、卷积步长为1的卷积层14,得到大小为20×20×1024的特征图19;
特征图19通过有1024个大小为1×1的卷积核、卷积步长为1的卷积层15,得到大小为20×20×1024的特征图20;
特征图20通过融合模块,得到大小为40×40×512的特征图21;
特征图21通过特征增强模块1,得到的大小为40×40×512的特征图22;
特征图22通过有512个大小为3×3的卷积核、卷积步长为2的下采样卷积层1,得到大小为20×20×512的特征图23;
特征图23通过特征增强模块2,得到大小为20×20×512的特征图24;
特征图24通过有512个大小为3×3的卷积核、卷积步长为2,填充为1的下采样卷积层2,得到大小为10×10×512的特征图25;
特征图25通过特征增强模块3,得到的大小为10×10×256的特征图26;
特征图26通过有256个大小为3×3的卷积核、卷积步长为2,填充为1的下采样卷积层3,得到大小为5×5×256的特征图27;
特征图27通过特征增强模块4,得到大小为5×5×256的特征图28;
特征图28通过有256个大小为3×3的卷积核、卷积步长为1,填充为0的下采样卷积层4,得到大小为3×3×256的特征图29;
特征图29通过特征增强模块5,得到大小为3×3×256的特征图30;
特征图30通过有512个大小为3×3的卷积核、卷积步长为1,填充为0的下采样卷积层5,得到大小为1×1×256的特征图31。
与现有技术相比,本发明具有以下有益效果:
卷积神经网络是目前图像识别领域精度最高的检测方法,本发明通过设计融合模块和特征增强模块,在不降低运行速度的前提下提高了检测精度。其中融合模块的作用是提高小目标的检测精度,F步骤中的特征图20在没有通过融合模块时,处于较浅的卷积位置,虽有很好的细节信息,但是语义信息却不够,于是通过融合模块,加强语义信息。特征增强模块的作用是使得网络更好地适应目标尺度大小的变化,在实际进行检测时,目标的大小是不断变化的,所以我们通过设计特征增强模块使得一个特征图可以聚合多个感受野大小的信息,从而更加适应目标尺度大小的变化。
附图说明
图1为本发明的主流程图;
图2为本发明步骤D的流程图;
图3为本发明步骤E的流程图;
图4为VGG16卷积神经网络的结构图。
具体实施方式
下面结合附图对本发明进行进一步地描述。本发明的主流程如图1所示,步骤D和步骤E的流程图分别如图2和3所示,图4所示为步骤C中涉及到的VGG16卷积神经网络的结构图,具体实施方式与发明内容中相同,不在此重复。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。
Claims (1)
1.一种准确且快速的图像中目标检测方法,其特征在于:包括以下步骤:
A、检测目标
采用训练完成的卷积神经网络对获得的待检测图像进行目标的检测,并根据检测的结果判断图像中是否有目标以及目标所在的具体位置,所述的目标包括车和人;
B、获取待检测目标样本数据集
收集包含待检测目标的N张待检测图像:图像1、图像2、……、图像N,以及每张图像的标注文件,每张图像的标注文件包括该图像中目标的类别以及位置信息;每张图像包含各种场景下待检测目标的可能的状态;对于长宽不等的图像,先将图像用0像素填充到长宽相等的图像,再放缩到320×320的三通道RGB图像;
C、选取骨干网络
骨干网络采用VGG16卷积神经网络,VGG卷积神经网络是牛津大学在2014年提出来的模型,VGG16卷积神经网络是VGG卷积神经网络的变种,其网络层数只有16层,在实际使用时去掉最后的全连接层,并用卷积层代替,具体的网络结构依次为:卷积层1、卷积层2、最大池化层1、卷积层3、卷积层4、最大池化层2、卷积层5、卷积层6、卷积层7、最大池化层3、卷积层8、卷积层9、卷积层10、最大池化层4、卷积层11、卷积层12、卷积层13、最大池化层5、卷积层14和卷积层15;
D、设计轻量级的融合模块
在以VGG16卷积神经网络为骨干网络的前提下,对C步骤中由卷积层10所得到的conv4_3特征图和C步骤中卷积层15所得到的Fc7特征图进行融合,具体融合步骤如下:
D1、Fc7特征图通过有512个大小为1×1的卷积核、卷积步长为1的卷积层1进行降维;经过VGG16卷积神经网络,Fc7特征图的大小为20×20×1024,conv4_3特征图的大小为40×40×512,为了进行融合,先对Fc7特征图通过1×1×512卷积层来降维,具体是:
输入:[N,Cin,Hin,Win];
卷积核:卷积核大小、卷积核个数;
输出:[N,Cout,Hout,Wout];
式中,N为样本数目,Cin为输入通道数,Hin为输入图像高度,Win为输入图像宽度,Cout为输出通道数,Hout为输出图像高度,Wout为输出图像宽度,padding为填充大小,dilation为空洞率大小,kernel为卷积核大小,stride为步长;
Fc7特征图通过有512个大小为1×1的卷积核、卷积步长为1的卷积层1,得到大小为20×20×512的特征图1;
特征图1通过有512个大小为3×3的卷积核、卷积步长为1的卷积层2,得到大小为20×20×512的特征图2;
D2、特征图2通过上采样层来扩大Fc7特征图大小,以便于与conv4_3特征图进行融合,采用的方法为双线性插值方法,具体的插值公式如下:
式中x为图像高度方向的坐标,y为图像宽度上的坐标,f(x,y)为任意一点(x,y)处的像素值,Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)以及Q22=(x2,y2)为已知的四个点的坐标及其对应的像素值f(Q11)、f(Q21)、f(Q12)和f(Q22);
特征图2通过采用双线性插值方式的上采样层,得到大小为40×40×512的特征图3;
D3、特征图3通过全局平均池化提取全局特征信息,然后通过python广播的方式与conv4_3特征图进行融合;
全局平均池化公式为在每一个通道上对每一个像素点求和并求平均值:
f(x,y):坐标(x,y)处的像素值,f(mean):像素平均值;
特征图3通过全局平均池化层,得到大小为1×1×512的特征图4;
D4、特征图4通过有512个大小为3×3的卷积核、卷积步长为1的卷积层3,得到大小为1×1×512的特征图5;
conv4_3特征图、特征图3和特征图5相加得到大小为40×40×512的特征图6;
特征图6通过有512个大小为3×3的卷积核、卷积步长为1的卷积层4,得到大小为40×40×512的最终结果特征图7;
E、设计特征增强模块
E1、由于在进行目标检测时,目标的尺度大小是不断变化,所以负责检测的特征图也具有多尺度的感受野信息;在整个特征增强模块当中设计四个分支,每个分支由卷积层和空洞卷积层组合组成,相邻的分支输出结果通过相加进行融合,使得最终得到的特征图的信息更加有效;
E2、具体的网络结构和每层的参数为:
输入大小为40×40×512的特征图1,通过有128个大小为1×1的卷积核、步长为1的卷积层1,得到大小为40×40×128的特征图2,并将其复制4份,命名为z1,z2,z3,z4;
z1通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为1的卷积层2,得到大小为40×40×128的特征图3;
z2与特征图3相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为1的卷积层3,得到大小为40×40×128的特征图4;
z3与卷积层4的结果相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为3的卷积层4,得到大小为40×40×128的特征图5;
z4与卷积层5的结果相加后,通过有128个大小为3×3的卷积核、卷积步长为1,空洞率为7的卷积层5,得到大小为40×40×128的特征图6;
特征图3、特征图4、特征图5和特征图6通过聚合层,得到大小为40×40×512的特征图7;
特征图7与原始输入特征图1相加,得到最终的大小为40×40×512的特征图8;
F、计算完整的目标检测网络结构和每层参数输入大小为320×320×3的待检测图像,3代表图像为彩色图像有三个通道,通过有64个大小为3×3的卷积核、步长为1的卷积层1,得到大小为320×320×64的特征图1;
特征图1通过有64个大小为3×3的卷积核、卷积步长为1的卷积层2,得到大小为320×320×64的特征图2;
特征图2通过核大小为2×2,步长为2的最大池化层1,得到大小为160×160×64的特征图3;
特征图3通过有128个大小为3×3的卷积核、卷积步长为1的卷积层3,得到大小为160×160×128的特征图4;
特征图4通过有128个大小为3×3的卷积核、卷积步长为1的卷积层4,得到大小为160×160×128的特征图5;
特征图5通过核大小为2×2,步长为2的最大池化层2,得到大小为80×80×128的特征图6;
特征图6通过有256个大小为3×3的卷积核、卷积步长为1的卷积层5,得到大小为80×80×256的特征图7;
特征图7通过有256个大小为3×3的卷积核、卷积步长为1的卷积层6,得到大小为80×80×256的特征图8;
特征图8通过有256个大小为3×3的卷积核、卷积步长为1的卷积层7,得到大小为80×80×256的特征图9;
特征图9通过核大小为2×2,步长为2的最大池化层3,得到大小为40×40×256的特征图10;
特征图10通过有512个大小为3×3的卷积核、卷积步长为1的卷积层8,得到大小为40×40×512的特征图11;
特征图11通过有512个大小为3×3的卷积核、卷积步长为1的卷积层9,得到大小为40×40×512的特征图12;
特征图12通过有512个大小为3×3的卷积核、卷积步长为1的卷积层10,得到大小为40×40×512的特征图13;
特征图13通过核大小为2×2,步长为2的最大池化层4,得到大小为20×20×512的特征图14;
特征图14通过有512个大小为3×3的卷积核、卷积步长为1的卷积层11,得到大小为20×20×512的特征图15;
特征图15通过有512个大小为3×3的卷积核、卷积步长为1的卷积层12,得到大小为20×20×512的特征图16;
特征图16通过有512个大小为3×3的卷积核、卷积步长为1的卷积层13,得到大小为20×20×512的特征图17;
特征图17通过核大小为3×3,步长为1的最大池化层5,得到大小为20×20×512的特征图18;
特征图18通过有1024个大小为3×3的卷积核、卷积步长为1的卷积层14,得到大小为20×20×1024的特征图19;
特征图19通过有1024个大小为1×1的卷积核、卷积步长为1的卷积层15,得到大小为20×20×1024的特征图20;
特征图20通过融合模块,得到大小为40×40×512的特征图21;
特征图21通过特征增强模块1,得到的大小为40×40×512的特征图22;
特征图22通过有512个大小为3×3的卷积核、卷积步长为2的下采样卷积层1,得到大小为20×20×512的特征图23;
特征图23通过特征增强模块2,得到大小为20×20×512的特征图24;
特征图24通过有512个大小为3×3的卷积核、卷积步长为2,填充为1的下采样卷积层2,得到大小为10×10×512的特征图25;
特征图25通过特征增强模块3,得到的大小为10×10×256的特征图26;
特征图26通过有256个大小为3×3的卷积核、卷积步长为2,填充为1的下采样卷积层3,得到大小为5×5×256的特征图27;
特征图27通过特征增强模块4,得到大小为5×5×256的特征图28;
特征图28通过有256个大小为3×3的卷积核、卷积步长为1,填充为0的下采样卷积层4,得到大小为3×3×256的特征图29;
特征图29通过特征增强模块5,得到大小为3×3×256的特征图30;
特征图30通过有512个大小为3×3的卷积核、卷积步长为1,填充为0的下采样卷积层5,得到大小为1×1×256的特征图31。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176482.5A CN110956119B (zh) | 2019-11-26 | 2019-11-26 | 一种图像中目标检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911176482.5A CN110956119B (zh) | 2019-11-26 | 2019-11-26 | 一种图像中目标检测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110956119A true CN110956119A (zh) | 2020-04-03 |
CN110956119B CN110956119B (zh) | 2023-05-26 |
Family
ID=69978463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911176482.5A Active CN110956119B (zh) | 2019-11-26 | 2019-11-26 | 一种图像中目标检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110956119B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488220A (zh) * | 2020-12-07 | 2021-03-12 | 南京理工大学 | 一种基于深度学习的小目标检测方法 |
CN113673616A (zh) * | 2021-08-26 | 2021-11-19 | 南通大学 | 一种耦合注意力和上下文的轻量化小目标检测方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN113837058A (zh) * | 2021-09-17 | 2021-12-24 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
US20190156144A1 (en) * | 2017-02-23 | 2019-05-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device |
CN109886066A (zh) * | 2018-12-17 | 2019-06-14 | 南京理工大学 | 基于多尺度和多层特征融合的快速目标检测方法 |
CN109961034A (zh) * | 2019-03-18 | 2019-07-02 | 西安电子科技大学 | 基于卷积门控循环神经单元的视频目标检测方法 |
CN110084195A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于卷积神经网络的遥感图像目标检测方法 |
CN110084124A (zh) * | 2019-03-28 | 2019-08-02 | 北京大学 | 基于特征金字塔网络的特征增强目标检测方法 |
-
2019
- 2019-11-26 CN CN201911176482.5A patent/CN110956119B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190156144A1 (en) * | 2017-02-23 | 2019-05-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device |
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
CN109886066A (zh) * | 2018-12-17 | 2019-06-14 | 南京理工大学 | 基于多尺度和多层特征融合的快速目标检测方法 |
CN109961034A (zh) * | 2019-03-18 | 2019-07-02 | 西安电子科技大学 | 基于卷积门控循环神经单元的视频目标检测方法 |
CN110084124A (zh) * | 2019-03-28 | 2019-08-02 | 北京大学 | 基于特征金字塔网络的特征增强目标检测方法 |
CN110084195A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于卷积神经网络的遥感图像目标检测方法 |
Non-Patent Citations (1)
Title |
---|
王凯;潘炼;: "基于改进Faster R-CNN图像小目标检测" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN112488220A (zh) * | 2020-12-07 | 2021-03-12 | 南京理工大学 | 一种基于深度学习的小目标检测方法 |
CN112488220B (zh) * | 2020-12-07 | 2022-09-27 | 南京理工大学 | 一种基于深度学习的小目标检测方法 |
CN113673616A (zh) * | 2021-08-26 | 2021-11-19 | 南通大学 | 一种耦合注意力和上下文的轻量化小目标检测方法 |
CN113673616B (zh) * | 2021-08-26 | 2023-09-29 | 南通大学 | 一种耦合注意力和上下文的轻量化小目标检测方法 |
CN113837058A (zh) * | 2021-09-17 | 2021-12-24 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
CN113837058B (zh) * | 2021-09-17 | 2022-09-30 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110956119B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674829B (zh) | 一种基于图卷积注意网络的三维目标检测方法 | |
Du et al. | Car detection for autonomous vehicle: LIDAR and vision fusion approach through deep learning framework | |
CN108830280B (zh) | 一种基于区域提名的小目标检测方法 | |
WO2020244653A1 (zh) | 物体识别方法及装置 | |
CN110956119B (zh) | 一种图像中目标检测的方法 | |
CN107274445B (zh) | 一种图像深度估计方法和系统 | |
CN112949633B (zh) | 一种基于改进YOLOv3的红外目标检测方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN111612807A (zh) | 一种基于尺度和边缘信息的小目标图像分割方法 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及系统 | |
CN112800964A (zh) | 基于多模块融合的遥感影像目标检测方法及系统 | |
CN112731436B (zh) | 基于点云上采样的多模态数据融合可行驶区域检测方法 | |
CN108830131B (zh) | 基于深度学习的交通目标检测与测距方法 | |
US20220180476A1 (en) | Systems and methods for image feature extraction | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN114627052A (zh) | 一种基于深度学习的红外图像漏气漏液检测方法及系统 | |
CN111652081A (zh) | 一种基于光流特征融合的视频语义分割方法 | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN114299405A (zh) | 一种无人机图像实时目标检测方法 | |
CN111738114A (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN112926548A (zh) | 一种车道线检测方法、装置、电子设备及存储介质 | |
CN110909615A (zh) | 基于多尺度输入混合感知神经网络的目标检测方法 | |
WO2021083126A1 (zh) | 目标检测、智能行驶方法、装置、设备及存储介质 | |
CN115238758A (zh) | 一种基于点云特征增强的多任务三维目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |