CN112926681B - 一种基于深度卷积神经网络的目标检测方法及装置 - Google Patents

一种基于深度卷积神经网络的目标检测方法及装置 Download PDF

Info

Publication number
CN112926681B
CN112926681B CN202110333413.1A CN202110333413A CN112926681B CN 112926681 B CN112926681 B CN 112926681B CN 202110333413 A CN202110333413 A CN 202110333413A CN 112926681 B CN112926681 B CN 112926681B
Authority
CN
China
Prior art keywords
network
prediction
convolutional neural
deep convolutional
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110333413.1A
Other languages
English (en)
Other versions
CN112926681A (zh
Inventor
郝磊祯
冯瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110333413.1A priority Critical patent/CN112926681B/zh
Publication of CN112926681A publication Critical patent/CN112926681A/zh
Application granted granted Critical
Publication of CN112926681B publication Critical patent/CN112926681B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度卷积神经网络的目标检测方法及装置,基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,其特征在于,包括如下步骤:对待测图像预处理得到预处理图像;将预处理图像输入预先训练好的深度卷积网络模型,得到所有目标物体的边界框以及种类。其中,深度卷积网络模型的训练过程包括:对训练集预处理得到预处理数据集;搭建包括主网络以及辅助网络深度卷积神经网络,主网络为全卷积神经网络;利用主网络获取第一特征图,从而进行边界框预测得到预测边界框置信度分数;利用辅助网络获取第二特征图,进而得到物体边界框以及物体类别,进而训练更新得到训练好的深度卷积网络模型。

Description

一种基于深度卷积神经网络的目标检测方法及装置
技术领域
本发明属于数据识别领域,具体涉及一种基于深度卷积神经网络的目标检测方法及装置。
背景技术
在当前计算机技术及计算机硬件性能大幅提升的情况下,近年来计算机视觉、自然语言处理和语音检测等应用领域取得了突破性进展。目标检测作为计算机视觉领域中的一项基础任务,其精度和速度也得到了大幅提升。
目标检测也叫目标提取,是一种基于目标几何和统计特征的图像分割。它将目标的分割与识别合二为一,其准确性和实时性影响各种应用场景下目标检测任务的完成。尤其在复杂场景中,需要对多个目标进行实时处理,此时,目标的自动提取与识别就显得特别重要。
目标检测是计算机视觉和数字图像处理的一个热门方向,广泛应用于机器人导航、智能视频监控、工业检测、航空航天等诸多领域,通过计算机视觉减少对人力资本的消耗,具有重要的现实意义。因此,目标检测也就成为了近年来理论和应用的研究热点,它是图像处理和计算机视觉学科的重要分支,也是智能监控系统的核心部分,同时目标检测也是泛身份识别领域的一个基础性的算法,对后续的人脸识别、步态识别、人群计数、实例分割等任务起着至关重要的作用。由于视频中的目标具有不同姿态且经常出现遮挡、其运动具有不规则性,同时考虑到监控视频的景深、分辨率、天气、光照等条件和场景的多样性,而且目标检测算法的结果将直接影响后续的跟踪、动作识别和行为描述的效果。故即使在技术发展的今天,目标检测这一基本任务仍然是非常具有挑战性的课题,存在很大的提升潜力和空间。
为了提高目标检测准确率和速度,目前常用的方法是增加预测模型训练时的训练数据。然而,一方面,收集大量的训练数据是一件极其困难的工作,另一方面,训练数据量增多也导致模型训练时间延长,甚至有可能导致训练无法实际完成。
发明内容
为解决上述问题,提供了一种利用全卷积神经网络以及全局信息来提升目标检测精度以及速度的目标检测方法及装置,本发明采用了如下技术方案:
本发明提供了一种基于深度卷积神经网络的目标检测方法,基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,其特征在于,包括如下步骤:步骤S1-1,利用预定的预处理方法对待测图像进行预处理得到预处理图像;步骤S1-2,将预处理图像输入预先训练好的深度卷积网络模型,得到待测图像中所有目标物体的边界框以及种类,其中,深度卷积网络模型的训练过程包括如下步骤:步骤S2-1,利用预处理方法对用于训练的训练集进行预处理,得到预处理数据集;步骤S2-2,搭建深度卷积神经网络,该深度卷积神经网络包括主网络以及辅助网络,该主网络为全卷积神经网络;步骤S2-3,利用主网络对预处理数据集进行特征提取得到第一特征图;步骤S2-4,基于第一特征图通过预定的函数进行边界框预测得到多个预测边界框以及与每个预测边界框对应的置信度分数;步骤S2-5,计算训练集的真实边界框与预测边界框的平方和误差,并将该平方和误差作为主网络损失;步骤S2-6,利用辅助网络对预处理数据集进行特征提取以及激活函数处理,得到第二特征图;步骤S2-7,利用函数从第二特征图得到物体边界框以及物体类别;步骤S2-8,基于物体边界框、预测边界框以及物体类别构建包含主网络损失以及置信度分数的损失函数;步骤S2-9,基于损失函数进行反向传播更新深度卷积神经网络的参数,直到深度卷积神经网络收敛从而得到训练好的深度卷积网络模型。
根据本发明提供的一种基于深度卷积神经网络的目标检测方法,还可以具有这样的技术特征,其中,主网络为包括30层网络层,依次为:卷积层、池化层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、全连接层、全连接层。
根据本发明提供的一种基于深度卷积神经网络的目标检测方法,还可以具有这样的技术特征,其中,辅助网络为YOLO,该辅助网络先将预处理数据集中每一张预处理图像分割为7×7个网格,并输出大小为7×7×5的向量,用于表述每个网格的属性。
根据本发明提供的一种基于深度卷积神经网络的目标检测方法,还可以具有这样的技术特征,其中,步骤S2-4中函数为维度聚类算法。
本发明提供了一种基于深度卷积神经网络的目标检测装置,基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,其特征在于,包括预处理模块,利用预定的预处理方法对待测图像进行预处理得到预处理图像;以及目标检测模块,将预处理图像输入预先训练好的深度卷积网络模型,得到待测图像中所有目标物体的边界框以及种类,其中,深度卷积网络模型的训练过程包括如下步骤:步骤S2-1,利用预处理方法对用于训练的训练集进行预处理,得到预处理数据集;步骤S2-2,搭建深度卷积神经网络,该深度卷积神经网络包括主网络以及辅助网络,该主网络为全卷积神经网络;步骤S2-3,利用主网络对预处理数据集进行特征提取得到第一特征图;步骤S2-4,基于第一特征图通过预定的函数进行边界框预测得到多个预测边界框以及与每个预测边界框对应的置信度分数;步骤S2-5,计算训练集的真实边界框与预测边界框的平方和误差,并将该平方和误差作为主网络损失;步骤S2-6,利用辅助网络对预处理数据集进行特征提取以及激活函数处理,得到第二特征图;步骤S2-7,利用函数从第二特征图得到物体边界框以及物体类别;步骤S2-8,基于物体边界框、预测边界框以及物体类别构建包含主网络损失以及置信度分数的损失函数;步骤S2-9,基于损失函数进行反向传播更新深度卷积神经网络的参数,直到深度卷积神经网络收敛从而得到训练好的深度卷积网络模型。
发明作用与效果
根据本发明的一种基于深度卷积神经网络的目标检测方法及装置,由于深度卷积神经网络中的主网络为全卷积神经网络,基于该全卷积神经网络以及辅助网络,从而可以直接预测得到目标物体的边界框和类别概率,即将目标检测从一个分类问题转换为回归问题,因此,提升了目标检测的速度,增强了泛化能力。同时,相比于需要使用模型混合、多任务训练以及度量学习等方法而言,深度卷积神经网络结构简单,对训练集的数量要求低,从而节省了计算资源,加快了模型的训练速度。
另外,由于深度卷积神经网络在训练过程中先对预处理数据集进行特征提取得到第一特征图,再基于第一特征图得到预测边界框,从而该预测边界框是基于全局信息预测得到,因此,相较于传统的region proposal方法而言,将背景误检率降低一半,达到提升目标检测精度的目的。
通过本发明的基于深度卷积神经网络的目标检测方法及装置可以快速准确地对待测图像中的所有目标物体进行识别与定位。
附图说明
图1为本发明实施例的一种基于深度卷积神经网络的目标检测方法的流程图;
图2为本发明实施例的深度卷积网络模型训练过程的流程图;
图3为本发明实施例的主网络的网络结构示意图;以及
图4为本发明实施例的目标检测模型实验对比图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的一种基于深度卷积神经网络的目标检测方法及装置作具体阐述。
<实施例>
本实施例中一种基于深度卷积神经网络的目标检测方法及装置在一张NVIDIA2080Ti显卡的辅助下实现相应训练与预测功能。
图1为本发明实施例的一种基于深度卷积神经网络的目标检测方法的流程图。
如图1所示,一种基于深度卷积神经网络的目标检测方法包括如下步骤:
步骤S1-1,利用预定的预处理方法对待测图像进行预处理得到预处理图像。
本实施例中,预处理方法包括将待测图像的大小调整为448×448,从而保证输入图像的分布一致,并使得放大的小目标也能被检测到。
步骤S1-2,将预处理图像输入预先训练好的深度卷积网络模型,得到待测图像中所有目标物体的边界框以及种类。
图2为本发明实施例的深度卷积网络模型训练过程的流程图。
如图2所示,深度卷积网络模型的训练过程包括如下步骤:
步骤S2-1,利用预处理方法对用于训练的训练集进行预处理,得到预处理数据集。
本实施例中,训练集为PASCAL VOC2007。PASCAVOC2007是衡量图像分类识别的基准,faster-rcnn,yolo-v1,yolo-v2都以此数据集为最为演示样例。PASCAL VOC2007数据集共包含:训练集(5011幅),测试集(4952幅),共计9963幅图,共包含20个种类。
步骤S2-2,搭建深度卷积神经网络,该深度卷积神经网络包括主网络以及辅助网络,该主网络为全卷积神经网络。
本实施例中,利用深度学习框架PyTorch搭建深度卷积神经网络。
步骤S2-3,利用主网络对预处理数据集进行特征提取得到第一特征图。
深度卷积神经网络在训练过程中,针对边界框坐标的预测误差,采用较大的权重,从而区分不包含目标的边界框与含有目标的边界框的置信度。
图3为本发明实施例的主网络的网络结构示意图。
如图3所示,主网络的网络结构参考了GoogleNet,一共24个卷积层,2个全链接层,按照顺序依次为:卷积层、池化层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、全连接层、全连接层。
上述卷积层包括Relu激活函数。
步骤S2-4,基于第一特征图通过预定的函数进行边界框预测得到多个预测边界框以及与每个预测边界框对应的置信度分数。
其中,利用维度聚类算法得到锚框,并基于该锚框进行边界框的预测,从而得到预测边界框。具体为:
Figure BDA0002996356810000081
式中,bx为预测边界框水平方向的置信度,tx为预测的水平方向的位置,cx为物体中心坐标中水平方向的坐标值,by为竖直方向的置信度,ty为预测的竖直方向的位置,cy为物体中心坐标中竖直方向的坐标值,bw为预测边界框的宽的置信度,pw为预测的宽度,tw为预测的宽的位置,bh为预测边界框的高的置信度,ph为预测的高度,th为预测的高的位置。
步骤S2-5,计算训练集的真实边界框与预测边界框的平方和误差,并将该平方和误差作为主网络损失。
具体地,对真实边界框与预测边界框的误差计算采用了均方误差,其同等对待大小不同的边界框,但是实际上较小的边界框的坐标误差应该要比较大的边界框要更敏感。为了保证这一点,将网络对边界框宽与高的预测改为对其平方根的预测。
步骤S2-6,利用辅助网络对预处理数据集进行特征提取以及激活函数处理,得到第二特征图。
其中,辅助网络为YOLO,在预处理数据集中每一张预处理图像输入YOLO之前,先将图像大小统一为448×448(图3中由于表示448×448图像的长方体太宽,无法按正常比例展示完全)。
然后利用YOLO将预处理数据集中每一张预处理图像分割为7×7个网格,并输出大小为7×7×5的向量,用于表述每个网格的属性,属性分别为:该网格检测为每种类别的概率p、该类别区域中心的横坐标x、该类别区域中心的横坐标y、该类别区域宽度w、以及该类别区域高度h。
其中,每个网格都具有2个边界框,在这两个边界框的基础上再进行物体的框定和分类,因此,一张预处理图像总共具有98个边界框。
步骤S2-7,利用函数从第二特征图得到物体边界框以及物体类别。
针对每个网格都会预测得到多个边界框,但是其对应类别只有一个。如果该网格内确实存在目标,那么只选择与ground truth的IOU最大的那个边界框来负责预测该目标,而其它边界框认为不存在目标,不需要基于每个边界框进行目标物体的类别预测。
步骤S2-8,基于物体边界框、预测边界框以及物体类别构建包含主网络损失以及置信度分数的损失函数lobj。具体地:
Figure BDA0002996356810000091
式中,j为第j个预测边界框,lnoobj i,j为0时表示如果i,j处的预测没有目标,lnoobj i,j为1时表示如果i,j处的预测有目标,S表示网格尺寸大小,B代表预测边界框,c是置信度得分,c^是预测边界框与基本事实的交叉部分,lobj i,j为0时表示第i个网格中的第j个box不属于这个物体,lobj i,j为1时表示第i个网格中的第j个box属于这个物体,λnoobj与λobj均为超参数。
本实施例中超参数λnoob=5。
步骤S2-9,基于损失函数进行反向传播更新深度卷积神经网络的参数,直到深度卷积神经网络收敛从而得到训练好的深度卷积网络模型。
本实施例的基于深度卷积神经网络的目标检测装置包括预处理模块以及目标检测模块。本实施例中,基于深度卷积神经网络的目标检测装置是由基于深度卷积神经网络的目标检测方法得到的,可以基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,并可应用于嵌入式设备。
预处理模块利用预定的预处理方法对待测图像进行预处理得到预处理图像。
目标检测模块将预处理图像输入预先训练好的深度卷积网络模型,得到待测图像中所有目标物体的边界框以及种类。
为了验证本发明的一种基于深度卷积神经网络的目标检测方法及装置的有效性,利用Pascal VOC 2007数据集中的测试数据与现有的目标检测模型100Hz DPM、30Hz DPM以及Fast YOLO进行实实验对比,从mAP以及FPS进行评价,实验对比结果如图4所示。
从图4中可以看出,本发明的目标检测模型的mAP为63.4,均远远高于100Hz DPM、30Hz DPM以及Fast YOLO;本发明目标检测模型的FPS为45,高于30Hz DPM,而低于100HzDPM与Fast YOLO,从而说明本发明的目标检测模型在FPS可以接受的情况下,拥有较好的准确率。
实施例作用与效果
根据本实施例提供的基于深度卷积神经网络的目标检测方法及装置,由于深度卷积神经网络中的主网络为全卷积神经网络,基于该全卷积神经网络以及辅助网络,从而可以直接预测得到目标物体的边界框和类别概率,即将目标检测从一个分类问题转换为回归问题,因此,提升了目标检测的速度,增强了泛化能力。同时,相比于需要使用模型混合、多任务训练以及度量学习等方法而言,深度卷积神经网络结构简单,对训练集的数量要求低,从而节省了计算资源,加快了模型的训练速度。
另外,由于深度卷积神经网络在训练过程中先对预处理数据集进行特征提取得到第一特征图,再基于第一特征图得到预测边界框,从而该预测边界框是基于全局信息预测得到,因此,相较于传统的region proposal方法而言,将背景误检率降低一半,达到提升目标检测精度的目的。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (5)

1.一种基于深度卷积神经网络的目标检测方法,基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,其特征在于,包括如下步骤:
步骤S1-1,利用预定的预处理方法对所述待测图像进行预处理得到预处理图像;
步骤S1-2,将所述预处理图像输入预先训练好的深度卷积网络模型,得到所述待测图像中所有目标物体的边界框以及种类,
其中,所述深度卷积网络模型的训练过程包括如下步骤:
步骤S2-1,利用所述预处理方法对用于训练的训练集进行预处理,得到预处理数据集;
步骤S2-2,搭建深度卷积神经网络,该深度卷积神经网络包括主网络以及辅助网络,该主网络为全卷积神经网络;
步骤S2-3,利用所述主网络对所述预处理数据集进行特征提取得到第一特征图;
步骤S2-4,基于所述第一特征图通过预定的函数进行边界框预测得到多个预测边界框以及与每个所述预测边界框对应的置信度分数;
步骤S2-5,计算所述训练集的真实边界框与所述预测边界框的平方和误差,并将该平方和误差作为主网络损失;
步骤S2-6,利用所述辅助网络对所述预处理数据集进行特征提取以及激活函数处理,得到第二特征图;
步骤S2-7,利用所述函数从所述第二特征图得到物体边界框以及物体类别;
步骤S2-8,基于所述物体边界框、所述预测边界框以及所述物体类别构建包含所述主网络损失以及所述置信度分数的损失函数:
Figure FDA0003883384450000021
式中,j为第j个预测边界框,lnoobj i,j为0时表示如果i,j处的预测没有目标,lnoobj i,j为1时表示如果i,j处的预测有目标,S表示网格尺寸大小,B代表预测边界框,c是置信度得分,c^是预测边界框与基本事实的交叉部分,lobj i,j为0时表示第i个网格中的第j个box不属于这个物体,lobj i,j为1时表示第i个网格中的第j个box属于这个物体,λnoobj与λobj均为超参数;
步骤S2-9,基于所述损失函数进行反向传播更新所述深度卷积神经网络的参数,直到所述深度卷积神经网络收敛从而得到训练好的深度卷积网络模型。
2.根据权利要求1所述的基于深度卷积神经网络的目标检测方法,其特征在于:
其中,所述主网络为包括30层网络层,依次为:卷积层、池化层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、卷积层、全连接层、全连接层。
3.根据权利要求1所述的基于深度卷积神经网络的目标检测方法,其特征在于:
其中,所述辅助网络为YOLO,该辅助网络先将所述预处理数据集中每一张预处理图像分割为7×7个网格,并输出大小为7×7×5的向量,用于表述每个所述网格的属性。
4.根据权利要求1所述的基于深度卷积神经网络的目标检测方法,其特征在于:
其中,所述步骤S2-4中所述函数为维度聚类算法。
5.一种基于深度卷积神经网络的目标检测装置,基于整张待测图像的特征预测该待测图像中所有目标物体的边界框以及种类,其特征在于,包括:
预处理模块,利用预定的预处理方法对所述待测图像进行预处理得到预处理图像;以及
目标检测模块,将所述预处理图像输入预先训练好的深度卷积网络模型,得到所述待测图像中所有目标物体的边界框以及种类,
其中,所述深度卷积网络模型的训练过程包括如下步骤:
步骤S2-1,利用所述预处理方法对用于训练的训练集进行预处理,得到预处理数据集;
步骤S2-2,搭建深度卷积神经网络,该深度卷积神经网络包括主网络以及辅助网络,该主网络为全卷积神经网络;
步骤S2-3,利用所述主网络对所述预处理数据集进行特征提取得到第一特征图;
步骤S2-4,基于所述第一特征图通过预定的函数进行边界框预测得到多个预测边界框以及与每个所述预测边界框对应的置信度分数;
步骤S2-5,计算所述训练集的真实边界框与所述预测边界框的平方和误差,并将该平方和误差作为主网络损失;
步骤S2-6,利用所述辅助网络对所述预处理数据集进行特征提取以及激活函数处理,得到第二特征图;
步骤S2-7,利用所述函数从所述第二特征图得到物体边界框以及物体类别;
步骤S2-8,基于所述物体边界框、所述预测边界框以及所述物体类别构建包含所述主网络损失以及所述置信度分数的损失函数:
Figure FDA0003883384450000041
式中,j为第j个预测边界框,lnoobj i,j为0时表示如果i,j处的预测没有目标,lnoobj i,j为1时表示如果i,j处的预测有目标,S表示网格尺寸大小,B代表预测边界框,c是置信度得分,c^是预测边界框与基本事实的交叉部分,lobj i,j为0时表示第i个网格中的第j个box不属于这个物体,lobj i,j为1时表示第i个网格中的第j个box属于这个物体,λnoobj与λobj均为超参数;
步骤S2-9,基于所述损失函数进行反向传播更新所述深度卷积神经网络的参数,直到所述深度卷积神经网络收敛从而得到训练好的深度卷积网络模型。
CN202110333413.1A 2021-03-29 2021-03-29 一种基于深度卷积神经网络的目标检测方法及装置 Active CN112926681B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110333413.1A CN112926681B (zh) 2021-03-29 2021-03-29 一种基于深度卷积神经网络的目标检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110333413.1A CN112926681B (zh) 2021-03-29 2021-03-29 一种基于深度卷积神经网络的目标检测方法及装置

Publications (2)

Publication Number Publication Date
CN112926681A CN112926681A (zh) 2021-06-08
CN112926681B true CN112926681B (zh) 2022-11-29

Family

ID=76176433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110333413.1A Active CN112926681B (zh) 2021-03-29 2021-03-29 一种基于深度卷积神经网络的目标检测方法及装置

Country Status (1)

Country Link
CN (1) CN112926681B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385466B (zh) * 2023-05-05 2024-06-21 北京信息科技大学 一种基于边界框弱标注的图像中目标分割方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520197A (zh) * 2018-02-28 2018-09-11 中国航空工业集团公司洛阳电光设备研究所 一种遥感图像目标检测方法及装置
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN111179249A (zh) * 2019-12-30 2020-05-19 南京南瑞信息通信科技有限公司 一种基于深度卷积神经网络的电力设备检测方法和装置
CN111553280A (zh) * 2020-04-28 2020-08-18 上海无线电设备研究所 基于深度学习的目标部位识别方法
CN111612002A (zh) * 2020-06-04 2020-09-01 广州市锲致智能技术有限公司 一种基于神经网络的多目标物体运动追踪方法
CN112270252A (zh) * 2020-10-26 2021-01-26 西安工程大学 一种改进YOLOv2模型的多车辆目标识别方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423760A (zh) * 2017-07-21 2017-12-01 西安电子科技大学 基于预分割和回归的深度学习目标检测方法
WO2019028725A1 (en) * 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
CN107563381B (zh) * 2017-09-12 2020-10-23 国家新闻出版广电总局广播科学研究院 基于全卷积网络的多特征融合的目标检测方法
CN108846446B (zh) * 2018-07-04 2021-10-12 国家新闻出版广电总局广播科学研究院 基于多路径密集特征融合全卷积网络的目标检测方法
CN110472467A (zh) * 2019-04-08 2019-11-19 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、系统及设备
CN111275082A (zh) * 2020-01-14 2020-06-12 中国地质大学(武汉) 一种基于改进端到端神经网络的室内物体目标检测方法
CN111461145B (zh) * 2020-03-31 2023-04-18 中国科学院计算技术研究所 一种基于卷积神经网络进行目标检测的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520197A (zh) * 2018-02-28 2018-09-11 中国航空工业集团公司洛阳电光设备研究所 一种遥感图像目标检测方法及装置
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN111179249A (zh) * 2019-12-30 2020-05-19 南京南瑞信息通信科技有限公司 一种基于深度卷积神经网络的电力设备检测方法和装置
CN111553280A (zh) * 2020-04-28 2020-08-18 上海无线电设备研究所 基于深度学习的目标部位识别方法
CN111612002A (zh) * 2020-06-04 2020-09-01 广州市锲致智能技术有限公司 一种基于神经网络的多目标物体运动追踪方法
CN112270252A (zh) * 2020-10-26 2021-01-26 西安工程大学 一种改进YOLOv2模型的多车辆目标识别方法

Also Published As

Publication number Publication date
CN112926681A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
US12062249B2 (en) System and method for generating image landmarks
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN110889343B (zh) 基于注意力型深度神经网络的人群密度估计方法及装置
US8462987B2 (en) Detecting multiple moving objects in crowded environments with coherent motion regions
CN110176027A (zh) 视频目标跟踪方法、装置、设备及存储介质
CN111626128A (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN110533695A (zh) 一种基于ds证据理论的轨迹预测装置及方法
CN108154104A (zh) 一种基于深度图像超像素联合特征的人体姿态估计方法
JP2020098587A (ja) ワッサースタイン距離を使用する物体形状回帰
CN111401293A (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
JP2020160812A (ja) 領域抽出装置及びプログラム
CN109242019A (zh) 一种水面光学小目标快速检测与跟踪方法
CN115457492A (zh) 目标检测方法、装置、计算机设备及存储介质
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN116128883A (zh) 一种光伏板数量统计方法、装置、电子设备及存储介质
CN111738164A (zh) 一种基于深度学习的行人检测方法
CN112926681B (zh) 一种基于深度卷积神经网络的目标检测方法及装置
CN112989952B (zh) 一种基于遮罩引导的人群密度估计方法及装置
Ling et al. Research on gesture recognition based on YOLOv5
CN113065379A (zh) 融合图像质量的图像检测方法、装置、电子设备
CN117237547B (zh) 图像重建方法、重建模型的处理方法和装置
CN112329830B (zh) 一种基于卷积神经网络和迁移学习的无源定位轨迹数据识别方法及系统
CN112766381A (zh) 有限样本下属性引导的sar图像生成方法
CN114663980B (zh) 行为识别方法、深度学习模型的训练方法及装置
Devyatkin et al. Neural network traffic signs detection system development

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant