CN114266846A - 一种用于目标检测模型的自学习填充方法 - Google Patents

一种用于目标检测模型的自学习填充方法 Download PDF

Info

Publication number
CN114266846A
CN114266846A CN202111604881.4A CN202111604881A CN114266846A CN 114266846 A CN114266846 A CN 114266846A CN 202111604881 A CN202111604881 A CN 202111604881A CN 114266846 A CN114266846 A CN 114266846A
Authority
CN
China
Prior art keywords
filling
detection model
image
self
target detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111604881.4A
Other languages
English (en)
Other versions
CN114266846B (zh
Inventor
柯逍
林心茹
蒋培龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202111604881.4A priority Critical patent/CN114266846B/zh
Publication of CN114266846A publication Critical patent/CN114266846A/zh
Application granted granted Critical
Publication of CN114266846B publication Critical patent/CN114266846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种用于目标检测模型的自学习填充方法,包括以下步骤:步骤S1:获取图像数据集,并进行数据增强扩充数据集;步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。本发明能够有效地减少边缘小目标的漏检。

Description

一种用于目标检测模型的自学习填充方法
技术领域
本发明涉及模式识别与计算机视觉领域,具体涉及一种用于目标检测模型的自学习填充方法。
背景技术
近些年来,目标检测算法在各个公开基准数据集上不断刷新纪录,并且许多落地产品被应用于各个领域。基于深度学习的通用目标检测方法已经取得了非常大的进步,但在真实环境中还面临着许多挑战,小目标检测一直是个困难问题。小目标检测的主要难点在于输入图像中小目标只占很少的像素点,因此在进行特征提取时很难获得小目标的信息。目前解决小目标问题的方法主要是通过改善输入特征质量来对小目标的检测结果,但是在进行多次特征提取的中间过程也存在信息的损失,零填充引入了和输入相关性弱的信息,导致了边缘信息弱化,对此可以通过减少损失保留更多的特征信息来提升对于小目标的检测精度。
发明内容
有鉴于此,本发明的目的在于提供一种用于目标检测模型的自学习填充方法,能够有效地减少边缘小目标的漏检。
为实现上述目的,本发明采用如下技术方案:
一种用于目标检测模型的自学习填充方法,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。
进一步的,所述步骤S1,具体为:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于预设像素的真实框图像构建粘贴库;
步骤S12:抽取训练集中预设比例的图像数据,使用抽取的这部分数据作为数据增强的扩展对象,制作扩展数据集;
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的数据组成新的训练集。
进一步的,所述制作扩展数据集,具体为:对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
进一步的,所述特征填充模块具体为:
特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p;
截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息,四个角点信息尺度为N×C×p×p;
特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8;卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对步骤S21中获得的八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P′i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度,按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同。
进一步的,所述边缘信息和角点信息,具体设置如下:以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W;左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p;左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8
进一步的,所述步骤S3具体为:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,使用步骤S2中特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层;
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型;替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
Figure BDA0003433779020000041
其中
Figure BDA0003433779020000051
是卷积核的范围,以3×3卷积为例
Figure BDA0003433779020000052
Figure BDA0003433779020000053
则g[y]为卷积核对应位置的权值,
Figure BDA0003433779020000054
是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值;
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。
进一步的,所述骨干网络中的下采样方法包括最大池化和跨步卷积,最大池化看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化;当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
进一步的,所述步骤S4,具体为:
步骤S41:训练基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数;
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P′i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P′i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
进一步的,所述步骤S5,具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值,并根据预测概率选出符合要求预测框。
本发明与现有技术相比具有以下有益效果:
1、本发明,能够基于图像的边缘信息自适应学习填充值,可以缓解边缘信息的弱化,保证了填充值和输入信息的相关性。对于目标检测任务,可以减少对落在物体边缘的小特征和关键特征的漏检,从而提高模型的准确性;
2、本发明使用复制-粘贴的数据增强方法提升模型对小目标的检测能力。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种用于目标检测模型的自学习填充方法,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。
在本实施例中,步骤S1具体包括以下步骤:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于32×32像素的真实框图像构建粘贴库。
步骤S12:抽取训练集中50%的图像数据,使用抽取的这部分数据作为数据增强的扩展对象。对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的50%数据组成新的训练集。
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p。截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息。以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W。左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p。左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8,四个角点信息尺度为N×C×p×p。
步骤S22:特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8。卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对步骤S21中获得的八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P′i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度(从左到右从零开始),按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同,例如Z1,Z2,Z3尺度为N×C×H×p、N×C×H×H与N×C×H×p,只有最后一维度大小不同,则dim=3,按照顺序Z1在左边Z2在中间Z3在右边,拼接后的尺度为N×C×H×(p+H+p),拼接后得到特征填充模块按照Z1Z2Z3对应顺序,则将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图f(in)进行拼接操作的输出值记为fin-Pad,具体计算公式如下:
fin-Pad
=CAT((CAT(P′5,P′1,P′6,3),CAT(P′3,f(in),P′4,3),CAT(P′7,P′2,P′8,3),2)
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,不使用传统的填充方法,使用步骤S2中设计的特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层。
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型。替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
Figure BDA0003433779020000101
其中
Figure BDA0003433779020000102
是卷积核的范围,以3×3卷积为例
Figure BDA0003433779020000103
Figure BDA0003433779020000104
则g[y]为卷积核对应位置的权值,
Figure BDA0003433779020000105
是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值。
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。骨干网络中的下采样方法包括最大池化和跨步卷积。最大池化可以看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化。当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
在本实施例中,步骤S4具体包括以下步骤:
步骤S41:训练S33构建的基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数。
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的需要自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P′i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P′i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
在本实施例中,步骤S5具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值为0.5到0.95,根据预测概率选出符合要求预测框。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (9)

1.一种用于目标检测模型的自学习填充方法,其特征在于,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。
2.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S1,具体为:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于预设像素的真实框图像构建粘贴库;
步骤S12:抽取训练集中预设比例的图像数据,使用抽取的这部分数据作为数据增强的扩展对象,制作扩展数据集;
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的数据组成新的训练集。
3.根据权利要求2所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述制作扩展数据集,具体为:对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
4.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述特征填充模块具体为:
特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p;
截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息,四个角点信息尺度为N×C×p×p;
特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8;卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对步骤S21中获得的八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P′i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度,按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同。
5.根据权利要求4所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述边缘信息和角点信息,具体设置如下:以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W;左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p;左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8
6.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S3具体为:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,使用步骤S2中特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层;
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型;替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
Figure FDA0003433779010000041
其中
Figure FDA0003433779010000042
是卷积核的范围,以3×3卷积为例
Figure FDA0003433779010000043
Figure FDA0003433779010000044
则g[y]为卷积核对应位置的权值,
Figure FDA0003433779010000045
是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值;
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。
7.根据权利要求6所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述骨干网络中的下采样方法包括最大池化和跨步卷积,最大池化看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化;当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
8.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S4,具体为:
步骤S41:训练基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数;
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P'i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P′i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
9.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S5,具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值,并根据预测概率选出符合要求预测框。
CN202111604881.4A 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法 Active CN114266846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111604881.4A CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111604881.4A CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Publications (2)

Publication Number Publication Date
CN114266846A true CN114266846A (zh) 2022-04-01
CN114266846B CN114266846B (zh) 2024-06-14

Family

ID=80830377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111604881.4A Active CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Country Status (1)

Country Link
CN (1) CN114266846B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115424129A (zh) * 2022-10-13 2022-12-02 哈尔滨市科佳通用机电股份有限公司 一种墙板破损的异常检测方法及检测系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596120A (zh) * 2018-04-28 2018-09-28 北京京东尚科信息技术有限公司 一种基于深度学习的目标检测方法和装置
CN109325947A (zh) * 2018-09-20 2019-02-12 北京航空航天大学 一种基于深度学习的sar图像铁塔目标检测方法
CN110060238A (zh) * 2019-04-01 2019-07-26 桂林电子科技大学 基于深度学习的pcb板标注印刷质量检测方法
CN110826566A (zh) * 2019-11-01 2020-02-21 北京环境特性研究所 一种基于深度学习的目标切片提取方法
WO2021035979A1 (zh) * 2019-08-23 2021-03-04 平安科技(深圳)有限公司 边缘学习的图像填充方法、装置、终端及可读存储介质
CN112862922A (zh) * 2021-01-27 2021-05-28 南昌大学 一种基于多特征生成网络先验信息引导的图像填充方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596120A (zh) * 2018-04-28 2018-09-28 北京京东尚科信息技术有限公司 一种基于深度学习的目标检测方法和装置
CN109325947A (zh) * 2018-09-20 2019-02-12 北京航空航天大学 一种基于深度学习的sar图像铁塔目标检测方法
CN110060238A (zh) * 2019-04-01 2019-07-26 桂林电子科技大学 基于深度学习的pcb板标注印刷质量检测方法
WO2021035979A1 (zh) * 2019-08-23 2021-03-04 平安科技(深圳)有限公司 边缘学习的图像填充方法、装置、终端及可读存储介质
CN110826566A (zh) * 2019-11-01 2020-02-21 北京环境特性研究所 一种基于深度学习的目标切片提取方法
CN112862922A (zh) * 2021-01-27 2021-05-28 南昌大学 一种基于多特征生成网络先验信息引导的图像填充方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王宝珠;楚玉梅;刘翠响;: "基于图像块填充的Vibe车辆检测算法", 科学技术与工程, no. 09, 28 March 2017 (2017-03-28), pages 244 - 249 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115424129A (zh) * 2022-10-13 2022-12-02 哈尔滨市科佳通用机电股份有限公司 一种墙板破损的异常检测方法及检测系统
CN115424129B (zh) * 2022-10-13 2023-08-11 哈尔滨市科佳通用机电股份有限公司 一种墙板破损的异常检测方法及检测系统

Also Published As

Publication number Publication date
CN114266846B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
US11595737B2 (en) Method for embedding advertisement in video and computer device
CN111461110B (zh) 一种基于多尺度图像和加权融合损失的小目标检测方法
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
US10970600B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN111445488B (zh) 一种弱监督学习自动识别和分割盐体的方法
KR102570562B1 (ko) 영상 처리 장치 및 그 동작방법
CN109583483A (zh) 一种基于卷积神经网络的目标检测方法和系统
CN105657402A (zh) 一种深度图恢复方法
JP2020507824A (ja) 電子装置及びその制御方法
CN111414931B (zh) 一种基于图像深度的多分支多尺度小目标检测方法
CN109961407B (zh) 基于人脸相似性的人脸图像修复方法
JP7054278B1 (ja) 深層学習に基づくエッジ識別方法
CN112906794A (zh) 一种目标检测方法、装置、存储介质及终端
CN111784624A (zh) 目标检测方法、装置、设备及计算机可读存储介质
CN113378812A (zh) 一种基于Mask R-CNN和CRNN的数字表盘识别方法
CN111626379B (zh) 肺炎x光图像检测方法
CN114266846A (zh) 一种用于目标检测模型的自学习填充方法
CN114494786A (zh) 一种基于多层协调卷积神经网络的细粒度图像分类方法
CN111881732B (zh) 一种基于svm的人脸质量评价方法
CN114219757B (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN111523533B (zh) 一种从图像中确定物体所在区域的方法及装置
CN111899284A (zh) 一种基于参数化esm网络的平面目标跟踪方法
CN117975176B (zh) 一种基于工业动态视觉自我提示的钢铁缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant