CN110751195B - 一种基于改进YOLOv3的细粒度图像分类方法 - Google Patents

一种基于改进YOLOv3的细粒度图像分类方法 Download PDF

Info

Publication number
CN110751195B
CN110751195B CN201910965021.XA CN201910965021A CN110751195B CN 110751195 B CN110751195 B CN 110751195B CN 201910965021 A CN201910965021 A CN 201910965021A CN 110751195 B CN110751195 B CN 110751195B
Authority
CN
China
Prior art keywords
fine
grained
classification
category
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910965021.XA
Other languages
English (en)
Other versions
CN110751195A (zh
Inventor
黄进
李啸天
李剑波
朱明仓
李继秀
杨旭
付国栋
秦泽宇
郑思宇
王敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201910965021.XA priority Critical patent/CN110751195B/zh
Publication of CN110751195A publication Critical patent/CN110751195A/zh
Application granted granted Critical
Publication of CN110751195B publication Critical patent/CN110751195B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于改进YOLOv3的细粒度图像分类方法,该方法包括下述步骤:一、对细粒度图像进行预处理;二、通过Darknet‑53特征提取网络对输入图像提取特征;三、多层卷积网络得到三种大小的分类特征图,分别为13×13,26×26,52×52;四、提取细粒度特征图。五、将原分类特征图与细粒度特征图融合,改进损失函数,训练网络直到达到预先设定的迭代次数或准确率不再提升;六、细粒度图像类别识别。本发明在不增加图像检测时间的前提下,通过加入细粒度分类层,提高YOLOv3原网络对细粒度图像分类的准确度。

Description

一种基于改进YOLOv3的细粒度图像分类方法
技术领域
本发明涉及目标检测领域,具体为一种基于改进YOLOv3的细粒度图像分类方法。
背景技术
目前基于深度学习的目标检测算法主要分为两类:非端到端检测和端到端检测。非端到端检测算法检测效果好,但是耗时高,一般不能实时检测,典型的网络模型有RCNN、faster-RCNN、mask-RCNN。这类算法先在图像中提取可能含有目标的候选框(regionproposal),然后将候选框输入到CNN模型,让CNN判断候选框中是否真的有目标,以及目标的类别是什么。端到端检测算法可以实时检测,精度没有非端到端检测算法高,典型网络模型如yolo。这两种检测算法在通用图像(General/Generic Images)分类任务中都有很好的表现。
细粒度图像分类问题是对大类下的子类进行识别。细粒度图像分类任务相对通用图像(General/Generic Images)任务的区别和难点在于其图像所属类别的粒度更为精细。常用的方法有基于定位-分类的方法、基于网络集成的方法、卷积特征的高阶编码方法等。基于定位-分类的方法采用强监督学习,则需要大量的人工来标注图像的关键区域,采用弱监督学习则准确率有待提高;基于网络集成的方法干预的因素较多,不能采用端到端的学习方式;卷积特征的高阶编码方法取得了和使用部位(parts)信息相当或甚至更高的性能,其缺点在于外积导致特征的维度增大为原来的平方。
YOLOv3是一种端到端的可实时目标检测网络,在Titan X GPU上,它以30FPS的速度处理图像,在COCO test-dev上不同种类的mAP为57.9%。经在TeslaK80 GPU上测试YOLOv3在CUB200-2011数据集上平均识别精度只有84.20%。
发明内容
针对现有技术中存在的难题,本发明的目的是提供一种基于改进YOLOv3的细粒度图像分类方法,在YOLOv3原网络基础上,采用卷积特征的高阶编码方法,对原网络中的一些特定层通过外积捕获了特征通道之间成对的相关关系,提取检测目标的局部特征。把细粒度特征分类结果与原网络分类结果融合,修改原网络损失计算公式,在保证检测速度的同时提高识别精度。
为达到上述目的,本发明的技术方案为:
一种基于改进YOLOv3的细粒度图像分类方法,包括如下步骤:
步骤1:把细粒度图像数据集随机分为训练集、验证集、测试集,通过图像预处理将图像缩放至416×416,采用数据增强方法扩充数据集;
步骤2:通过Darknet-53网络提取输入图像特征;
步骤3:经过三个(1×1卷积+BatchNormalization+LeakyRelu+3×3卷积+BatchNormalization+LeakyRelu)层后进入1×1分类卷积层得到尺寸为13×13×(4+1+类别)×3的输出特征图;通过上采样,重复上述操作得到尺寸为26×26×(4+1+类别)×3的输出特征图。再次上采样,重复上述操作得到尺寸为52×52×(4+1+类别)×3的输出特征图;
步骤4:在输出特征图尺寸为13×13×(4+1+类别)×3的网络中抽取第76、78、80层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为13×13×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为26×26×(4+1+类别)×3的网络中抽取第80、82、84层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为26×26×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为56×56×(4+1+类别)×3的网络中抽取第84、86、88层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换,拼接后进行1×1分类卷积得到尺寸为56×56×(4+1+类别)×3细粒度分类特征图;
步骤5:将原YOLOv3网络得到的三个分类特征图和三个细粒度分类特征图拼接得到13×13×(4+1+类别)×3×2,26×26×(4+1+类别)×3×2,56×56×(4+1+类别)×3×2三个尺寸的分类特征图,修改损失函数,将原特征图和细粒度特征图乘以不同的权重系数。
步骤6:训练网络得到权重参数,对细粒度图像分类。
优选的,步骤2中Darknet-53特征提取网络,网络共75层,其框架由Convolutional层和Residual残差连接层组成;每个Convolutional层包含卷积、归一化、LeakyReLU三个操作;Residual残差连接层结构中令输入特征向量为X,经过两层Convolutional操作后的输出向量为X′,再将输入特征向量矩阵与输出特征向量矩阵逐元素相加得到输出。
优选的,在每个尺度的YOLOv3原网络金字塔卷积分类层中抽取3个1×1Convolutional层的输出作为细粒度特征图。在每个尺度上将得到的三个细粒度特征图相互作外积(matrix outerproduct),经过
Figure BDA0002230192580000041
函数非线性激活,得到三个大小与输入相同的细粒度特征图,最后将三个特征图拼接成一个特征图。最终得到三个不同尺度的细粒度特征图为13×13×(1024×3)、26×26×(512×3)、52×52×(256×3)。
优选的,步骤3原YOLOv3输出特征图进行1×1卷积分类得到三个尺度的输出,即13×13×(4+1+类别)×3,26×26×(4+1+类别)×3,52×52×(4+1+类别)×3;在每个尺度上预测3个不同大小的预测框,每种大小的预测框值包括4个边框预测值(x、y、w、h),(x,y)对应的是预测目标框的几何中心坐标,(w,h)对应的是预测目标框的宽度与高度;1为该像素点的目标置信度值以及预测的每个类别的得分值;步骤4将三个不同尺度的细粒度特征图进行1×1卷积分类得到13×13×(4+1+类别)×3,26×26×(4+1+类别)×3,52×52×(4+1+类别)×3三个输出,并与步骤3输出的结果图进行拼接得到13×13×(4+1+类别)×3×2,26×26×(4+1+类别)×3×2,52×52×(4+1+类别)×3×2三个输出。
优选的,边框预测公式为:
Figure BDA0002230192580000051
Figure BDA0002230192580000052
Figure BDA0002230192580000053
Figure BDA0002230192580000054
其中Cx,Cy是特征图中grid cell的左上角坐标,在yolov3中每个gridcell在featuremap中的宽和高均为1;tx1、ty1、th1、tw1分别是原分类网络预测的边框值,tx2、ty2、th2、tw2分别为细粒度分类预测边框值,α为调解权重的参数,这里取α=0.6。
优选的,置信度计算公式为:
Figure BDA0002230192580000055
其中d1、d2分别为原网络分类和细粒度分类置信度值,β为调解权重的参数,这里取β=0.5。
优选的,类别得分计算公式为:
Figure BDA0002230192580000056
其中p1、p2分别为原网络分类和细粒度分类预测每个类别的值,γ为调解权重的参数,这里取γ=0.6。
优选的,网络损失函数计算公式为:
Figure BDA0002230192580000061
其中λcoord、λnoobj、α、β为权重调节参数分别取值为0.5、0.5、0.6、0.5。
Figure BDA0002230192580000062
表示该cell中存在物体为1,否则为0。xtruth、ytruth、Ctruth、ptruth(c)为图像中框的真实值。x1i、y1i、C1i、p1i(c)为原网络预测框的值。x2i、y2i、C2i、p2i(c)为细粒度分类网络预测框的值。
相对于现有技术,本发明的有益效果为:
1、本发明所述的所述的一种基于改进YOLOv3的细粒度图像分类方法,在原网络模型基础上添加细粒度分类层。
2、本发明所述的一种基于改进YOLOv3的细粒度图像分类方法,在不增加检测时间的同时,CUB200-2011数据集上的测试结果显示该发明的mAP为95.25%,高于原网络识别精度。
附图说明
图1为本发明实例中所述算法的流程框图。
图2为YOLOv3原网络结构图。
图3为本发明结构图
具体实施方式
下面结合附图对本发明的实施方案进行详细阐述,以使本发明的优点和特征能易被本领域的技术人员理解,所述是对本发明的解释而不是限定。
本发明一种基于改进YOLOv3的细粒度图像分类方法,如图1所示,具体包括以下步骤:
步骤1:数据集选用CUB200-2011,随机选取其中的20个不同的鸟类,共1195张图片,其中训练集959张,验证集60张,测试集176张;
步骤2:通过Darknet-53网络提取输入图像特征。作为全卷积网络,darknet53主要由卷积层、BatchNormalization及跨层连接组成,激活函数采用LeakyRelu;
步骤3:经过三个(1×1卷积+BatchNormalization+LeakyRelu+3×3卷积+BatchNormalization+LeakyRelu)层后进入1×1分类卷积层得到尺寸为13×13×(4+1+类别)×3的输出特征图;通过上采样,重复上述操作得到尺寸为26×26×(4+1+类别)×3的输出特征图。再次上采样,重复上述操作得到尺寸为52×52×(4+1+类别)×3的输出特征图;
步骤4:在输出特征图尺寸为13×13×(4+1+类别)×3的网络中抽取第76、78、80层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为13×13×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为26×26×(4+1+类别)×3的网络中抽取第80、82、84层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为26×26×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为56×56×(4+1+类别)×3的网络中抽取第84、86、88层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换,拼接后进行1×1分类卷积得到尺寸为56×56×(4+1+类别)×3细粒度分类特征图;
步骤5:将得到的三个分类特征图和三个细粒度分类特征图拼接得到13×13×(4+1+类别)×3×2,26×26×(4+1+类别)×3×2,56×56×(4+1+类别)×3×2三个尺寸的分类特征图,修改损失函数,将原特征图和细粒度特征图乘以不同的权重系数。
5.1)改进边框预测公式、置信度公式、类别得分公式,如下:
Figure BDA0002230192580000081
Figure BDA0002230192580000082
Figure BDA0002230192580000083
Figure BDA0002230192580000084
Figure BDA0002230192580000085
Figure BDA0002230192580000086
其中Cx,Cy是特征图中grid cell的左上角坐标,在yolov3中每个grid cell在feature map中的宽和高均为1。tx1、ty1、th1、tw1分别是原分类网络预测的边框值,tx2、ty2、th2、tw2分别为细粒度分类预测边框值,α为调解权重的参数,这里取α=0.6。d1、d2分别为原网络分类和细粒度分类置信度值,β为调解权重的参数,这里取β=0.5。p1、p2分别为原网络分类和细粒度分类预测每个类别的值,γ为调解权重的参数,这里取γ=0.6。
5.2)修改损失函数,将原特征图和细粒度特征图乘以不同的权重系数,如下:
Figure BDA0002230192580000091
其中λcoord、λnoobj、α、β为权重调节参数分别取值为0.5、0.5、0.6、0.5。
Figure BDA0002230192580000092
表示该cell中存在物体为1,否则为0。xtruth、ytruth、Ctruth、ptruth(c)为图像中框的真实值。x1i、y1i、C1i、p1i(c)为原网络预测框的值。x2i、y2i、C2i、p2i(c)为细粒度分类网络预测框的值。
步骤6:训练网络得到权重参数,对细粒度图像分类,计算平均正确率mAP。对比结果如表1所示。
原网络与本发明在CUB200-2011数据集上检测时间和mAP结果对比
Figure BDA0002230192580000093
Figure BDA0002230192580000101
从上表可以看出,改进后的YOLOv3网络在不显著增加检测时间的同时提高了细粒度图像的检测精度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。

Claims (5)

1.一种基于改进YOLOv3的细粒度图像分类方法,其特征在于,包括如下步骤:
步骤1:把细粒度图像数据集随机分为训练集、验证集、测试集,通过图像预处理将图像缩放至416×416,采用数据增强方法扩充数据集;
步骤2:通过Darknet-53网络提取输入图像特征;
步骤3:经过三个(1×1卷积+Batch Normalization+LeakyRelu+3×3卷积+BatchNormalization+LeakyRelu)层后进入1×1分类卷积层得到尺寸为13×13×(4+1+类别)×3的输出特征图;通过上采样,重复上述操作得到尺寸为26×26×(4+1+类别)×3的输出特征图;再次上采样,重复上述操作得到尺寸为52×52×(4+1+类别)×3的输出特征图;
步骤4:在输出特征图尺寸为13×13×(4+1+类别)×3的网络中抽取第76、78、80层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为13×13×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为26×26×(4+1+类别)×3的网络中抽取第80、82、84层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换、拼接后进行1×1分类卷积得到尺寸为26×26×(4+1+类别)×3的细粒度分类特征图;在输出特征图尺寸为56×56×(4+1+类别)×3的网络中抽取第84、86、88层的输出作为细粒度特征图,然后将这三个细粒度特征图相互做外积,经过符号平方根变换,拼接后进行1×1分类卷积得到尺寸为56×56×(4+1+类别)×3细粒度分类特征图;
步骤5:将原YOLOv3网络得到的三个分类特征图和三个细粒度分类特征图拼接得到13×13×(4+1+类别)×3×2,26×26×(4+1+类别)×3×2,56×56×(4+1+类别)×3×2三个尺寸的分类特征图,修改损失函数,将原特征图和细粒度特征图乘以不同的权重系数;
步骤6:训练网络得到权重参数,对细粒度图像分类;
步骤2中Darknet-53特征提取网络,网络共75层,其框架由Convolutional层和Residual残差连接层组成;每个Convolutional层包含卷积、归一化、LeakyReLU三个操作;Residual残差连接层结构中令输入特征向量为X,经过两层Convolutional操作后的输出向量为X′,再将输入特征向量矩阵与输出特征向量矩阵逐元素相加得到输出;
在每个尺度的YOLOv3原网络金字塔卷积分类层中抽取3个1×1Convolutional层的输出作为细粒度特征图;在每个尺度上将得到的三个细粒度特征图相互作外积(matrixouter product),经过
Figure FDA0003875677440000021
函数非线性激活,得到三个大小与输入相同的细粒度特征图,最后将三个特征图拼接成一个特征图;最终得到三个不同尺度的细粒度特征图为13×13×(1024×3)、26×26×(512×3)、52×52×(256×3);
步骤5所述损失函数计算公式为:
Figure FDA0003875677440000031
其中λcoord、λnoobj、α、β为权重调节参数分别取值为0.5、0.5、0.6、0.5;
Figure FDA0003875677440000032
表示该cell中存在物体为1,否则为0;xtruth、ytruth、Ctruth、ptruth(c)为图像中框的真实值,x1i、y1i、C1i、p1i(c)为原网络预测框的值,x2i、y2i、C2i、p2i(c)为细粒度分类网络预测框的值。
2.根据权利要求1所述的基于改进YOLOv3的细粒度图像分类方法,其特征在于,步骤3原YOLOv3输出特征图进行1×1卷积分类得到三个尺度的输出,即13×13×(4+1+类别)×3,26×26×(4+1+类别)×3,52×52×(4+1+类别)×3;在每个尺度上预测3个不同大小的预测框,每种大小的预测框值包括4个边框预测值(x、y、w、h),(x,y)对应的是预测目标框的几何中心坐标,(w,h)对应的是预测目标框的宽度与高度;1为该像素点的目标置信度值以及预测的每个类别的得分值;步骤4将三个不同尺度的细粒度特征图进行1×1卷积分类得到13×13×(4+1+类别)×3,26×26×(4+1+类别)×3,52×52×(4+1+类别)×3三个输出,并与步骤3输出的结果图进行拼接得到13×13×(4+1+类别)×3×2,26×26×(4+1+类别)×3×2,52×52×(4+1+类别)×3×2三个输出。
3.根据权利要求2所述的基于改进YOLOv3的细粒度图像分类方法,其特征在于,所述边框预测公式为:
Figure FDA0003875677440000041
Figure FDA0003875677440000042
Figure FDA0003875677440000043
Figure FDA0003875677440000044
其中Cx,Cy是特征图中grid cell的左上角坐标,在yolov3中每个grid cell在featuremap中的宽和高均为1;tx1、ty1、th1、tw1分别是原分类网络预测的边框值,tx2、ty2、th2、tw2分别为细粒度分类预测边框值,α为调解权重的参数,这里取α=0.6。
4.根据权利要求2所述的基于改进YOLOv3的细粒度图像分类方法,其特征在于,所述置信度计算公式为:
Figure FDA0003875677440000045
其中d1、d2分别为原网络分类和细粒度分类置信度值,β为调解权重的参数,这里取β=0.5。
5.根据权利要求2所述的基于改进YOLOv3的细粒度图像分类方法,其特征在于,所述类别得分计算公式为:
Figure FDA0003875677440000046
其中p1、p2分别为原网络分类和细粒度分类预测每个类别的值,γ为调解权重的参数,这里取γ=0.6。
CN201910965021.XA 2019-10-12 2019-10-12 一种基于改进YOLOv3的细粒度图像分类方法 Active CN110751195B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910965021.XA CN110751195B (zh) 2019-10-12 2019-10-12 一种基于改进YOLOv3的细粒度图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910965021.XA CN110751195B (zh) 2019-10-12 2019-10-12 一种基于改进YOLOv3的细粒度图像分类方法

Publications (2)

Publication Number Publication Date
CN110751195A CN110751195A (zh) 2020-02-04
CN110751195B true CN110751195B (zh) 2023-02-07

Family

ID=69278070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910965021.XA Active CN110751195B (zh) 2019-10-12 2019-10-12 一种基于改进YOLOv3的细粒度图像分类方法

Country Status (1)

Country Link
CN (1) CN110751195B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN112446350B (zh) * 2020-12-09 2022-07-19 武汉工程大学 一种改进YOLOv3复杂棉田背景下棉花检测方法
CN113076902B (zh) * 2021-04-12 2023-07-18 华南理工大学 一种多任务融合的人物细粒度分割系统和方法
CN113378883B (zh) * 2021-05-12 2024-01-23 山东科技大学 一种基于通道分组注意力模型的细粒度车辆分类方法
CN115272763B (zh) * 2022-07-27 2023-04-07 四川大学 一种基于细粒度特征融合的鸟类识别方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN109583305A (zh) * 2018-10-30 2019-04-05 南昌大学 一种基于关键部件识别和细粒度分类的车辆重识别的先进方法
CN109685780A (zh) * 2018-12-17 2019-04-26 河海大学 一种基于卷积神经网络的零售商品识别方法
CN109685115A (zh) * 2018-11-30 2019-04-26 西北大学 一种双线性特征融合的细粒度概念模型及学习方法
CN109711437A (zh) * 2018-12-06 2019-05-03 武汉三江中电科技有限责任公司 一种基于yolo网络模型的变压器部件识别方法
CN110147807A (zh) * 2019-01-04 2019-08-20 上海海事大学 一种船舶智能识别跟踪方法
CN110222604A (zh) * 2019-05-23 2019-09-10 复钧智能科技(苏州)有限公司 基于共享卷积神经网络的目标识别方法和装置
CN110245577A (zh) * 2019-05-23 2019-09-17 复钧智能科技(苏州)有限公司 目标车辆识别方法、装置及车辆实时监控系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150104102A1 (en) * 2013-10-11 2015-04-16 Universidade De Coimbra Semantic segmentation method with second-order pooling

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN109583305A (zh) * 2018-10-30 2019-04-05 南昌大学 一种基于关键部件识别和细粒度分类的车辆重识别的先进方法
CN109685115A (zh) * 2018-11-30 2019-04-26 西北大学 一种双线性特征融合的细粒度概念模型及学习方法
CN109711437A (zh) * 2018-12-06 2019-05-03 武汉三江中电科技有限责任公司 一种基于yolo网络模型的变压器部件识别方法
CN109685780A (zh) * 2018-12-17 2019-04-26 河海大学 一种基于卷积神经网络的零售商品识别方法
CN110147807A (zh) * 2019-01-04 2019-08-20 上海海事大学 一种船舶智能识别跟踪方法
CN110222604A (zh) * 2019-05-23 2019-09-10 复钧智能科技(苏州)有限公司 基于共享卷积神经网络的目标识别方法和装置
CN110245577A (zh) * 2019-05-23 2019-09-17 复钧智能科技(苏州)有限公司 目标车辆识别方法、装置及车辆实时监控系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于稀疏化双线性卷积神经网络的细粒度图像分类;马力等;《模式识别与人工智能》;20190415(第04期);全文 *

Also Published As

Publication number Publication date
CN110751195A (zh) 2020-02-04

Similar Documents

Publication Publication Date Title
CN110751195B (zh) 一种基于改进YOLOv3的细粒度图像分类方法
CN105938559B (zh) 使用卷积神经网络的数字图像处理
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111860171B (zh) 一种大规模遥感图像中不规则形状目标的检测方法及系统
CN112967243A (zh) 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法
Esmaeili et al. Fast-at: Fast automatic thumbnail generation using deep neural networks
CN105574534A (zh) 基于稀疏子空间聚类和低秩表示的显著性目标检测方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
CN110991444B (zh) 面向复杂场景的车牌识别方法及装置
CN107784288A (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
CN108805151B (zh) 一种基于深度相似性网络的图像分类方法
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN111798447B (zh) 一种基于Faster RCNN的深度学习塑化材料缺陷检测方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN116152254B (zh) 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN111768415A (zh) 一种无量化池化的图像实例分割方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN112215079B (zh) 一种全局多阶段目标跟踪方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN112419202A (zh) 基于大数据及深度学习的野生动物图像自动识别系统
CN113449656B (zh) 一种基于改进的卷积神经网络的驾驶员状态识别方法
CN114241522A (zh) 现场作业安全穿戴识别方法、系统、设备及存储介质
CN109583584B (zh) 可使具有全连接层的cnn接受不定形状输入的方法及系统
CN107564013A (zh) 融合局部信息的场景分割修正方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant