CN113673271B - 一种基于宠物检测的双层标注计算二级损失的方法 - Google Patents

一种基于宠物检测的双层标注计算二级损失的方法 Download PDF

Info

Publication number
CN113673271B
CN113673271B CN202010400197.3A CN202010400197A CN113673271B CN 113673271 B CN113673271 B CN 113673271B CN 202010400197 A CN202010400197 A CN 202010400197A CN 113673271 B CN113673271 B CN 113673271B
Authority
CN
China
Prior art keywords
loss
calculating
value
loss value
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010400197.3A
Other languages
English (en)
Other versions
CN113673271A (zh
Inventor
田凤彬
于晓静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ingenic Semiconductor Co Ltd
Original Assignee
Beijing Ingenic Semiconductor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ingenic Semiconductor Co Ltd filed Critical Beijing Ingenic Semiconductor Co Ltd
Priority to CN202010400197.3A priority Critical patent/CN113673271B/zh
Publication of CN113673271A publication Critical patent/CN113673271A/zh
Application granted granted Critical
Publication of CN113673271B publication Critical patent/CN113673271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于宠物检测的双层标注计算二级损失的方法,包括:S1设计网络结构,采用二级级联检测方法:S1.1第一级网络;S1.2第二级网络;S2基于网络结构计算二级损失:S2.1在第一级网络用交叉熵计算第一级、第二级损失分类损失值;用2‑范数计算坐标微调损失值;总损失值为loss1:loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;S2.2在第二级网络用交叉熵计算第一级、第二级损失分类损失值;用2‑范数计算坐标微调损失值;总损失值为loss2:loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;权重系数是经验值。

Description

一种基于宠物检测的双层标注计算二级损失的方法
技术领域
本发明涉及神经网络领域,特别涉及一种基于宠物检测的双层标注计算二级损失的方法。
背景技术
当今社会,人工智能领域中神经网络技术发展迅猛。其中MTCNN技术也是近年来较为流行的技术之一。MTCNN,Multi-task convolutional neural network(多任务卷积神经网络),将人脸区域检测与人脸关键点检测放在了一起,总体可分为P-Net、R-Net、和O-Net三层网络结构。用于人脸检测任务的多任务神经网络模型,该模型主要采用了三个级联的网络,采用候选框加分类器的思想,进行快速高效的人脸检测。这三个级联的网络分别是快速生成候选窗口的P-Net、进行高精度候选窗口过滤选择的R-Net和生成最终边界框与人脸关键点的O-Net。
但是,MTCNN级联检测存在以下缺陷:
现有对于其他物体检测训练中,使用的损失函数计算是计算类别和box,只有一个标注。只有一个类别的标注,对于宠物的标注,由于宠物的多样性,在计算整个网络回归时,受到背景影响比较大,导致训练难度增大,不容易收敛,训练的模型也很差,正确率和召回率很低。
此外,现有技术中还包括以下常用的技术术语:
1、网络结构级联:是指几个检测器通过串联的方式进行检测的方式称为级联。
2、卷积核:卷积核是用来做图像处理时的矩阵,与原图像做运算的参数。卷积核通常是一个列矩阵数组成(例如3*3的矩阵),该区域上每个方格都有一个权重值。矩阵形状一般是1×1,3×3,5×5,7×7,1×3,3×1,2×2,1×5,5×1,……
3、卷积:将卷积核的中心放置在要计算的像素上,一次计算核中每个元素和其覆盖的图像像素值的乘积并求和,得到的结构就是该位置的新像素值,这个过程称为卷积。
4、激励函数:一种对卷积后结果进行处理的一种函数。
5、特征图:输入数据通过卷积计算后得到的结果称之为特征图,数据通过全连接后生成的结果也称为特征图。特征图大小一般表示为长×宽×深度,或1×深度
6、步长:卷积核中心位置再坐标上移动的长度。
7、两端非对齐处理:图像或数据通过卷积核大小为3×3处理时,如果不够一个卷积核处理,会导致两侧数据不够,此时采用丢弃两侧或一侧数据,这种现象叫做两端非对其处理。
8、损失计算级联:是指在网络结构某个节点进行计算损失值,并将该损失值加权计算到整体损失中,这种计算损失值的方法叫做损失计算级联。
9、损失函数(loss function)也叫代价函数(cost function)。是神经网络优化的目标函数,神经网络训练或者优化的过程就是最小化损失函数的过程(损失函数值小了,对应预测的结果和真实结果的值就越接近。
10、范数(norm),是具有“长度”概念的函数。
发明内容
为了解决上述现有技术存在的问题,本发明的目的在于:对宠物类别的标注使用两个标注信息,计算损失值也是两个标注的损失值。这样会消除宠物多样性对目标的影响,提高正确率和召回率。
具体地,本发明提供一种基于宠物检测的双层标注计算二级损失的方法,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;
S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
所述步骤S1.1,特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值;特征图(6)1×1×4是用于坐标微调损失计算的预测值。
所述步骤S1.2,特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值;特征图(7)1×1×4是用于坐标微调损失计算的预测值。
所述步骤S2.1,使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1;使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。
所述步骤S2.2,使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1;使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。
所述的交叉熵计算是通过交叉熵代价函数
Figure BDA0002489096580000061
获得,其中n是训练数据的个数,这个加和覆盖了所有的训练输入x,y是期望输出。
所述的2-范数计算即向量元素绝对值的平方和再开方:
Figure BDA0002489096580000062
由此,本申请的优势在于:本发明方法简单,通过对宠物类别的标注使用两个标注信息,计算损失值也是两个标注的损失值,消除宠物多样性对目标的影响。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。
图1是本发明方法的流程图。
图2是本发明方法中第一级网络结构的示意图。
图3是本发明方法中第二级网络结构的示意图。
具体实施方式
为了能够更清楚地理解本发明的技术内容及优点,现结合附图对本发明进行进一步的详细说明。
如图1所示,本发明涉及一种基于宠物检测的双层标注计算二级损失的方法,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;
S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
具体地,可以表述如下:
1、网络结构。网络采用二级级联检测方法。
1)第一级网络
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16。第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16。第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16。第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16。第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1。第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4。第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,输出深度是1,两端非对齐处理,输出结果是特征图(7)1×1×1。网络结构流程图如图2所示。
特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值。特征图(6)1×1×4是用于坐标微调损失计算的预测值。
2)第二级网络
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16。第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32。第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64。第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64。第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80。第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1。第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4。第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1。网络结构流程图如图3所示。
特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值。特征图(7)1×1×4是用于坐标微调损失计算的预测值。
2、损失的计算。
第一级网络
使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1。使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2。使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。分类损失值权重为0.6,坐标微调损失值权重0.4。第一级分类损失值权重是0.6,第二级分类损失值权重是0.4。权重系数是经验值。设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss
第二级网络
使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1。使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2。使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。分类损失值权重为0.6,坐标微调损失值权重0.4。第一级分类损失值权重是0.4,第二级分类损失值权重是0.6。权重系数是经验值。设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
所述的交叉熵计算是通过交叉熵代价函数
Figure BDA0002489096580000111
获得,其中n是训练数据的个数,这个加和覆盖了所有的训练输入x,y是期望输出。
所述的2-范数计算即向量元素绝对值的平方和再开方:
Figure BDA0002489096580000112
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
2.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S1.1,特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值;特征图(6)1×1×4是用于坐标微调损失计算的预测值。
3.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S1.2,特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值;特征图(7)1×1×4是用于坐标微调损失计算的预测值。
4.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S2.1,使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。
5.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S2.2,使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。
6.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述的交叉熵计算是通过交叉熵代价函数
Figure FDA0004130179530000051
获得,其中n是训练数据的个数,这个加和覆盖了所有的训练输入x,y是期望输出。
CN202010400197.3A 2020-05-13 2020-05-13 一种基于宠物检测的双层标注计算二级损失的方法 Active CN113673271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010400197.3A CN113673271B (zh) 2020-05-13 2020-05-13 一种基于宠物检测的双层标注计算二级损失的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010400197.3A CN113673271B (zh) 2020-05-13 2020-05-13 一种基于宠物检测的双层标注计算二级损失的方法

Publications (2)

Publication Number Publication Date
CN113673271A CN113673271A (zh) 2021-11-19
CN113673271B true CN113673271B (zh) 2023-04-28

Family

ID=78536805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400197.3A Active CN113673271B (zh) 2020-05-13 2020-05-13 一种基于宠物检测的双层标注计算二级损失的方法

Country Status (1)

Country Link
CN (1) CN113673271B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673668A (zh) * 2020-05-13 2021-11-19 北京君正集成电路股份有限公司 一种车辆检测训练中二级损失函数的计算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
CN108345911A (zh) * 2018-04-16 2018-07-31 东北大学 基于卷积神经网络多级特征的钢板表面缺陷检测方法
CN109190442A (zh) * 2018-06-26 2019-01-11 杭州雄迈集成电路技术有限公司 一种基于深度级联卷积神经网络的快速人脸检测方法
CN110322418A (zh) * 2019-07-11 2019-10-11 北京航空航天大学 一种超分辨率图像生成对抗网络的训练方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10032067B2 (en) * 2016-05-28 2018-07-24 Samsung Electronics Co., Ltd. System and method for a unified architecture multi-task deep learning machine for object recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
CN108345911A (zh) * 2018-04-16 2018-07-31 东北大学 基于卷积神经网络多级特征的钢板表面缺陷检测方法
CN109190442A (zh) * 2018-06-26 2019-01-11 杭州雄迈集成电路技术有限公司 一种基于深度级联卷积神经网络的快速人脸检测方法
CN110322418A (zh) * 2019-07-11 2019-10-11 北京航空航天大学 一种超分辨率图像生成对抗网络的训练方法及装置

Also Published As

Publication number Publication date
CN113673271A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
CN111462126B (zh) 一种基于边缘增强的语义图像分割方法及系统
CN109753903B (zh) 一种基于深度学习的无人机检测方法
Feng et al. Infrared image segmentation with 2-D maximum entropy method based on particle swarm optimization (PSO)
CN112329658A (zh) 一种对于yolov3网络的检测算法改进方法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN111695469A (zh) 轻量化深度可分离卷积特征融合网的高光谱图像分类方法
US20170316311A1 (en) Sparse inference modules for deep learning
CN111583263A (zh) 一种基于联合动态图卷积的点云分割方法
CN113628249B (zh) 基于跨模态注意力机制与孪生结构的rgbt目标跟踪方法
CN109886121A (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN110322445B (zh) 基于最大化预测和标签间相关性损失函数的语义分割方法
CN111814889A (zh) 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN112364931A (zh) 基于元特征和权重调整的少样本目标检测方法及网络模型
CN110929665A (zh) 一种自然场景曲线文本检测方法
Mahaur et al. An improved lightweight small object detection framework applied to real-time autonomous driving
CN111597943B (zh) 一种基于图神经网络的表格结构识别方法
CN113673271B (zh) 一种基于宠物检测的双层标注计算二级损失的方法
CN115546500A (zh) 一种红外图像小目标检测方法
CN116563410A (zh) 基于两级生成对抗网络的电气设备电火花图像生成方法
CN115984223A (zh) 基于PCANet及多分类器融合的图像溢油检测方法
CN114220019A (zh) 一种轻量级沙漏式遥感图像目标检测方法及系统
CN116704196B (zh) 一种训练图像语义分割模型的方法
CN118247645A (zh) 一种新型DDCE-YOLOv8s模型的水下图像目标检测方法
CN109583584B (zh) 可使具有全连接层的cnn接受不定形状输入的方法及系统
CN113673272B (zh) 一种基于宠物检测的双层标注二级级联计算损失值的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant