CN113673271B - 一种基于宠物检测的双层标注计算二级损失的方法 - Google Patents
一种基于宠物检测的双层标注计算二级损失的方法 Download PDFInfo
- Publication number
- CN113673271B CN113673271B CN202010400197.3A CN202010400197A CN113673271B CN 113673271 B CN113673271 B CN 113673271B CN 202010400197 A CN202010400197 A CN 202010400197A CN 113673271 B CN113673271 B CN 113673271B
- Authority
- CN
- China
- Prior art keywords
- loss
- calculating
- value
- loss value
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 238000004364 calculation method Methods 0.000 title claims description 37
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000010586 diagram Methods 0.000 claims description 49
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于宠物检测的双层标注计算二级损失的方法,包括:S1设计网络结构,采用二级级联检测方法:S1.1第一级网络;S1.2第二级网络;S2基于网络结构计算二级损失:S2.1在第一级网络用交叉熵计算第一级、第二级损失分类损失值;用2‑范数计算坐标微调损失值;总损失值为loss1:loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;S2.2在第二级网络用交叉熵计算第一级、第二级损失分类损失值;用2‑范数计算坐标微调损失值;总损失值为loss2:loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;权重系数是经验值。
Description
技术领域
本发明涉及神经网络领域,特别涉及一种基于宠物检测的双层标注计算二级损失的方法。
背景技术
当今社会,人工智能领域中神经网络技术发展迅猛。其中MTCNN技术也是近年来较为流行的技术之一。MTCNN,Multi-task convolutional neural network(多任务卷积神经网络),将人脸区域检测与人脸关键点检测放在了一起,总体可分为P-Net、R-Net、和O-Net三层网络结构。用于人脸检测任务的多任务神经网络模型,该模型主要采用了三个级联的网络,采用候选框加分类器的思想,进行快速高效的人脸检测。这三个级联的网络分别是快速生成候选窗口的P-Net、进行高精度候选窗口过滤选择的R-Net和生成最终边界框与人脸关键点的O-Net。
但是,MTCNN级联检测存在以下缺陷:
现有对于其他物体检测训练中,使用的损失函数计算是计算类别和box,只有一个标注。只有一个类别的标注,对于宠物的标注,由于宠物的多样性,在计算整个网络回归时,受到背景影响比较大,导致训练难度增大,不容易收敛,训练的模型也很差,正确率和召回率很低。
此外,现有技术中还包括以下常用的技术术语:
1、网络结构级联:是指几个检测器通过串联的方式进行检测的方式称为级联。
2、卷积核:卷积核是用来做图像处理时的矩阵,与原图像做运算的参数。卷积核通常是一个列矩阵数组成(例如3*3的矩阵),该区域上每个方格都有一个权重值。矩阵形状一般是1×1,3×3,5×5,7×7,1×3,3×1,2×2,1×5,5×1,……
3、卷积:将卷积核的中心放置在要计算的像素上,一次计算核中每个元素和其覆盖的图像像素值的乘积并求和,得到的结构就是该位置的新像素值,这个过程称为卷积。
4、激励函数:一种对卷积后结果进行处理的一种函数。
5、特征图:输入数据通过卷积计算后得到的结果称之为特征图,数据通过全连接后生成的结果也称为特征图。特征图大小一般表示为长×宽×深度,或1×深度
6、步长:卷积核中心位置再坐标上移动的长度。
7、两端非对齐处理:图像或数据通过卷积核大小为3×3处理时,如果不够一个卷积核处理,会导致两侧数据不够,此时采用丢弃两侧或一侧数据,这种现象叫做两端非对其处理。
8、损失计算级联:是指在网络结构某个节点进行计算损失值,并将该损失值加权计算到整体损失中,这种计算损失值的方法叫做损失计算级联。
9、损失函数(loss function)也叫代价函数(cost function)。是神经网络优化的目标函数,神经网络训练或者优化的过程就是最小化损失函数的过程(损失函数值小了,对应预测的结果和真实结果的值就越接近。
10、范数(norm),是具有“长度”概念的函数。
发明内容
为了解决上述现有技术存在的问题,本发明的目的在于:对宠物类别的标注使用两个标注信息,计算损失值也是两个标注的损失值。这样会消除宠物多样性对目标的影响,提高正确率和召回率。
具体地,本发明提供一种基于宠物检测的双层标注计算二级损失的方法,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;
S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
所述步骤S1.1,特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值;特征图(6)1×1×4是用于坐标微调损失计算的预测值。
所述步骤S1.2,特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值;特征图(7)1×1×4是用于坐标微调损失计算的预测值。
所述步骤S2.1,使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1;使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。
所述步骤S2.2,使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1;使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。
由此,本申请的优势在于:本发明方法简单,通过对宠物类别的标注使用两个标注信息,计算损失值也是两个标注的损失值,消除宠物多样性对目标的影响。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。
图1是本发明方法的流程图。
图2是本发明方法中第一级网络结构的示意图。
图3是本发明方法中第二级网络结构的示意图。
具体实施方式
为了能够更清楚地理解本发明的技术内容及优点,现结合附图对本发明进行进一步的详细说明。
如图1所示,本发明涉及一种基于宠物检测的双层标注计算二级损失的方法,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;
S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;
使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;
分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
具体地,可以表述如下:
1、网络结构。网络采用二级级联检测方法。
1)第一级网络
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16。第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16。第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16。第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16。第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1。第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4。第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,输出深度是1,两端非对齐处理,输出结果是特征图(7)1×1×1。网络结构流程图如图2所示。
特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值。特征图(6)1×1×4是用于坐标微调损失计算的预测值。
2)第二级网络
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16。第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32。第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64。第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64。第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80。第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1。第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4。第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1。网络结构流程图如图3所示。
特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值。特征图(7)1×1×4是用于坐标微调损失计算的预测值。
2、损失的计算。
第一级网络
使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1。使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2。使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。分类损失值权重为0.6,坐标微调损失值权重0.4。第一级分类损失值权重是0.6,第二级分类损失值权重是0.4。权重系数是经验值。设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss
第二级网络
使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1。使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2。使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。分类损失值权重为0.6,坐标微调损失值权重0.4。第一级分类损失值权重是0.4,第二级分类损失值权重是0.6。权重系数是经验值。设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
所述的2-范数计算即向量元素绝对值的平方和再开方:
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述方法包括以下步骤:
S1,设计网络结构,所述网络采用二级级联检测方法:
S1.1,第一级网络:
第一层输入灰度图33×33×1,卷积核是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果特征图(1)31×31×16;
第二层输入特征图(1)31×31×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(2)15×15×16;
第三层输入数据特征图(2)15×15×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(3)7×7×16;
第四层输入数据特征图(3)7×7×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是16,输出结果是特征图(4)3×3×16;
第五层输入数据特征图(4)3×3×16,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(5)3×3×1;
第六层输入数据特征图(4)3×3×16,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(6)1×1×4;
第七层输入数据特征图(5)3×3×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是1,输出结果是特征图(7)1×1×1;S1.2,第二级网络:
第一层输入灰度图49×49×1,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是16,输出结果是特征图(1)47×47×16;
第二层输入特征图(1)47×47×16,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是32,输出结果是特征图(2)23×23×32;
第三层输入特征图(2)23×23×32,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(3)11×11×64;
第四层输入特征图(3)11×11×64,卷积核大小是3×3,步长是2,两端非对齐处理,输出深度是64,输出结果是特征图(4)5×5×64;
第五层输入特征图(4)5×5×64,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是80,输出结果是特征图(5)3×3×80;
第六层输入特征图(5)3×3×80,卷积核大小是1×1,步长是1,输出深度是1,输出结果是特征图(6)3×3×1;
第七层输入特征图(5)3×3×80,卷积核大小是3×3,步长是1,两端非对齐处理,输出深度是4,输出结果是特征图(7)1×1×4;
第八层输入特征图(6)3×3×1,卷积核大小3×3,步长是1,两端非对齐处理,输出深度是1,输出结果特征图(8)1×1×1;
S2,基于网络结构计算二级损失:
S2.1,在第一级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls1_loss_1;使用交叉熵计算第二级损失分类的损失值,计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,计算坐标微调损失值land1_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.6,第二级分类损失值权重是0.4;
权重系数是经验值;设总的损失值为loss1,有如下计算公式:
loss1=0.6×(0.6×cls1_loss_1+0.4×cls1_loss_2)+0.4×land1_loss;
S2.2,在第二级网络中,
使用交叉熵计算第一级损失分类的损失值,计算损失值cls2_loss_1;使用交叉熵计算第二级损失分类的损失值,计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,计算坐标微调损失值land2_loss;分类损失值权重为0.6,坐标微调损失值权重0.4;
第一级分类损失值权重是0.4,第二级分类损失值权重是0.6;
权重系数是经验值,设总的损失值为loss2,有如下计算公式:
loss2=0.6×(0.4×cls2_loss_1+0.6×cls2_loss_2)+0.4×land2_loss。
2.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S1.1,特征图(5)3×3×1是用于第一级分类损失值计算的预测值,特征图(7)1×1×1用于第二级分类损失值计算的预测值;特征图(6)1×1×4是用于坐标微调损失计算的预测值。
3.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S1.2,特征图(6)3×3×1是用于第一级分类损失值计算的预测值,特征图(8)1×1×1用于第二级分类损失值计算的预测值;特征图(7)1×1×4是用于坐标微调损失计算的预测值。
4.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S2.1,使用交叉熵计算第一级损失分类的损失值,将第一级网络的特征图(5)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_1;
使用交叉熵计算第二级损失分类的损失值,将第一级网络的特征图(7)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls1_loss_2;使用2-范数计算坐标微调的损失值,将第一级网络的特征图(6)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land1_loss。
5.根据权利要求1所述的一种基于宠物检测的双层标注计算二级损失的方法,其特征在于,所述步骤
S2.2,使用交叉熵计算第一级损失分类的损失值,将第二级网络的特征图(6)3×3×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_1;
使用交叉熵计算第二级损失分类的损失值,将第二级网络的特征图(8)1×1×1转化为向量,与类别标注值做交叉熵计算损失值cls2_loss_2;使用2-范数计算坐标微调的损失值,将第二级网络的特征图(7)1×1×4转为向量,与坐标微调标注值做2-范数计算坐标微调损失值land2_loss。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010400197.3A CN113673271B (zh) | 2020-05-13 | 2020-05-13 | 一种基于宠物检测的双层标注计算二级损失的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010400197.3A CN113673271B (zh) | 2020-05-13 | 2020-05-13 | 一种基于宠物检测的双层标注计算二级损失的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113673271A CN113673271A (zh) | 2021-11-19 |
CN113673271B true CN113673271B (zh) | 2023-04-28 |
Family
ID=78536805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010400197.3A Active CN113673271B (zh) | 2020-05-13 | 2020-05-13 | 一种基于宠物检测的双层标注计算二级损失的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113673271B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673668A (zh) * | 2020-05-13 | 2021-11-19 | 北京君正集成电路股份有限公司 | 一种车辆检测训练中二级损失函数的计算方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN108345911A (zh) * | 2018-04-16 | 2018-07-31 | 东北大学 | 基于卷积神经网络多级特征的钢板表面缺陷检测方法 |
CN109190442A (zh) * | 2018-06-26 | 2019-01-11 | 杭州雄迈集成电路技术有限公司 | 一种基于深度级联卷积神经网络的快速人脸检测方法 |
CN110322418A (zh) * | 2019-07-11 | 2019-10-11 | 北京航空航天大学 | 一种超分辨率图像生成对抗网络的训练方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10032067B2 (en) * | 2016-05-28 | 2018-07-24 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
-
2020
- 2020-05-13 CN CN202010400197.3A patent/CN113673271B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN108345911A (zh) * | 2018-04-16 | 2018-07-31 | 东北大学 | 基于卷积神经网络多级特征的钢板表面缺陷检测方法 |
CN109190442A (zh) * | 2018-06-26 | 2019-01-11 | 杭州雄迈集成电路技术有限公司 | 一种基于深度级联卷积神经网络的快速人脸检测方法 |
CN110322418A (zh) * | 2019-07-11 | 2019-10-11 | 北京航空航天大学 | 一种超分辨率图像生成对抗网络的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113673271A (zh) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462126B (zh) | 一种基于边缘增强的语义图像分割方法及系统 | |
CN109753903B (zh) | 一种基于深度学习的无人机检测方法 | |
Feng et al. | Infrared image segmentation with 2-D maximum entropy method based on particle swarm optimization (PSO) | |
CN112329658A (zh) | 一种对于yolov3网络的检测算法改进方法 | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN111695469A (zh) | 轻量化深度可分离卷积特征融合网的高光谱图像分类方法 | |
US20170316311A1 (en) | Sparse inference modules for deep learning | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN113628249B (zh) | 基于跨模态注意力机制与孪生结构的rgbt目标跟踪方法 | |
CN109886121A (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
CN110322445B (zh) | 基于最大化预测和标签间相关性损失函数的语义分割方法 | |
CN111814889A (zh) | 一种使用无锚框模块和增强分类器的单阶段目标检测方法 | |
CN112364931A (zh) | 基于元特征和权重调整的少样本目标检测方法及网络模型 | |
CN110929665A (zh) | 一种自然场景曲线文本检测方法 | |
Mahaur et al. | An improved lightweight small object detection framework applied to real-time autonomous driving | |
CN111597943B (zh) | 一种基于图神经网络的表格结构识别方法 | |
CN113673271B (zh) | 一种基于宠物检测的双层标注计算二级损失的方法 | |
CN115546500A (zh) | 一种红外图像小目标检测方法 | |
CN116563410A (zh) | 基于两级生成对抗网络的电气设备电火花图像生成方法 | |
CN115984223A (zh) | 基于PCANet及多分类器融合的图像溢油检测方法 | |
CN114220019A (zh) | 一种轻量级沙漏式遥感图像目标检测方法及系统 | |
CN116704196B (zh) | 一种训练图像语义分割模型的方法 | |
CN118247645A (zh) | 一种新型DDCE-YOLOv8s模型的水下图像目标检测方法 | |
CN109583584B (zh) | 可使具有全连接层的cnn接受不定形状输入的方法及系统 | |
CN113673272B (zh) | 一种基于宠物检测的双层标注二级级联计算损失值的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |