CN113159142B - 一种用于细粒度图像分类的损失函数可变超参数确定方法 - Google Patents

一种用于细粒度图像分类的损失函数可变超参数确定方法 Download PDF

Info

Publication number
CN113159142B
CN113159142B CN202110363331.1A CN202110363331A CN113159142B CN 113159142 B CN113159142 B CN 113159142B CN 202110363331 A CN202110363331 A CN 202110363331A CN 113159142 B CN113159142 B CN 113159142B
Authority
CN
China
Prior art keywords
loss function
representing
matrix
label
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110363331.1A
Other languages
English (en)
Other versions
CN113159142A (zh
Inventor
高发荣
骆行昇
杨张义
张启忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110363331.1A priority Critical patent/CN113159142B/zh
Publication of CN113159142A publication Critical patent/CN113159142A/zh
Application granted granted Critical
Publication of CN113159142B publication Critical patent/CN113159142B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于细粒度图像分类的损失函数可变超参数确定方法,首先将图像数据集的数据输入网络进行训练;其次,确定TriHard损失函数中的超参数数值,通过将样本间的距离矩阵与标签信息进行关联,然后根据标签的信息定量的得出标签对任务的影响程度,进而来确定超参数,本发明属于深度学习技术领域,具体是指一种用于细粒度图像分类的损失函数可变超参数确定方法。

Description

一种用于细粒度图像分类的损失函数可变超参数确定方法
技术领域
本发明属于深度学习技术领域,具体是指一种用于细粒度图像分类的损失函数可变超参数确定方法。
背景技术
深度学习中的损失函数是整个网络模型中十分重要的部分,其作用是衡量真实样本与预测样本之间的差异,通过对预测样本和真实样本标记产生的误差反向传播指导网络参数学习。损失函数在图像分类中主要为了刻画出图像的特征分布,它将一个高维的图像特征通过梯度下降法映射成另外一个低维的图像特征,将高维的输入转化为一个低维的实数,即损失值。而细粒度图像分类中的损失函数是需要寻找输入图像中最有区分性的区域,不断放大区分性区域层中的细节,加速网络对该区域特征的学习。常用的损失函数有:均方误差损失函数、交叉熵损失函数、相对熵损失函数和TriHard损失函数。
TriHard损失函数相比其他损失函数能够更好地用于细粒度图像分类,但是TriHard损失函数在解决细粒度图像分类问题时也有一些不足。由于细粒度图像的类别精度更加细致,类间差异更加细微,分类任务更加复杂,所以TriHard损失函数中采用固定超参数来解决复杂细粒度图像分类问题的能力并不出色。
发明内容
为了解决上述难题,本发明提供了一种用于细粒度图像分类的损失函数可变超参数确定方法。
为了实现上述功能,本发明采取的技术方案如下:一种用于细粒度图像分类的损失函数可变超参数确定方法,包括以下步骤:
1)输入图像数据集的数据,训练网络:首先将训练集中的样本图像随机划分到支持集S和它的标签,查询集Q和它的标签,然后将数据集和标签输入损失函数超参数确定模型进行训练,得到一个预测值。
2)利用TriHard损失函数,计算损失,TriHard损失函数计算公式如下:
其中,表示选取正样本对/>中距离最大,即相似度最小的样本,/>表示选取负样本对/>中距离最小,即相似度最大的样本,超参数m表示一个可变的边界值;
超参数m的计算公式如下:
式(2)中表示支持集中第i个嵌入空间的嵌入函数,S表示支持集,/>表示嵌入函数最后一维的长度;
式(3)将转变成形状为/>的矩阵,Nc表示类别总数,Ns表示支持集的类别数,然后对维度Ns进行求和得到/>
式(4)计算中各个特征向量之间的欧氏距离得到/>矩阵;
Label=Labelone-hot*τ (5)
式(5)由于经过one-hot后的标签数值与距离矩阵中的数值差距过大,所以此时需要根据不同的分类任务将Labelone-hot扩大τ倍(τ∈[10,1000]且τ为10的倍数),来增强标签对于不同任务的影响;
式(6)将距离矩阵转变成形状为[Nway*Nquery,Nway]的矩阵/>
式(7)将矩阵加上处理过后的标签Label,使矩阵/>和图像标签建立联系,得到距离矩阵/>
式(9)求得添加标签关联性后的影响程度,即距离矩阵与距离-标签向量/>的比值rates
rates=log(rates)+1-(log(rates)+1)*Labelone-hot (10)
在式(10)中采用一般的对数函数对rates进行进一步计算,然后在式(11)中将它与原来的m值进行相乘确定下了最终的超参数值
因此,TriHard损失函数的计算表达式为:
3)利用优化器对损失函数进行优化,若未达到预先设定的迭代次数,或准确率有所提升,那么通过梯度反向传播方法更新网络模型权重和偏置。若达到预先设定的迭代次数,或准确率不再提升,得到最终的预测值。
4)1
本发明采取上述结构取得有益效果如下:本发明提供的一种用于细粒度图像分类的损失函数可变超参数确定方法,通过定量计算出图像特征的距离矩阵与距离-标签向量的比值,将比值进行对数变换,从而将距离矩阵、标签与超参数三者建立起影响关系,确定出超参数的数值,用于分类复杂的细粒度图像。本发明中的方法适应性好,分类准确率较高。
附图说明
图1为本发明一种用于细粒度图像分类的损失函数可变超参数确定方法的实施例流程图;
图2为本发明一种用于细粒度图像分类的损失函数可变超参数确定方法的TriHard损失函数可变超参数确定方法流程图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-2所示,本发明一种用于细粒度图像分类的损失函数可变超参数确定方法,包括以下步骤:
1)输入图像数据集的数据,训练网络:首先将训练集中的样本图像随机划分到支持集S和它的标签,查询集Q和它的标签,然后将数据集和标签输入损失函数超参数确定模型进行训练,得到一个预测值。
2)利用TriHard损失函数,计算损失,TriHard损失函数计算公式如下:
其中,表示选取正样本对/>中距离最大,即相似度最小的样本,/>表示选取负样本对/>中距离最小,即相似度最大的样本,超参数m表示一个可变的边界值;
超参数m的计算公式如下:
式(2)中表示支持集中第i个嵌入空间的嵌入函数,S表示支持集,/>表示嵌入函数最后一维的长度;
式(3)将转变成形状为/>的矩阵,Nc表示类别总数,Ns表示支持集的类别数,然后对维度Ns进行求和得到/>
式(4)计算中各个特征向量之间的欧氏距离得到/>矩阵;
Label=Labelone-hot*τ (5)
式(5)由于经过one-hot后的标签数值与距离矩阵中的数值差距过大,所以此时需要根据不同的分类任务将Labelone-hot扩大τ倍(τ∈[10,1000]且τ为10的倍数),来增强标签对于不同任务的影响;
式(6)将距离矩阵转变成形状为[Nway*Nquery,Nway]的矩阵/>
式(7)将矩阵加上处理过后的标签Label,使矩阵/>和图像标签建立联系,得到距离矩阵/>
式(9)求得添加标签关联性后的影响程度,即距离矩阵与距离-标签向量/>的比值rates
rates=log(rates)+1-(log(rates)+1)*Labelone-hot (10)
在式(10)中采用一般的对数函数对rates进行进一步计算,然后在式(11)中将它与原来的m值进行相乘确定下了最终的超参数值
因此,TriHard损失函数的计算表达式为:
3)利用优化器对损失函数进行优化,若未达到预先设定的迭代次数,或准确率有所提升,那么通过梯度反向传播方法更新网络模型权重和偏置。若达到预先设定的迭代次数,或准确率不再提升,得到最终的预测值。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1所示,本实施例的用于细粒度图像分类的损失函数可变超参数确定方法的流程图。
一种用于细粒度图像分类的损失函数可变超参数确定方法,包括以下步骤:
步骤一,输入支持集和查询集。对细粒度图像分类,从训练数据集中随机选取5个类别,并从这5个类别中随机选取5张训练图片组成支持集S,再从这5个类别中剩下的样本中随机选取15张训练图片组成查询集Q。
步骤二,训练损失函数可变超参数确定网络
第一步,首先预训练损失函数可变超参数确定网络,预训练阶段的支持集类别个数为64。
第二步,训练损失函数可变超参数确定网络,本实施例在小样本细粒度图像数据集miniImageNet上进行了实验,已验证本发明提出的方法。所有实验都是在GTX 2080TiGPU上使用Tensorflow深度学习框架进行的,并进行了5-way 5-shot分类任务,对模型进行了评价。
首先根据该基准测试的常用数据划分原则,将所有图像转换为一个统一大小的84×84的图像。初始学习率设为0.001,每2000步后下降20%,本实施例的τ的取值为1000,重复测试600次以计算平均准确度,并给出95%的置信区间。
表1 四种模型在miniImageNet数据集上的表现
模型 骨架 5-way 5-shot(%)
模型无关元学习网络 ResNet-18 65.72±0.77
关系网络 ResNet-18 69.83±0.68
损失函数固定超参数网络 ResNet-12 68.31±0.28
损失函数可变超参数确定网络 ResNet-12 70.21±0.41
从表1中看出损失函数可变超参数确定网络与损失函数固定超参数网络相比,可变的超参数值能够更好地适应分类任务,最终的预测准确率有所提升,改善了预测结果,而且与近几年最先进的模型相比具有竞争力。
表2 在miniImageNet数据集中不同超参数值m对分类结果的影响
设置超参数m的值,当任务中的类别相似时,m值会适当减小,即类间距离会变小。实验结果表明,适当的类间距离可以提高分类器的性能。本实施例测试了不同边界值对分类结果的影响。如表2所示,对于5-way 5-shot任务,当m设置为1.5是,效果最好。由于在处理5-way 5-shot分类任务时没有对特征向量进行归一化处理,样本间的距离值较大,因此需要设置较大的边界值
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (1)

1.一种用于细粒度图像分类的损失函数可变超参数确定方法,其特征在于,包括以下步骤:
1)输入图像数据集的数据,训练网络:首先将训练集中的样本图像随机划分到支持集和它的标签,查询集/>和它的标签,然后将数据集和标签输入损失函数超参数确定模型进行训练,得到一个预测值;
2)利用TriHard损失函数,计算损失,TriHard损失函数计算公式如下:
(1)
其中,表示选取正样本对/>,/>中距离最大,即相似度最小的样本,/>表示选取负样本对/>,/>中距离最小,即相似度最大的样本,超参数/>表示一个可变的边界值;
超参数的计算公式如下:
(2)
式(2)中表示支持集中第/>个嵌入空间的嵌入函数,/>表示支持集,/>表示嵌入函数最后一维的长度;
(3)
式(3)将转变成形状为/>的矩阵,/>表示类别总数,/>表示支持集的类别数,然后对维度/>进行求和得到/>
(4)
式(4)计算中各个特征向量之间的欧氏距离得到/>矩阵;
(5)
式(5)由于经过one-hot后的标签数值与距离矩阵中的数值差距过大,此时需要根据不同的分类任务将扩大/>倍,/>且/>为10的倍数,增强标签对于不同任务的影响;
(6)
式(6)将距离矩阵转变成形状为/>的矩阵/>
(7)
(8)
式(7)将矩阵加上处理过后的标签/>,使矩阵/>和图像标签建立联系,得到距离矩阵/>
(9)
式(9)求得添加标签关联性后的影响程度,即距离矩阵与距离-标签向量/>的比值/>
(10)
(11)
在式(10)中采用一般的对数函数对进行进一步计算,然后在式(11)中将它与原来的/>值进行相乘确定下了最终的超参数值/>
因此,TriHard损失函数的计算表达式为:
(12)
3)利用优化器对损失函数 进行优化,若未达到预先设定的迭代次数,或准确率有所提升,那么通过梯度反向传播方法更新网络模型权重和偏置,若达到预先设定的迭代次数,或准确率不再提升,得到最终的预测值。
CN202110363331.1A 2021-04-02 2021-04-02 一种用于细粒度图像分类的损失函数可变超参数确定方法 Active CN113159142B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110363331.1A CN113159142B (zh) 2021-04-02 2021-04-02 一种用于细粒度图像分类的损失函数可变超参数确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110363331.1A CN113159142B (zh) 2021-04-02 2021-04-02 一种用于细粒度图像分类的损失函数可变超参数确定方法

Publications (2)

Publication Number Publication Date
CN113159142A CN113159142A (zh) 2021-07-23
CN113159142B true CN113159142B (zh) 2024-02-20

Family

ID=76888468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110363331.1A Active CN113159142B (zh) 2021-04-02 2021-04-02 一种用于细粒度图像分类的损失函数可变超参数确定方法

Country Status (1)

Country Link
CN (1) CN113159142B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887325A (zh) * 2021-09-10 2022-01-04 北京三快在线科技有限公司 一种模型训练方法、表情识别方法以及装置
CN114821203B (zh) * 2022-06-29 2022-09-27 中国科学院自动化研究所 基于一致性损失的细粒度图像模型训练及识别方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659378A (zh) * 2019-09-07 2020-01-07 吉林大学 基于对比相似性损失函数的细粒度图像检索方法
CN111914642A (zh) * 2020-06-30 2020-11-10 浪潮电子信息产业股份有限公司 一种行人重识别方法、装置、设备及介质
CN112101150A (zh) * 2020-09-01 2020-12-18 北京航空航天大学 一种基于朝向约束的多特征融合行人重识别方法
CN112487227A (zh) * 2020-11-27 2021-03-12 北京邮电大学 一种深度学习的细粒度图像分类方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659378A (zh) * 2019-09-07 2020-01-07 吉林大学 基于对比相似性损失函数的细粒度图像检索方法
CN111914642A (zh) * 2020-06-30 2020-11-10 浪潮电子信息产业股份有限公司 一种行人重识别方法、装置、设备及介质
CN112101150A (zh) * 2020-09-01 2020-12-18 北京航空航天大学 一种基于朝向约束的多特征融合行人重识别方法
CN112487227A (zh) * 2020-11-27 2021-03-12 北京邮电大学 一种深度学习的细粒度图像分类方法及装置

Also Published As

Publication number Publication date
CN113159142A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113159142B (zh) 一种用于细粒度图像分类的损失函数可变超参数确定方法
CN104063876B (zh) 一种交互式图像分割方法
CN104794489B (zh) 一种基于深度标签预测的诱导式图像分类方法及系统
CN114169442B (zh) 基于双原型网络的遥感图像小样本场景分类方法
CN111428733B (zh) 基于语义特征空间转换的零样本目标检测方法及系统
CN105608471A (zh) 一种鲁棒直推式标签估计及数据分类方法和系统
RU2012152447A (ru) Выполняемый в окне статистический анализ для обнаружения аномалий в наборах геофизических данных
CN108627798B (zh) 基于线性判别分析和梯度提升树的wlan室内定位算法
CN114841257A (zh) 一种基于自监督对比约束下的小样本目标检测方法
CN109378014A (zh) 一种基于卷积神经网络的移动设备源识别方法及系统
CN105354592A (zh) 基于分类的最优时频分布设计与目标识别方法
CN105024886B (zh) 一种基于用户元数据的快速Web服务QoS预测方法
CN108540988A (zh) 一种场景划分方法及装置
CN105160653A (zh) 一种用于雾天图像的质量评价方法
CN115853173A (zh) 一种用于施工安装的建筑幕墙
CN104698090A (zh) 一种冷却塔故障诊断方法
CN114492540B (zh) 目标检测模型的训练方法、装置、计算机设备及存储介质
CN106960433B (zh) 一种基于图像熵以及边缘的全参考声纳图像质量评测方法
CN105894032A (zh) 一种针对样本性质提取有效特征的方法
CN113592341B (zh) 度量损失函数、扇区复杂度评估方法及系统
CN104376124A (zh) 一种基于扰动吸收原理的聚类算法
CN104778478A (zh) 一种手写数字识别方法
CN113035363B (zh) 一种概率密度加权的遗传代谢病筛查数据混合采样方法
CN112804650B (zh) 一种信道状态信息数据降维方法及智能室内定位方法
CN105825205A (zh) 一种协作稀疏表示自适应的快速人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant