CN111553378B - 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 - Google Patents
图像分类模型训练方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111553378B CN111553378B CN202010182989.8A CN202010182989A CN111553378B CN 111553378 B CN111553378 B CN 111553378B CN 202010182989 A CN202010182989 A CN 202010182989A CN 111553378 B CN111553378 B CN 111553378B
- Authority
- CN
- China
- Prior art keywords
- image
- classification model
- loss function
- data set
- image classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 138
- 238000013145 classification model Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000006870 function Effects 0.000 claims description 96
- 238000001514 detection method Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 244000144730 Amygdalus persica Species 0.000 description 1
- 241000167854 Bourreria succulenta Species 0.000 description 1
- 241000282693 Cercopithecidae Species 0.000 description 1
- 235000007516 Chrysanthemum Nutrition 0.000 description 1
- 244000189548 Chrysanthemum x morifolium Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000282376 Panthera tigris Species 0.000 description 1
- 235000006040 Prunus persica var persica Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 235000019693 cherries Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开关于一种用于图像分类的图像分类模型训练方法、装置、电子设备及计算机可读存储介质,涉及人工智能技术领域。其中,在进行图像分类模型训练时,通过构造的包含有图像语义特征损失函数的联合损失函数对图像分类模型的模型参数进行调整、优化,以提高图像分类模型的图像分类精度。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及图像分类模型训练方法、装置、电子设备及计算机可读存储介质。
背景技术
近来,深度学习在图像识别、语音识别、自然语言处理等相关领域得到了广泛应用。卷积神经网络(CNN)作为深度学习的一个重要分支,由于其超强的拟合能力以及端到端的全局优化能力,使得图像分类任务在应用卷积神经网络之后,预测精度大幅提升。
但在相关技术中,虽然目前的图像分类模型对图像具有一定的分类能力,但是仍然会出现大量分类错误的情况。
发明内容
本公开提供一种图像分类模型训练方法、装置、电子设备及计算机可读存储介质,以解决上述至少一个技术问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种图像分类模型训练方法,用于图像分类,所述方法包括:
选取预设数目的图像样本,形成训练数据集,其中,每个所述图像样本对应一个分类标签以及一个图像语义特征;
将所述训练数据集中的图像样本输入预设的图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果;
以最小化联合损失函数为目标,调整所述图像分类模型的模型参数;
其中,所述联合损失函数基于第一损失函数、第二损失函数和对应的损失函数加权因子确定,所述第一损失函数用于计算所述分类标签与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的损失,所述第二损失函数用于计算所述图像语义特征与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的图像语义特征损失。
进一步,作为一种可选地实现方式,所述联合损失函数losstotal为:
losstotal=losssoftmax+λlosscenter
其中,losssoftmax表示第一损失函数,losscenter为第二损失函数,λ为加权因子,δ∈(0.1,1)。
进一步,作为一种可选地实现方式,所述第二损失函数losscenter为:
其中,#Batch为训练数据集,B为训练数据集中的图像样本的数量,k=1,2,3,…,B,featurek为所述图像分类模型输出的所述训练数据集中的第k个图像样本对应的分类结果,center_featureck为所述训练数据集中的第k个图像样本对应的图像语义特征。
进一步,作为一种可选地实现方式,所述模型参数包括中心语义特征,在所述以最小化联合损失函数为目标,调整所述图像分类模型的模型参数的步骤,包括:
在所述联合损失函数的损失值未满足最小化需求时,基于所述图像分类模型中的中心语义特征输出的所述训练数据集中各图像样本对应的分类结果,对所述图像样本对应的当前的图像语义特征进行更新;
基于更新后的中心语义特征再次执行所述将所述训练数据集中的图像样本输入图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果的步骤,直到基于所述图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足所述最小化需求。
进一步,作为一种可选地实现方式,所述更新后的中心语义特征center_featurei为:
其中,centerfeaturei表示第i个图像样本对应的更新前的中心语义特征,#Batch为训练数据集,featurek表示所述训练数据集中的第k个图像样本对应的分类结果,α为超参数,B为所述训练数据集中的图像样本的数量,k=1,2,3,…,B。
进一步,作为一种可选地实现方式,所述以最小化联合损失函数为目标,调整所述图像分类模型的模型参数之后,所述方法还包括:
在对所述图像分类模型的模型参数进行预设次数的调整后,利用预设评价函数和选取的测试样本,对训练后的图像分类模型输出的分类结果的准确性进行检测,其中,所述测试样本对应一个分类标签以及一个图像语义特征;
在经过预设次数的检测后得到的检测指标未得到提升,停止对所述图像分类模型的训练,得到目标图像分类模型。
根据本公开实施例的第二方面,提供一种图像分类模型训练装置,用于图像分类,所述装置包括:
样本选取模块,被配置为执行选取预设数目的图像样本,形成训练数据集,其中,每个所述图像样本对应一个分类标签以及一个图像语义特征;
模型训练模块,被配置为执行将所述训练数据集中的图像样本输入预设的图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果;
参数调整模块,被配置为执行以最小化联合损失函数为目标,调整所述图像分类模型的模型参数;其中,所述联合损失函数基于第一损失函数、第二损失函数和对应的损失函数加权因子确定,所述第一损失函数用于计算所述分类标签与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的损失,所述第二损失函数用于计算所述图像语义特征与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的损失。
进一步,作为一种可选地实现方式,所述参数调整模块还被配置为执行在所述联合损失函数的损失值未满足最小化需求时,基于所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果,对所述图像样本对应的当前的图像语义特征进行更新;以及基于更新后的图像语义特征,再次调用所述模型训练模块执行所述将所述训练数据集中的图像样本输入图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果的步骤,直到基于所述图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足所述最小化需求。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如上所述的图像分类模型训练方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述存储介质中的指令由电子设备中的处理器执行时,使得电子设备能够执行如上所述的图像分类模型训练方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,包括至少一种非临时性的计算机可读介质,存储由至少一个处理器可翻译的指令,用于实施前述的图像分类模型训练装置。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过在图像分类模型训练过程中,综合考虑了图像样本对应的图像语义特征,进而基于包含图像语义特征损失函数的联合损失函数来对模型进行训练、优化,使得具有相似语义的数据特征更近,从而提高训练得到的图像分类模型的图像分类精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种图像分类模型训练方法的流程图。
图2是根据一示例性实施例示出的一种图像分类模型训练过程示意图。
图3是根据一示例性实施例示出的一种图像分类模型训练装置的框图。
图4是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和装置的例子。
相关技术中,在使用深度学习对多媒体数据等进行理解时,除了使用模型输出的预测结果之外,例如分类标签,如何使用模型中间的特征对数据进行表示也是一个十分重要的内容。在此以多媒体数据为待分类的图像、深度学习所采用的网络为CNN网络为例,仅仅依靠分类信息对CNN网络进行训练得到的图像分类模型虽然可以较好地进行类别区分,但是对于具有同一语义的图像,其特征并不能得到有效表达。
例如:由于【猫】这个类别中的数据特征,与【狗】这个类别中的数据特征之间的距离,并不一定小于【猫】这个类别中的数据特征与【电脑】这个类别的数据特征之间的距离,导致在利用图像分类模型进行图像分类时,仅利用到了类别之间的信号,而忽略了各类别之间的语义信息,进而导致图像分类模型的输出存在偏差。
鉴于此,本申请实施例提供一种图像分类模型训练方法、装置、电子设备及计算机可读存储介质,以解决上述至少一个技术问题,并提高图像分类模型的输出结果的可靠性。
实施例一
请结合参阅图1,图1是根据一示例性实施例提供的用于图像分类的图像分类模型训练方法的流程图,该图像分类模型训练方法可由,但不限于电子设备中的图像分类模型训练装置执行,该电子设备可以为服务器或终端设备等,实际应用中,该终端设备可以是计算机、智能手机、IPAD、可穿戴设备等。参照图1,该图像分类模型训练方法可以包括如下步骤。
S10,选取预设数目的图像样本,形成训练数据集,其中,每个图像样本对应一个分类标签以及一个图像语义特征。
其中,关于训练数据集中的图像样本的数量,也就是前述的预设数目的值可根据需求进行灵活设定。需要注意的是,在基于训练数据集进行模型训练时,需要确定具有相似图像语义特征的分类标签的标签集合,例如,对于【动物】这一图像语义特征,对应的标签集合中可以包括【猫】、【狗】、【猴】、【猪】、【老虎】……等分类标签;又例如,对于【花】这一图像语义特征,对应的标签集合中可以包括【桃花】、【樱花】、【菊花】、【梅花】……等分类标签。
示例性地,可以使用公式centeri={jj∈L}对图像语义特征(也就是中心语义特征)进行表示。其中,centeri表示第i个图像语义特征,j表示标签集合L中的一个分类标签。应注意,如果存在没有对应语义中心的分类标签,或者说无法根据已经定义的图像语义特征对该分类标签进行语义归并,可以使用centeri={ii∈L}表示。
作为一种可能的实现方式,S10中的训练数据集中的第k个图像样本可以表示为(datak,labelk,Ck),其中,datak为图像样本、labelk为样本标签、Ck为图像样本对应的图像语义特征。
S20,将训练数据集中的图像样本输入预设的图像分类模型中,得到图像分类模型输出的训练数据集中各图像样本的分类结果。其中,分类结果至少可以包括图像样本对应的样本分类结果以及图像语义特征。
S30,以最小化联合损失函数为目标,调整图像分类模型的模型参数。
其中,S20中所述图像分类模型可以为,但不限于CNN网络、SVM等。但需要说明的是,任一种用于分类的模型均可以作为本申请的待训练的图像分类模型。此外,由于待训练的图像分类模型的具体结构,不涉及本申请的发明点,因此,本申请对待训练的图像分类模型的具体结构不做限定。另外,S30中所述的模型参数至少包括图像样本对应的中心语义特征。
示例性地,考虑到相关技术中涉及的图像分类模型的训练过程中,通常采用交叉熵损失函数、MLE损失函数等作为模型训练阶段的目标,但这些损失函数并未考虑图像样本的图像语义特征,导致训练得到的模型的可靠性低,对此,本申请实施例中,在模型训练过程中增加图像语义特征损失函数,使得具有相似语义的数据特征更近,反之更远,以提高训练得到的模型输出结果的可靠性。
实际实施时,可以以最小化包括图像语义特征损失函数的联合损失函数为目标,不断优化/调整图像分类模型的模型参数,使得通过图像分类模型预测得到的训练数据集中的各图像样本的分类结果与预设结果越来越接近,甚至一样。可以理解的是,最小化联合损失函数是指经过对模型参数的多次优化、调整,使得联合损失函数的函数值趋于平稳。
可选地,请结合参阅图2,联合损失函数是基于第一损失函数、第二损失函数(也就是,图像语义特征损失函数)和对应的损失函数加权因子确定,第一损失函数用于计算分类标签与图像分类模型输出的训练数据集中各图像样本对应的分类结果(如分类标签)之间的损失,第二损失函数用于计算图像语义特征与图像分类模型输出的训练数据集中各图像样本对应的分类结果(如语义特征)之间的图像语义特征损失。
示例性地,联合损失函数losstotal可以如式(1)所示。
losstotal=losssoftmax+λlosscenter (1)
其中,losssoftmax表示第一损失函数,losscenter为第二损失函数,λ为加权因子,,δ∈(0.1,1)。在一些实现方式中,λ的取值也可以根据经验进行设置。
可选地,关于式(1)中的第一损失函数和第二损失函数的函数类型可根据需求进行选取,例如,第一损失函数losssoftmax可以为交叉熵损失函数等,具体如式(2)所示,第二损失函数losscenter可以选用余弦损失函数等,具体可如式(3)所示。
其中,#Batch为训练数据集或者#Batch是从预选取的一批量图像样本中抽取的部分图像样本形成的训练数据集,B为训练数据集中的图像样本的数量,k=1,2,3,…,B,featurek为图像分类模型输出的训练数据集中的第k个图像样本对应的分类结果(即预测到的图像语义特征),center_featureck为训练数据集中的第k个图像样本对应的图像语义特征。应注意的是,在第二损失函数losscenter中,除前述的余弦距离外,还可以基于如欧式距离等实现损失函数的计算,本实施例在此不做限制。
进一步,作为一种可能的实现方式,S30给出的以最小化联合损失函数为目标,调整图像分类模型的模型参数的过程可以包括:在联合损失函数的损失值未满足最小化需求时,基于图像分类模型输出的训练数据集中各图像样本对应的分类结果,对图像样本对应的当前的图像语义特征进行更新;基于更新后的中心语义特征再次执行S20中所述的将训练数据集中的图像样本输入图像分类模型中,得到图像分类模型输出的训练数据集中各图像样本的分类结果的步骤,直到基于图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足最小化需求。
示例性地,前述更新后的中心语义特征center_featurei可以如式(4)所示。
其中,centerfeaturei表示第i个图像样本对应的更新前的中心语义特征,#Batch为训练数据集,featurek表示所述训练数据集中的第k个图像样本对应的分类结果,α为超参数,B为所述训练数据集中的图像样本的数量,k=1,2,3,…,B。
在模型训练过程中,通过不断更新中心语义特征,能够使得模型的输出逐渐接近图像样本的实际语义特征,进而通过多次训练,更新,使得训练得到的图像分类模型的可靠性更高,图像分类结果更准确。
进一步,为了防止对图像分类模型的过度训练,导致模型训练效率过低,鉴于此,在一种可能的实现方式,模型训练方法还可包括S40和S50。
S40,在对图像分类模型的模型参数进行预设次数的调整后,利用预设评价函数和选取的测试样本,对训练后的图像分类模型输出的分类结果的准确性进行检测,其中,测试样本对应一个分类标签以及一个图像语义特征。
其中,前述的预设次数可根据需求进行设定,如100次、200次等。预设评价函数可以采用均方根误差(RMSE,Root-Mean-Square Error)、R-平方(R^2)、平均绝对误差(MAE)等函数实现,本实施例在此不做限制。
S50,在经过预设次数的检测后得到的评价指标未得到提升,停止对图像分类模型的训练,得到目标图像分类模型。
应注意,评价指标的选取可根据需求进行设定,如评价指标可以为模型输出结果的准确率等。
进一步,由本公开实施例给出的前述图像分类模型训练方法可以看出,本申请至少具有下述技术效果。
通过在图像分类模型训练过程中综合考虑图像样本对应的图像语义特征,进而基于包括图像语义特征损失函数的联合损失函数对图像分类模型进行训练、优化,使得具有相似语义的数据特征更近,以提高训练得到的图像分类模型的图像分类精度。
此外,本申请通过在模型训练过程中增加模型训练停止条件,从而有效避免了对模型的过度训练,以确保模型训练效率。
实施例二
图3是根据一示例性实施例示出的一种用于图像分类的图像分类模型训练装置100的框图,该图像分类模型训练装置100可应用于电子设备。参照图3,该图像分类模型训练装置包括样本选取模块110、模型训练模块120和参数调整模块130。
样本选取模块110,被配置为执行选取预设数目的图像样本,形成训练数据集,其中,每个所述图像样本对应一个分类标签以及一个图像语义特征;
模型训练模块120,被配置为执行将所述训练数据集中的图像样本输入预设的图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果;
参数调整模块130,被配置为执行以最小化联合损失函数为目标,调整所述图像分类模型的模型参数;其中,所述联合损失函数基于第一损失函数、第二损失函数和对应的损失函数加权因子确定,所述第一损失函数用于计算所述分类标签与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的损失,所述第二损失函数用于计算所述图像语义特征与所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果之间的损失。
进一步,作为一种可能的实现方式,所述参数调整模块130具体被配置为执行在所述联合损失函数的损失值未满足最小化需求时,基于所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果,对所述图像样本对应的当前的图像语义特征进行更新;以及基于更新后的图像语义特征,再次调用所述模型训练模块120执行所述将所述训练数据集中的图像样本输入图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果的步骤,直到基于所述图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足所述最小化需求。
进一步,在一些实现方式中,装置100还可包括:
结果检测模块,被配置为执行在对所述图像分类模型的模型参数进行预设次数的调整后,利用预设评价函数和选取的测试样本,对训练后的图像分类模型输出的分类结果的准确性进行检测,其中,所述测试样本对应一个分类标签以及一个图像语义特征;以及在经过预设次数的检测后得到的检测指标未得到提升,停止对所述图像分类模型的训练,得到目标图像分类模型。
关于本实施例中的装置100,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
实施例三
请参阅图4,为根据一实施例性实施例提供的一种电子设备10的框图,该电子设备10可至少包括处理器11,用于存储处理器11可执行指令的存储器12。其中,处理器11被配置为执行指令,以实现如上述实施例中的图像分类模型训练方法的全部步骤或部分步骤。
处理器11、存储器12之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,处理器11用于读/写存储器中存储的数据或程序,并执行相应地功能。
存储器12用于存储程序或者数据,如存储处理器11可执行指令。该存储器12可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read OnlyMemory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
进一步,作为一种可能的实现方式,电子设备10还可包括电源组件、多媒体组件、音频组件、输入/输出(I/O)接口、传感器组件以及通信组件等。
电源组件为电子设备10的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源、以及其他与为电子设备10生成、管理和分配电力相关联的组件。
多媒体组件包括在电子设备10和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件包括一个前置摄像头和/或后置摄像头。当电子设备10处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件被配置为输出和/或输入音频信号。例如,音频组件包括一个麦克风(MIC),当电子设备10处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器12或经由通信组件发送。在一些实施例中,音频组件还包括一个扬声器,用于输出音频信号。
I/O接口为处理组件和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件包括一个或多个传感器,用于为电子设备10提供各个方面的状态评估。例如,传感器组件可以检测到电子设备10的打开/关闭状态,组件的相对定位,例如组件为电子设备10的显示器和小键盘,传感器组件还可以检测电子设备10或电子设备10一个组件的位置改变,用户与电子设备10接触的存在或不存在电子设备10方位或加速/减速和电子设备10的温度变化。传感器组件可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件被配置为便于电子设备10和其他设备之间有线或无线方式的通信。电子设备10可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备10可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器11(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器11或其他电子元件实现,用于执行上述方法。
应当理解的是,图4所示的结构仅为电子设备10的结构示意图,该电子设备10还可包括比图4中所示更多或者更少的组件,或者具有与图4所示不同的配置。图4中所示的各组件可以采用硬件、软件或其组合实现。
实施例四
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器12,上述指令可由电子设备10的处理器11执行以完成上述图像分类模型训练方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
实施例五
在示例性实施例中,还提供了一种计算机程序产品,包括至少一种非临时性的计算机可读介质,存储由至少一个处理器11可翻译的指令,用于实施前述实施例中的图像分类模型训练装置。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (8)
1.一种图像分类模型训练方法,其特征在于,用于图像分类,所述方法包括:
选取预设数目的图像样本,形成训练数据集,其中,每个所述图像样本对应一个分类标签以及一个图像语义特征;
将所述训练数据集中的图像样本输入预设的图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果;其中,分类结果包括图像样本对应的样本分类结果以及图像语义特征;
以最小化联合损失函数为目标,调整所述图像分类模型的模型参数;
其中,所述联合损失函数基于第一损失函数、第二损失函数和对应的损失函数加权因子确定,所述第一损失函数用于计算所述分类标签与所述图像分类模型输出的所述训练数据集中各图像样本对应的样本分类结果之间的损失,所述第二损失函数用于计算所述图像语义特征与所述图像分类模型输出的所述训练数据集中各图像样本对应的图像语义特征之间的图像语义特征损失;
所述模型参数包括中心语义特征,所述以最小化联合损失函数为目标,调整所述图像分类模型的模型参数的步骤,包括:
在所述联合损失函数的损失值未满足最小化需求时,基于所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果,对所述图像分类模型中的中心语义特征进行更新;
基于更新后的中心语义特征再次执行所述将所述训练数据集中的图像样本输入图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果的步骤,直到基于所述图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足所述最小化需求。
2.根据权利要求1所述的图像分类模型训练方法,其特征在于,所述联合损失函数losstotal为:
losstotal=losssoftmax+λlosscenter
其中,losssoftmax表示第一损失函数,losscenter为第二损失函数,λ为加权因子,δ∈(0.1,1)。
3.根据权利要求1所述的图像分类模型训练方法,其特征在于,所述第二损失函数losscenter为:
其中,#Batch为训练数据集,B为训练数据集中的图像样本的数量,k=1,2,3,…,B,featurek为所述图像分类模型输出的所述训练数据集中的第k个图像样本对应的分类结果,center_featureck为所述训练数据集中的第k个图像样本对应的图像语义特征。
4.根据权利要求1所述的图像分类模型训练方法,其特征在于,所述更新后的中心语义特征center_featurei为:
其中,表示第i个图像样本对应的更新前的中心语义特征,为训练数据集,featurek表示所述训练数据集中的第k个图像样本对应的分类结果,α为超参数,B为所述训练数据集中的图像样本的数量,k=1,2,3,…,B。
5.根据权利要求1所述的图像分类模型训练方法,其特征在于,所述以最小化联合损失函数为目标,调整所述图像分类模型的模型参数之后,所述方法还包括:
在对所述图像分类模型的模型参数进行预设次数的调整后,利用预设评价函数和选取的测试样本,对训练后的图像分类模型输出的分类结果的准确性进行检测,其中,所述测试样本对应一个分类标签以及一个图像语义特征;
在经过预设次数的检测后得到的检测指标未得到提升,停止对所述图像分类模型的训练,得到目标图像分类模型。
6.一种图像分类模型训练装置,其特征在于,所述装置包括:
样本选取模块,被配置为执行选取预设数目的图像样本,形成训练数据集,其中,每个所述图像样本对应一个分类标签以及一个图像语义特征;
模型训练模块,被配置为执行将所述训练数据集中的图像样本输入预设的图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果;其中,分类结果包括图像样本对应的样本分类结果以及图像语义特征;
参数调整模块,被配置为执行以最小化联合损失函数为目标,调整所述图像分类模型的模型参数;其中,所述联合损失函数基于第一损失函数、第二损失函数和对应的损失函数加权因子确定,所述第一损失函数用于计算所述分类标签与所述图像分类模型输出的所述训练数据集中各图像样本对应的样本分类结果之间的损失,所述第二损失函数用于计算所述图像语义特征与所述图像分类模型输出的所述训练数据集中各图像样本对应的图像语义特征之间的损失;
所述模型参数包括中心语义特征,所述参数调整模块还被配置为执行在所述联合损失函数的损失值未满足最小化需求时,基于所述图像分类模型输出的所述训练数据集中各图像样本对应的分类结果,对所述图像样本对应的当前的图像语义特征进行更新;以及基于更新后的图像语义特征,再次调用所述模型训练模块执行所述将所述训练数据集中的图像样本输入图像分类模型中,得到所述图像分类模型输出的所述训练数据集中各图像样本的分类结果的步骤,直到基于所述图像分类模型输出的当前分类结果,计算得到的联合损失函数的损失值满足所述最小化需求。
7.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至5中任一项所述的图像分类模型训练方法。
8.一种计算机可读存储介质,其特征在于,当所述存储介质中的指令由电子设备中的处理器执行时,使得电子设备能够执行如权利要求1至5中任一项所述的图像分类模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010182989.8A CN111553378B (zh) | 2020-03-16 | 2020-03-16 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010182989.8A CN111553378B (zh) | 2020-03-16 | 2020-03-16 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111553378A CN111553378A (zh) | 2020-08-18 |
CN111553378B true CN111553378B (zh) | 2024-02-20 |
Family
ID=71999948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010182989.8A Active CN111553378B (zh) | 2020-03-16 | 2020-03-16 | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553378B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561080B (zh) * | 2020-12-18 | 2023-03-03 | Oppo(重庆)智能科技有限公司 | 样本筛选方法、样本筛选装置及终端设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563444A (zh) * | 2017-09-05 | 2018-01-09 | 浙江大学 | 一种零样本图像分类方法及系统 |
CN109858558A (zh) * | 2019-02-13 | 2019-06-07 | 北京达佳互联信息技术有限公司 | 分类模型的训练方法、装置、电子设备及存储介质 |
CN110135459A (zh) * | 2019-04-15 | 2019-08-16 | 天津大学 | 一种基于双三元组深度度量学习网络的零样本分类方法 |
CN110309331A (zh) * | 2019-07-04 | 2019-10-08 | 哈尔滨工业大学(深圳) | 一种基于自监督的跨模态深度哈希检索方法 |
CN110516718A (zh) * | 2019-08-12 | 2019-11-29 | 西北工业大学 | 基于深度嵌入空间的零样本学习方法 |
CN110555475A (zh) * | 2019-08-29 | 2019-12-10 | 华南理工大学 | 一种基于语义信息融合的少样本目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885400B2 (en) * | 2018-07-03 | 2021-01-05 | General Electric Company | Classification based on annotation information |
-
2020
- 2020-03-16 CN CN202010182989.8A patent/CN111553378B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563444A (zh) * | 2017-09-05 | 2018-01-09 | 浙江大学 | 一种零样本图像分类方法及系统 |
CN109858558A (zh) * | 2019-02-13 | 2019-06-07 | 北京达佳互联信息技术有限公司 | 分类模型的训练方法、装置、电子设备及存储介质 |
CN110135459A (zh) * | 2019-04-15 | 2019-08-16 | 天津大学 | 一种基于双三元组深度度量学习网络的零样本分类方法 |
CN110309331A (zh) * | 2019-07-04 | 2019-10-08 | 哈尔滨工业大学(深圳) | 一种基于自监督的跨模态深度哈希检索方法 |
CN110516718A (zh) * | 2019-08-12 | 2019-11-29 | 西北工业大学 | 基于深度嵌入空间的零样本学习方法 |
CN110555475A (zh) * | 2019-08-29 | 2019-12-10 | 华南理工大学 | 一种基于语义信息融合的少样本目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111553378A (zh) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113743535B (zh) | 神经网络训练方法及装置以及图像处理方法及装置 | |
CN110516745B (zh) | 图像识别模型的训练方法、装置及电子设备 | |
CN108256555B (zh) | 图像内容识别方法、装置及终端 | |
CN111461304B (zh) | 分类神经网络的训练方法、文本分类方法、装置及设备 | |
CN111160448B (zh) | 一种图像分类模型的训练方法及装置 | |
CN107784279B (zh) | 目标跟踪方法及装置 | |
CN110688527A (zh) | 视频推荐方法、装置、存储介质及电子设备 | |
CN109961094B (zh) | 样本获取方法、装置、电子设备及可读存储介质 | |
CN105554581A (zh) | 弹幕显示方法及装置 | |
CN110781323A (zh) | 多媒体资源的标签确定方法、装置、电子设备及存储介质 | |
CN109255128B (zh) | 多层级标签的生成方法、装置和存储介质 | |
CN110738267B (zh) | 图像分类方法、装置、电子设备及存储介质 | |
CN114722238B (zh) | 视频推荐方法、装置、电子设备、存储介质及程序产品 | |
CN111046927A (zh) | 标注数据的处理方法、装置、电子设备及存储介质 | |
CN111553378B (zh) | 图像分类模型训练方法、装置、电子设备及计算机可读存储介质 | |
CN111428806B (zh) | 图像标签确定方法、装置、电子设备及存储介质 | |
CN112712385B (zh) | 广告推荐方法、装置、电子设备及存储介质 | |
US11373038B2 (en) | Method and terminal for performing word segmentation on text information, and storage medium | |
CN113779257A (zh) | 文本分类模型的解析方法、装置、设备、介质及产品 | |
CN112328809A (zh) | 实体分类方法、装置及计算机可读存储介质 | |
CN113312967A (zh) | 一种检测方法、装置和用于检测的装置 | |
CN110297970B (zh) | 信息推荐模型训练方法及装置 | |
CN109460458B (zh) | 查询改写意图的预测方法及装置 | |
CN114840761B (zh) | 推送模型的训练方法、装置、设备、存储介质及程序产品 | |
CN116310633A (zh) | 一种关键点检测模型训练方法及关键点检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |