CN108304936B - 机器学习模型训练方法和装置、表情图像分类方法和装置 - Google Patents
机器学习模型训练方法和装置、表情图像分类方法和装置 Download PDFInfo
- Publication number
- CN108304936B CN108304936B CN201710566325.XA CN201710566325A CN108304936B CN 108304936 B CN108304936 B CN 108304936B CN 201710566325 A CN201710566325 A CN 201710566325A CN 108304936 B CN108304936 B CN 108304936B
- Authority
- CN
- China
- Prior art keywords
- image
- machine learning
- learning model
- special
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 325
- 238000012549 training Methods 0.000 title claims abstract description 246
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000014509 gene expression Effects 0.000 title claims description 93
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
本发明涉及一种机器学习模型训练方法和装置,所述方法包括:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。本申请提供的方案提高了机器学习模型训练的效率。
Description
技术领域
本发明涉及机器学习领域,特别是涉及一种机器学习模型训练方法和装置、表情图像分类方法和装置。
背景技术
目前,随着终端存储技术和网络技术的发展,基于图像的交互变得越来越容易,越来越多的用户选择使用图像进行交互,使得用于交互的图像数量日益增多。将图像进行合适的分类,对于用户个性化推荐、用户画像构建等都有非常重要的作用。目前,可使用训练好的机器学习模型来进行图像分类。传统的机器学习模型训练方式,通常是使用大量的训练数据来对机器学习模型进行训练,使模型习得分类规则,以提高模型的分类准确率。
然而基于传统的模型训练方式,由于需要使用大量的训练数据,在获取训练数据和使用训练数据对模型进行训练时都会耗费大量的时间,导致机器学习模型训练效率比较低。
发明内容
基于此,有必要针对传统的机器学习模型训练效率低的问题,提供一种机器学习模型训练方法和装置、表情图像分类方法和装置。
一种机器学习模型训练方法,所述方法包括:
获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
确定专用图像的样本和相对应的分类标签;
将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
一种机器学习模型训练装置,所述装置包括:
获取模块,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
确定模块,用于确定专用图像的样本和相对应的分类标签;
分类模块,用于将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
训练模块,用于按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
一种表情图像分类方法,基于机器学习模型训练方法,所述方法包括:
将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;所述训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练方法训练得到的;
确定得到的所述概率中的最大概率;
将所述待分类的表情图像分类到所述最大概率对应的分类标签。
一种表情图像分类装置,基于机器学习模型训练装置,所述表情图像分类装置包括:
机器学习模型,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;所述机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练装置训练得到的;
分类模块,用于确定得到的所述概率中的最大概率;将所述待分类的表情图像分类到所述最大概率对应的分类标签。
上述机器学习模型训练方法和装置,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
上述表情图像分类方法和装置,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
附图说明
图1为一个实施例中机器学习模型训练方法的应用环境图;
图2为一个实施例中机器学习模型训练方法的流程示意图;
图3为一个实施例中VGG模型结构示意图;
图4为另一个实施例中机器学习模型训练方法的流程示意图;
图5为一个实施例中模型再训练的步骤的流程示意图;
图6为一个实施例中对待分类的专用图像进行分类的步骤的流程示意图;
图7为一个具体实施例中机器学习模型训练方法的流程示意图;
图8为一个实施例中机器学习模型训练装置的结构框图;
图9为又一个实施例中机器学习模型训练装置的结构框图;
图10为一个实施例中表情图像分类方法的流程示意图;
图11为一个实施例中表情图像分类装置的结构框图。
具体实施方式
为了使本发明的技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中机器学习模型训练方法和/或表情图像分类方法的应用环境图。如图1所示,该机器学习模型训练方法和/或表情图像分类方法应用于一种计算机设备。该计算机设备可以是终端或者服务器。终端可以是台式设备或者移动终端。服务器可以是独立的物理服务器、物理服务器集群或者虚拟服务器。其中,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,处理器包括中央处理器和图形处理器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器实现机器学习模型训练方法和/或表情图像分类方法。该中央处理器用于提供计算和控制能力,支撑整个计算机设备的运行,该图形处理器用于执行图形处理指令。该内存储器中也可储存有计算机可读指令,该计算机可读指令被所述处理器执行时,可使得所述处理器执行机器学习模型训练方法和/或表情图像分类方法。本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图2为一个实施例中机器学习模型训练方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图2,该机器学习模型训练方法具体包括如下步骤:
S202,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
其中,机器学习模型是经过训练后具有分类能力的机器学习算法模型。机器学习英文全称为Machine Learning,简称ML。机器学习模型可通过样本学习具备分类能力。图像训练集是用于训练机器学习模型的图像的集合。模型参数是机器学习模型的模型结构中的各个参数,能反应模型输出和输入的对应关系。
通用图像训练集是训练具有通用的分类能力的机器学习模型的图像训练集。根据通用图像训练集训练所得的机器学习模型可以称为通用的机器学习模型。通用的机器学习模型对于一般的图像都具有一定的分类能力。
在一个实施例中,计算机设备可获取根据通用图像训练集训练好的机器学习模型的模型结构和模型参数,并将该模型参数导入该模型结构,得到带有模型参数的机器学习模型。机器学习模型所带的模型参数,作为本实施例中训练机器学习模型的初始参数参与到训练中。
在一个实施例中,通用图像训练集可以是由Image Net(图像识别数据库)中的图像组成的通用图像训练集,相应的机器学习模型可以是VGG(Visual Geometry Group视觉集合组)网络模型、GoogleNet(谷歌网路)网络模型或ResNet(能效评估系统)网络模型等。
S204,确定专用图像的样本和相对应的分类标签。
其中,专用图像是具有专门用途的图像,相对于通用图像训练集中的图像是专用的。根据专用图像训练得到的机器学习模型可以称为专用的机器学习模型。其中,专用图像可以细分为不同的类别。通用的机器学习模型所能够分类的类别数,可以多于专用的机器学习模型所能够分类的类别数。专用图像的样本是训练专用的机器学习模型的专用图像。分类标签是标注专用图像的样本所属类别的数据。在一个实施例中,专用图像可以是表情图像、应用图标、广告图像或风格艺术图像等。
在一个实施例中,计算机设备可以从专用图像库中选择多个专用图像作为专用图像的样本,将专用图像的样本进行分类,并为每一类的专用图像的样本分配分类标签。
在另一个实施例中,计算机设备可以先确定分类标签和相应的标签定义,从而按照分类标签相应的定义,从专用图像库中选择符合该分类标签的定义的部分专用图像,作为该分类标签相对应的专用图像的样本。
S206,将专用图像的样本输入机器学习模型,得到中间分类结果。
其中,中间分类结果是在训练过程中,向机器学习模型输入专用图像的样本后,由该机器学习模型所输出的分类结果。
在一个实施例中,计算机设备可将专用图像的样本输入到机器学习模型后,由该机器学习模型判定专用图像的样本所属的类别标签,从而将该类别标签作为中间分类结果。
S208,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
其中,训练停止条件是结束模型训练的条件。训练停止条件可以是达到预设的迭代次数,或者是调整模型参数后的机器学习模型的分类性能指标达到预设指标。调整机器学习模型的模型参数,是对机器学习模型的模型参数进行调整。
具体地,计算机设备可比较中间分类结果与分类标签的差异,从而朝减少差异的方向,以比根据通用图像训练集训练机器学习模型的学习率小的学习率,调整机器学习模型的模型参数。如果调整模型参数后,不满足训练停止条件,则返回步骤S206继续训练,直到满足训练停止条件时结束训练。
在一个实施例中,调整机器学习模型的模型参数可以是局部调整机器学习模型的模型参数。具体可保持部分模型参数不变,对另一部分模型参数做调整。
在一个实施例中,中间分类结果与分类标签的差异可以用代价函数来衡量。代价函数是模型参数的函数,能够衡量机器学习模型的中间分类结果与分类标签之间的差异的函数。计算机设备可在代价函数的值小于预先设定的值时结束训练,得到用于对专用图像进行分类的机器学习模型。可以选择交叉熵或均方误差等函数作为代价函数。
上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,步骤S204包括:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
其中,专用图像库是已知的专用图像的集合库,包含了所有的专用图像。代表专用图像是分类标签相应类的专用图像中能代表此类专用图像的专用图像。满足差异性条件,是指代表专用图像和相似的专用图像所构成的专用图像集合中,各专用图像彼此间具有通过数学条件约束的差异性。
在一个实施例中,计算机设备可按照分类标签的含义,从专用图像库选取能表示分类标签的含义的专用图像作为代表专用图像。在一个实施例中,可人工从专用图像库中选取与分类标签相应的代表专用图像。
在一个实施例中,计算机设备可获取代表专用图像与专用图像库中各专用图像的相似度,从而按照相似度大小将专用图像库中的专用图像排序,从最大相似度的专用图像开始选取连续的指定数量的专用图像,再从选取的专用图像和代表专用图像中挑选满足差异性条件的专用图像。
在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,具体可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的差异性比对,从而确定满足差异性条件的专用图像。
在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,具体可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的相似度比对,剔除近似的两个专用图像中的其中一个,得到满足差异性条件的专用图像。
其中,近似的两个专用图像,可以是相似度超过预设值的两个专用图像,也可以是两两对比的相似度中从大到小排序后靠前的预设数量的相似度所对应的两个专用图像。
上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。
在一个实施例中,步骤S204还包括:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
其中,机器学习模型的中间层是机器学习模型的输入层和输出层之间的层。专用图像的图像特征,是表示相应专用图像区别于其它图像的特性。相似度可采用余弦相似度或者图像间各自感知哈希值的汉明距离。
在一个实施例中,机器学习模型为卷积神经网络模型。其中,卷积神经网络(Convolutional Neural Network,简称CNN)是一种人工神经网络。卷积神经网络包括卷积层(Convolutional Layer)和子采样层(Pooling Layer)。
在卷积神经网络的卷积层中,存在多个特征图(Feature Map),每个特征图包括多个神经元,同一个特征图的所有神经元共用一个卷积核。卷积核就是相应神经元的权值,卷积核代表一个特征。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中将学习得到合理的卷积核。卷积层可以减少神经网络中各层之间的连接,同时又降低了过拟合的风险。
子采样也叫做池化(Pooling),通常有均值子采样(Mean Pooling)和最大值子采样(Max Pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了神经网络的复杂度,减少了神经网络的参数。。
卷积神经网络模型是使用了卷积神经网络算法训练而成的机器学习模型。本实施例所采用卷积神经网络可直接构建,也可将已有的卷积神经网络进行改造得到。
在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将代表专用图像输入到卷积神经网络模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为代表专用图像的图像特征。
在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将专用图像库中的专用图像输入到机器学习模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为输入的专用图像的图像特征。
举例说明,如图3所示,计算机设备可采用8层VGG模型作为需要训练的机器学习模型,其中c1-c5层为卷积层,fc6-fc8层为全连接层。计算机设备将代表专用图像从c1层输入,提取该VGG模型中fc7全连接层输出的图像特征。根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。
如图4所示,在一个具体实施例中,机器学习模型训练方法包括以下步骤:
S402,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
S404,确定专用图像的样本和相对应的分类标签。
S406,配置机器学习模型分类的类别数与分类标签的种类数相匹配。
具体地,计算机设备可将机器学习模型的模型参数中分类的类别数配置成分类标签的种类数,使机器学习模型的输出数量和分类标签的种类数相对应。
S408,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。
具体地,计算机设备可将专用图像的样本输入机器学习模型,机器学习模型对专用图像的样本进行处理后可得到与分类标签对应数目的输出,每个输出分别表示此专用图像的样本属于每个分类标签所对应的概率。
S410,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将专用图像的样本分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
S412,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
具体地,计算机设备可在确定最大概率后,获取该最大概率对应的分类标签,从而将该分类标签作为专用图像的样本的中间分类结果。
S414,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机设备可将专用图像的样本相对应的分类标签,表示为该分类标签相对于分类标签集的分布向量,将最大概率对应的分类标签也表示为该分类标签相对于分类标签集的分布向量,从而计算分布向量之间的向量相似度,通过向量相似度衡量中间分类结果与分类标签的差异。
其中,分布向量中元素数量与分类标签的种类数相等,且每个元素对应于一种分类标签。将分类标签表示为分布向量时,将分布向量中与该分类标签对应的元素置为第一值,将分布向量中除该分类标签所对应元素之外的元素置为第二值。第一值比如可以是1,第二值比如可以是0。
上述实施例中,通过配置机器学习模型分类的类别数与分类标签的种类数相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。
在一个实施例中,机器学习模型为卷积神经网络模型。步骤S208包括:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
具体地,在机器学习模型训练过程中,由于机器学习模型中按层顺序靠前的层提取的是专用图像的样本中的低阶特征,而通用图像训练集中的通用图像和专用图像库中专用图像的低阶特征差异不大,所以可以将通用图像训练集训练所得的机器学习模型中的靠前的层的模型参数在训练过程中保持不变。同时在模型训练过程中调整机器学习模型中按层顺序靠后的层的模型参数,直至满足训练停止条件时结束训练。
例如,对于机器学习模型是VGG模型的模型训练方法,可在模型训练过程中保持VGG模型中的前三层卷积层的模型参数不变,具体可保持前三层卷积层中卷积核内的数值不变,以比根据通用图像训练集训练机器学习模型的学习率小的学习率调整后面的层的模型参数,具体可根据该学习率调整前三层之后的卷积层中卷积核内的数值和全连接层中的全连接层矩阵系数。
上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。
在一个实施例中,步骤S208之后,该机器学习模型训练方法还包括模型再训练的步骤,模型再训练的步骤具体包括:
S502,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。
其中,分类失败是对输入到机器学习模型中的待分类的专用图像的输出不满足此专用图像属于对应分类标签的条件时,无法将专用图像分类到对应的分类标签。
具体地,当机器学习模型对待分类的专用图像分类失败时,可将所有分类失败的专用图像集合,构成未分类的专用图像集。
S504,对专用图像集进行聚类,得到专用图像子集。
其中,聚类是以专用图像的相似性为基础,将专用图像集分成由相似的专用图像组成的一个或多个专用图像子集。聚类算法可以是划分法(Partitioning Methods)、层次法(Hierarchical Methods)、密度算法(Density-based Methods)或者图论聚类法等聚类分析算法。
在一个实施例中,计算机设备对专用图像集进行聚类,如果聚类成功,则将相似的专用图像组成专用图像子集。每个专用图像子集中的专用图像具有相似性,与其他专用图像子集具有差异性。
在另一个实施例中,计算机设备对专用图像集进行聚类,未能提取到具有相似性的专用图像,则聚类不成功,聚类不成功的专用图像可仍旧保留到未分类的专用图像集中。
S506,确定专用图像子集相对应的分类标签。
具体地,计算机设备可以根据专用图像子集中专用图像的共同特征,生成专用图像子集相对应的分类标签。分类标签可以很好的概括专用图像子集中专用图像的共性特征。
S508,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机设备可将将专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签进行合并,获得新的专用图像的样本和相应的分类标签。计算机设备使用新的专用图像的样本和相应的分类标签,执行上述步骤S202至步骤S208,以对机器学习模型进行再训练。
上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。
在一个实施例中,步骤S208之后,该机器学习模型训练方法还包括对待分类的专用图像进行分类的步骤,对待分类的专用图像进行分类的步骤具体包括:
S602,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。
具体地,计算机设备将待分类的专用图像输入机器学习模型,机器学习模型对待分类的专用图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此专用图像属于对应的分类标签的概率。
S604,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将待分类的专用图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
S606,当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机设备可通过比较确定得到的概率中的最大概率与分类阈值的大小来判断分类是否成功。当最大概率大于分类阈值时,则将输入的专用图像分类到最大概率所对应的分类标签,即分类成功。当最大概率小于分类阈值时,即分类失败,则将输入的专用图像添加至未分类的专用图像集。
上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的类别标签,进一步提高机器学习模型的分类能力。
在一个实施例中,步骤S504包括:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
具体地,计算机设备可将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,提取由机器学习模型的中间层所输出的图像特征。根据图像特征进行聚类,判断同个聚类中心内的专用图像是否符合同个分类标签的定义,若是,则计算同个聚类中心内的专用图像的图像特征到聚类中心的欧氏距离之和是否小于预设值,若是,则聚类成功;否则,则聚类不成功。同个聚类中心内的聚类成功的专用图像构成专用图像子集。
上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。
在一个实施例中,专用图像为表情图像,分类标签为表情分类标签。其中,表情图像是用卡通人物、卡通动物或真人图像等来模拟人类表情的图像,可通过在终端上使用来帮助实现人们日常沟通和交流。具体地,专用图像可以为表情图像,例如现在广泛应用于即时通讯应用中的模拟真人表情的表情图像、卡通动物的表情图像等。对应地,分类标签可以是和表情图像相对应的表情分类标签。
如图7所示,在一个具体的实施例中,机器学习模型训练方法包括以下步骤:
S702,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
S704,获取与分类标签相应的代表专用图像。
S706,获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。
S708,获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。
S710,根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
S712,按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像。
S714,从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
S716,配置机器学习模型分类的类别数与分类标签的种类数相匹配。
S718,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。
S720,确定得到的概率中的最大概率。
S722,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
S724,保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
S726,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。
S728,确定得到的概率中的最大概率。
S730,当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
S732,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。
S734,将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征。
S736,根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
S738,确定专用图像子集相对应的分类标签。
S740,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。而且,基于根据通用图像训练集训练得到的包括有模型参数的机器学习模型进行训练,可大大减少由少量训练数据训练模型时所产生的过拟合风险。
如图8所示,在一个实施例中,提供了一种机器学习模型训练装置800,包括:获取模块801、确定模块802、分类模块803、训练模块804。
获取模块801,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
确定模块802,用于确定专用图像的样本和相对应的分类标签。
分类模块803,用于将专用图像的样本输入机器学习模型,得到中间分类结果。
训练模块804,用于按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
上述机器学习模型训练装置800,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,确定模块802还用于获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。
在一个实施例中,确定模块802还用于获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。
如图9所示,在一个实施例中,机器学习模型训练装置800还包括:配置模块805。
配置模块805,用于配置机器学习模型分类的类别数与分类标签的种类数相匹配。
分类模块803还用于将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
上述实施例中,通过配置机器学习模型分类的类别数与分类标签的种类数相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。
在一个实施例中,训练模块804还用于保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。
在一个实施例中,训练模块804还用于获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。
在一个实施例中,训练模块804还用于将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的类别标签,进一步提高机器学习模型的分类能力。
在一个实施例中,训练模块804还用于将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。
图10为一个实施例中表情图像分类方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图10,该表情图像分类方法具体包括如下步骤:
S1002,将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的。
具体地,计算机设备将待分类的表情图像输入训练好的机器学习模型,训练好的机器学习模型对待分类的表情图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此表情图像属于对应的分类标签的概率。其中,训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的,
S1004,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将待分类的表情图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
S1006,将待分类的表情图像分类到最大概率对应的分类标签。
在一个实施例中,计算机设备将输入的表情图像分类到最大概率所对应的分类标签。
上述表情图像分类方法,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
如图11所示,在一个实施例中,提供了一种表情图像分类装置1100,包括:机器学习模型1101和分类模块1102。
机器学习模型1101,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练装置训练得到的。
分类模块1102,用于确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述表情图像分类装置,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
在一个实施例中,本申请提供的机器学习模型训练装置可以实现为一种计算机程序的形式,所述计算机程序可在如图1所示的计算机设备上运行,所述计算机设备的非易失性存储介质可存储组成该机器学习模型训练装置的各个程序模块,比如,图8所示的获取模块801。各个程序模块中包括计算机可读指令,所述计算机可读指令用于使所述计算机设备执行本说明书中描述的本申请各个实施例的应用程序处理方法中的步骤,例如,所述计算机设备可以通过如图8所示的机器学习模型训练装置800,通过获取模块801获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,通过分类装置802输入由确定装置802确定的专用图像的样本,得到中间分类结果,再通过训练装置804根据模型训练结果来调整上述机器学习模型的模型参数,以提高机器学习模型的分类准确率。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时具体执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别数与分类标签的种类数相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时具体执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时具体执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时具体执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述计算机设备,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述计算机设备,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时具体执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别数与分类标签的种类数相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时具体执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时具体执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时具体执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述计算机可读存储介质,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述计算机可读存储介质,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (20)
1.一种机器学习模型训练方法,所述方法包括:
获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
从专用图像库中获取与分类标签相应的代表专用图像;所述代表专用图像是能表示相应分类标签的含义的专用图像;
按照所述代表专用图像与专用图像库中专用图像的相似度,确定所述专用图像库中与所述代表专用图像相似的专用图像;
从所述代表专用图像和所述相似的专用图像构成的集合中,选取满足差异性条件的专用图像,作为与所述分类标签相对应的专用图像的样本;其中,选取的满足差异性条件的各专用图像彼此间具有差异性;
将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
2.根据权利要求1所述的方法,其特征在于,所述获取与分类标签相应的代表专用图像之后,所述方法还包括:
获取所述代表专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
获取所述专用图像库中专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
根据所述代表专用图像的图像特征和所述专用图像库中专用图像的图像特征,计算所述代表专用图像与专用图像库中专用图像的相似度。
3.根据权利要求1所述的方法,其特征在于,所述将所述专用图像的样本输入所述机器学习模型,得到中间分类结果之前,所述方法还包括:
配置所述机器学习模型分类的类别数与所述分类标签的种类数相匹配;
所述将所述专用图像的样本输入所述机器学习模型,得到中间分类结果,包括:
将所述专用图像的样本输入所述机器学习模型,得到所述专用图像的样本分类到每个分类标签所对应的概率;
确定得到的所述概率中的最大概率;
将所述最大概率对应的分类标签作为所述专用图像的样本的中间分类结果。
4.根据权利要求1所述的方法,其特征在于,所述机器学习模型为卷积神经网络模型;
所述按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,包括:
保持所述机器学习模型中按层顺序靠前的层的模型参数不变,按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
5.根据权利要求1所述的方法,其特征在于,当满足训练停止条件时结束训练后,所述方法还包括:
获取所述机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;
对所述专用图像集进行聚类,得到专用图像子集;
确定所述专用图像子集相对应的分类标签;
根据专用图像子集和相对应的分类标签,以及所述专用图像的样本和相对应的分类标签,对所述机器学习模型进行再训练。
6.根据权利要求5所述的方法,其特征在于,当满足训练停止条件时结束训练后,所述方法还包括:
将待分类的专用图像输入所述机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;
确定得到的所述概率中的最大概率;
当所述最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
7.根据权利要求5所述的方法,其特征在于,所述对所述专用图像集进行聚类,得到专用图像子集,包括:
将所述专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取所述机器学习模型的中间层所输出的相应专用图像的图像特征;
根据所述专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述专用图像为表情图像;所述分类标签为表情分类标签。
9.一种机器学习模型训练装置,所述装置包括:
获取模块,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
确定模块,用于从专用图像库中获取与分类标签相应的代表专用图像;所述代表专用图像是能表示相应分类标签的含义的专用图像;按照所述代表专用图像与专用图像库中专用图像的相似度,确定所述专用图像库中与所述代表专用图像相似的专用图像;从所述代表专用图像和所述相似的专用图像构成的集合中,选取满足差异性条件的专用图像,作为与所述分类标签相对应的专用图像的样本;其中,选取的满足差异性条件的各专用图像彼此间具有差异性;
分类模块,用于将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
训练模块,用于按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
10.根据权利要求9所述的装置,其特征在于,所述确定模块,还用于获取所述代表专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;获取所述专用图像库中专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;根据所述代表专用图像的图像特征和所述专用图像库中专用图像的图像特征,计算所述代表专用图像与专用图像库中专用图像的相似度。
11.根据权利要求9所述的装置,其特征在于,所述装置还包括:
配置模块,用于配置所述机器学习模型分类的类别数与所述分类标签的种类数相匹配;
所述分类模块还用于将所述专用图像的样本输入所述机器学习模型,得到所述专用图像的样本分类到每个分类标签所对应的概率;确定得到的所述概率中的最大概率;将所述最大概率对应的分类标签作为所述专用图像的样本的中间分类结果。
12.根据权利要求9所述的装置,其特征在于,所述机器学习模型为卷积神经网络模型;所述训练模块,还用于保持所述机器学习模型中按层顺序靠前的层的模型参数不变,按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
13.根据权利要求9所述的装置,其特征在于,所述训练模块还用于获取所述机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对所述专用图像集进行聚类,得到专用图像子集;确定所述专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及所述专用图像的样本和相对应的分类标签,对所述机器学习模型进行再训练。
14.根据权利要求13所述的装置,其特征在于,所述训练模块,还用于将待分类的专用图像输入所述机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的所述概率中的最大概率;当所述最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。
15.根据权利要求13所述的装置,其特征在于,所述训练模块,还用于将所述专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取所述机器学习模型的中间层所输出的相应专用图像的图像特征;根据所述专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
16.根据权利要求9至15中任一项所述的装置,其特征在于,所述专用图像为表情图像;所述分类标签为表情分类标签。
17.一种表情图像分类方法,基于权利要求1至7中任一项所述的机器学习模型训练方法,所述方法包括:
将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;所述训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练方法训练得到的;
确定得到的所述概率中的最大概率;
将所述待分类的表情图像分类到所述最大概率对应的分类标签。
18.一种表情图像分类装置,基于权利要求9至15中任一项所述的机器学习模型训练装置,其特征在于,所述表情图像分类装置包括:
机器学习模型,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;所述机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练装置训练得到的;
分类模块,用于确定得到的所述概率中的最大概率;将所述待分类的表情图像分类到所述最大概率对应的分类标签。
19.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8、以及17中任一项所述的方法的步骤。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8、以及17中任一项所述的方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566325.XA CN108304936B (zh) | 2017-07-12 | 2017-07-12 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
PCT/CN2018/090676 WO2019011093A1 (zh) | 2017-07-12 | 2018-06-11 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
US16/735,236 US11537884B2 (en) | 2017-07-12 | 2020-01-06 | Machine learning model training method and device, and expression image classification method and device |
US17/969,631 US20230037908A1 (en) | 2017-07-12 | 2022-10-19 | Machine learning model training method and device, and expression image classification method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566325.XA CN108304936B (zh) | 2017-07-12 | 2017-07-12 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108304936A CN108304936A (zh) | 2018-07-20 |
CN108304936B true CN108304936B (zh) | 2021-11-16 |
Family
ID=62872633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710566325.XA Active CN108304936B (zh) | 2017-07-12 | 2017-07-12 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11537884B2 (zh) |
CN (1) | CN108304936B (zh) |
WO (1) | WO2019011093A1 (zh) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359793B (zh) * | 2018-08-03 | 2020-11-17 | 创新先进技术有限公司 | 一种针对新场景的预测模型训练方法及装置 |
EP3608701A1 (de) * | 2018-08-09 | 2020-02-12 | Olympus Soft Imaging Solutions GmbH | Verfahren zur bereitstellung wenigstens einer auswertemethode für proben |
CN109242034B (zh) * | 2018-09-21 | 2020-09-15 | 阿里巴巴集团控股有限公司 | 决策树生成方法和装置 |
CN109523522B (zh) * | 2018-10-30 | 2023-05-09 | 腾讯医疗健康(深圳)有限公司 | 内窥镜图像的处理方法、装置、系统及存储介质 |
CN109840588B (zh) * | 2019-01-04 | 2023-09-08 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN111786802B (zh) * | 2019-04-03 | 2023-07-04 | 北京嘀嘀无限科技发展有限公司 | 一种事件检测的方法及装置 |
CN111652260B (zh) * | 2019-04-30 | 2023-06-20 | 上海铼锶信息技术有限公司 | 一种人脸聚类样本数量的选择方法及系统 |
CN110232403B (zh) * | 2019-05-15 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 一种标签预测方法、装置、电子设备及介质 |
CN110288089B (zh) * | 2019-06-28 | 2021-07-09 | 北京百度网讯科技有限公司 | 用于发送信息的方法和装置 |
CN110334763B (zh) * | 2019-07-04 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 模型数据文件生成、图像识别方法、装置、设备及介质 |
CN110473226B (zh) * | 2019-07-18 | 2022-03-01 | 上海联影智能医疗科技有限公司 | 图像处理网络的训练方法、计算机设备及可读存储介质 |
CN112581250B (zh) * | 2019-09-30 | 2023-12-29 | 深圳无域科技技术有限公司 | 模型生成方法、装置、计算机设备和存储介质 |
WO2021077382A1 (zh) * | 2019-10-25 | 2021-04-29 | 中新智擎科技有限公司 | 一种学习状态的判断方法、装置及智能机器人 |
CN110866564B (zh) * | 2019-11-22 | 2023-04-25 | 上海携程国际旅行社有限公司 | 多重半监督图像的季节分类方法、系统、电子设备和介质 |
CN113127667A (zh) * | 2019-12-30 | 2021-07-16 | 阿里巴巴集团控股有限公司 | 图像处理方法及装置、图像分类方法及装置 |
CN111178446B (zh) | 2019-12-31 | 2023-08-04 | 歌尔股份有限公司 | 一种基于神经网络的目标分类模型的优化方法、装置 |
CN111209946B (zh) * | 2019-12-31 | 2024-04-30 | 上海联影智能医疗科技有限公司 | 三维图像处理方法、图像处理模型训练方法及介质 |
CN111667559B (zh) * | 2020-05-27 | 2022-08-02 | 西北工业大学 | 一种基于深度迁移网络的多形态人脸情感生成方法 |
US11775822B2 (en) | 2020-05-28 | 2023-10-03 | Macronix International Co., Ltd. | Classification model training using diverse training source and inference engine using same |
CN111652320B (zh) * | 2020-06-10 | 2022-08-09 | 创新奇智(上海)科技有限公司 | 一种样本分类方法、装置、电子设备及存储介质 |
CN111723856B (zh) * | 2020-06-11 | 2023-06-09 | 广东浪潮大数据研究有限公司 | 一种图像数据处理方法、装置、设备及可读存储介质 |
CN111709485B (zh) * | 2020-06-19 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 医学影像处理方法、装置和计算机设备 |
CN111914908B (zh) * | 2020-07-14 | 2023-10-24 | 浙江大华技术股份有限公司 | 一种图像识别模型训练方法、图像识别方法及相关设备 |
CN112101542A (zh) * | 2020-07-24 | 2020-12-18 | 北京沃东天骏信息技术有限公司 | 机器学习模型的训练方法、装置、人脸的识别方法和装置 |
CN111860670B (zh) * | 2020-07-28 | 2022-05-17 | 平安科技(深圳)有限公司 | 域自适应模型训练、图像检测方法、装置、设备及介质 |
CN111970335B (zh) * | 2020-07-30 | 2021-09-07 | 腾讯科技(深圳)有限公司 | 一种信息推荐的方法、装置及存储介质 |
CN111814913A (zh) * | 2020-08-20 | 2020-10-23 | 深圳市欢太科技有限公司 | 图像分类模型的训练方法、装置、电子设备及存储介质 |
CN112418276A (zh) * | 2020-11-03 | 2021-02-26 | 北京五八信息技术有限公司 | 一种分类器的处理方法及装置 |
CN112132239B (zh) * | 2020-11-24 | 2021-03-16 | 北京远鉴信息技术有限公司 | 一种训练方法、装置、设备和存储介质 |
CN112650870A (zh) * | 2020-12-30 | 2021-04-13 | 北京天广汇通科技有限公司 | 一种训练图片排序模型的方法、图片排序的方法以及装置 |
CN112949693B (zh) * | 2021-02-02 | 2024-04-26 | 北京嘀嘀无限科技发展有限公司 | 图像分类模型的训练方法、图像分类方法、装置和设备 |
CN112861994B (zh) * | 2021-03-12 | 2023-04-28 | 中国科学院自动化研究所 | 基于Unet迁移学习的胃印戒细胞癌图像智能分类系统 |
CN112949740B (zh) * | 2021-03-17 | 2022-11-25 | 重庆邮电大学 | 一种基于多级度量的小样本图像分类方法 |
CN113052246B (zh) * | 2021-03-30 | 2023-08-04 | 北京百度网讯科技有限公司 | 用于训练分类模型及图像分类的方法和相关装置 |
CN113033689A (zh) * | 2021-04-07 | 2021-06-25 | 新疆爱华盈通信息技术有限公司 | 图像分类方法、装置、电子设备及存储介质 |
CN112988733B (zh) * | 2021-04-16 | 2021-08-27 | 北京妙医佳健康科技集团有限公司 | 一种数据质量提升和增强的方法及装置 |
CN113298791A (zh) * | 2021-05-31 | 2021-08-24 | 中电福富信息科技有限公司 | 一种基于深度学习的混合卡通的图像检测方法 |
CN113469249B (zh) * | 2021-06-30 | 2024-04-09 | 阿波罗智联(北京)科技有限公司 | 图像分类模型训练方法、分类方法、路侧设备和云控平台 |
CN113516251B (zh) * | 2021-08-05 | 2023-06-06 | 上海高德威智能交通系统有限公司 | 一种机器学习系统及模型训练方法 |
CN113723536B (zh) * | 2021-09-02 | 2024-01-26 | 国网智能科技股份有限公司 | 一种电力巡检目标识别方法及系统 |
CN113792807B (zh) * | 2021-09-16 | 2023-06-27 | 平安科技(深圳)有限公司 | 皮肤病分类模型训练方法、系统、介质和电子设备 |
CN114139729B (zh) * | 2022-01-29 | 2022-05-10 | 北京易真学思教育科技有限公司 | 机器学习模型训练方法和装置、文本识别方法和装置 |
US20240104344A1 (en) * | 2022-09-16 | 2024-03-28 | Nec Laboratories America, Inc. | Hybrid-conditional anomaly detection |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489009A (zh) * | 2013-09-17 | 2014-01-01 | 北方信息控制集团有限公司 | 基于自适应修正神经网络的模式识别方法 |
CN104111931A (zh) * | 2013-04-17 | 2014-10-22 | 中国科学院声学研究所 | 一种协议自动识别方法及其所用分类器的构造方法 |
CN106127232A (zh) * | 2016-06-16 | 2016-11-16 | 北京市商汤科技开发有限公司 | 卷积神经网络训练方法和系统、对象分类方法和分类器 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5075924B2 (ja) * | 2010-01-13 | 2012-11-21 | 株式会社日立製作所 | 識別器学習画像生成プログラム、方法、及びシステム |
US9361666B2 (en) * | 2013-10-07 | 2016-06-07 | Adobe Systems Incorporated | Learning user preferences for photo adjustments |
CN106156807B (zh) * | 2015-04-02 | 2020-06-02 | 华中科技大学 | 卷积神经网络模型的训练方法及装置 |
CN104850890B (zh) * | 2015-04-14 | 2017-09-26 | 西安电子科技大学 | 基于实例学习和Sadowsky分布的卷积神经网络参数调整方法 |
US10275684B2 (en) * | 2015-11-04 | 2019-04-30 | Samsung Electronics Co., Ltd. | Authentication method and apparatus, and method and apparatus for training a recognizer |
CN106228185B (zh) * | 2016-07-20 | 2019-10-15 | 武汉盈力科技有限公司 | 一种基于神经网络的通用图像分类识别系统及方法 |
US9947102B2 (en) * | 2016-08-26 | 2018-04-17 | Elekta, Inc. | Image segmentation using neural network method |
CN106897746B (zh) * | 2017-02-28 | 2020-03-03 | 北京京东尚科信息技术有限公司 | 数据分类模型训练方法和装置 |
-
2017
- 2017-07-12 CN CN201710566325.XA patent/CN108304936B/zh active Active
-
2018
- 2018-06-11 WO PCT/CN2018/090676 patent/WO2019011093A1/zh active Application Filing
-
2020
- 2020-01-06 US US16/735,236 patent/US11537884B2/en active Active
-
2022
- 2022-10-19 US US17/969,631 patent/US20230037908A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104111931A (zh) * | 2013-04-17 | 2014-10-22 | 中国科学院声学研究所 | 一种协议自动识别方法及其所用分类器的构造方法 |
CN103489009A (zh) * | 2013-09-17 | 2014-01-01 | 北方信息控制集团有限公司 | 基于自适应修正神经网络的模式识别方法 |
CN106127232A (zh) * | 2016-06-16 | 2016-11-16 | 北京市商汤科技开发有限公司 | 卷积神经网络训练方法和系统、对象分类方法和分类器 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
Non-Patent Citations (3)
Title |
---|
Deep Learning for Emotion Recognition on Small Datasets Using Transfer Learning;Hong-Wei Ng et al;《ResearchGate》;20151130;摘要、第1-6节 * |
Hong-Wei Ng et al.Deep Learning for Emotion Recognition on Small Datasets Using Transfer Learning.《ResearchGate》.2015, * |
How transferable are features in deep neural networks?;Jason Yosinski et al;《arXiv:1411.1792v1》;20141106;摘要、第1-5节、补充材料A-C * |
Also Published As
Publication number | Publication date |
---|---|
US20230037908A1 (en) | 2023-02-09 |
CN108304936A (zh) | 2018-07-20 |
US11537884B2 (en) | 2022-12-27 |
WO2019011093A1 (zh) | 2019-01-17 |
US20200143248A1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304936B (zh) | 机器学习模型训练方法和装置、表情图像分类方法和装置 | |
CN111523621B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
WO2019237240A1 (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
KR102570706B1 (ko) | 분류를 위한 강제된 희소성 | |
WO2022012407A1 (zh) | 一种用于神经网络的训练方法以及相关设备 | |
CN109063719B (zh) | 一种联合结构相似性和类信息的图像分类方法 | |
WO2021164625A1 (en) | Method of training an image classification model | |
CN108021908B (zh) | 人脸年龄段识别方法及装置、计算机装置及可读存储介质 | |
Wu et al. | Feedback weight convolutional neural network for gait recognition | |
CN112199536A (zh) | 一种基于跨模态的快速多标签图像分类方法和系统 | |
CN112784929B (zh) | 一种基于双元组扩充的小样本图像分类方法及装置 | |
CN110942091A (zh) | 寻找可靠的异常数据中心的半监督少样本图像分类方法 | |
CN110705489B (zh) | 目标识别网络的训练方法、装置、计算机设备和存储介质 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN113095370A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN114298122A (zh) | 数据分类方法、装置、设备、存储介质及计算机程序产品 | |
CN112668482A (zh) | 人脸识别训练方法、装置、计算机设备及存储介质 | |
CN113987236B (zh) | 基于图卷积网络的视觉检索模型的无监督训练方法和装置 | |
CN113128526B (zh) | 图像识别方法、装置、电子设备和计算机可读存储介质 | |
CN108496174B (zh) | 用于面部识别的方法和系统 | |
CN113704534A (zh) | 图像处理方法、装置及计算机设备 | |
CN111126501B (zh) | 一种图像识别方法、终端设备及存储介质 | |
Bi et al. | Critical direction projection networks for few-shot learning | |
CN110674716A (zh) | 图像识别方法、装置和存储介质 | |
CN111709473A (zh) | 对象特征的聚类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |