WO2019011093A1 - 机器学习模型训练方法和装置、表情图像分类方法和装置 - Google Patents

机器学习模型训练方法和装置、表情图像分类方法和装置 Download PDF

Info

Publication number
WO2019011093A1
WO2019011093A1 PCT/CN2018/090676 CN2018090676W WO2019011093A1 WO 2019011093 A1 WO2019011093 A1 WO 2019011093A1 CN 2018090676 W CN2018090676 W CN 2018090676W WO 2019011093 A1 WO2019011093 A1 WO 2019011093A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
machine learning
learning model
dedicated image
classification
Prior art date
Application number
PCT/CN2018/090676
Other languages
English (en)
French (fr)
Inventor
刘龙坡
万伟
陈谦
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Publication of WO2019011093A1 publication Critical patent/WO2019011093A1/zh
Priority to US16/735,236 priority Critical patent/US11537884B2/en
Priority to US17/969,631 priority patent/US20230037908A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种机器学习模型训练方法和装置(800)、表情图像分类方法及装置(1100),所述机器学习模型训练方法包括:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型(S202);确定专用图像的样本和相对应的分类标签(S204);将所述专用图像的样本输入所述机器学习模型,得到中间分类结果(S206);按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练(S208)。该方案提高了机器学习模型训练的效率。

Description

机器学习模型训练方法和装置、表情图像分类方法和装置
本申请要求于2017年07月12日提交中国国家知识产权局、申请号为201710566325.X、发明名称为“机器学习模型训练方法和装置、表情图像分类方法和装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及机器学习领域,特别是涉及一种机器学习模型训练方法和装置、表情图像分类方法和装置。
背景技术
目前,随着终端存储技术和网络技术的发展,基于图像的交互变得越来越容易,越来越多的用户选择使用图像进行交互,使得用于交互的图像数量日益增多。将图像进行合适的分类,对于用户个性化推荐、用户画像构建等都有非常重要的作用。目前,可使用训练好的机器学习模型来进行图像分类。传统的机器学习模型训练方式,通常是使用大量的训练数据来对机器学习模型进行训练,使模型习得分类规则,以提高模型的分类准确率。
然而基于传统的模型训练方式,由于需要使用大量的训练数据,在获取训练数据和使用训练数据对模型进行训练时都会耗费大量的时间,导致机器学习模型训练效率比较低。
发明内容
基于此,本申请提供一种机器学习模型训练方法和装置、表情图像分类方法和装置,可以解决传统的机器学习模型训练效率低的问题。
一种机器学习模型训练方法,应用于计算机设备,所述方法包括:
获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
确定专用图像的样本和相对应的分类标签;
将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
一种机器学习模型训练装置,所述装置包括:
获取模块,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
确定模块,用于确定专用图像的样本和相对应的分类标签;
分类模块,用于将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
训练模块,用于按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
一种表情图像分类方法,基于机器学习模型训练方法,应用于计算机设备,所述方法包括:
将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;所述训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练方法训练得到的;
确定得到的所述概率中的最大概率;
将所述待分类的表情图像分类到所述最大概率对应的分类标签。
一种表情图像分类装置,基于机器学习模型训练装置,所述表情图像分类装置包括:
机器学习模型,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;所述机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练装置训练得到的;
分类模块,用于确定得到的所述概率中的最大概率;将所述待分类的表情图像分类到所述最大概率对应的分类标签。
一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述机器学习模型训练,或者上述表情图像分类方法。
一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述的机器学习模型训练,或者实现上述表情图像分类方法。
上述机器学习模型训练方法和装置,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
上述表情图像分类方法和装置,通过将表情图像输入到已训练好的机器学习模型中, 确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
附图说明
图1为一个实施例中机器学习模型训练方法的应用环境图;
图2为一个实施例中机器学习模型训练方法的流程示意图;
图3为一个实施例中VGG模型结构示意图;
图4为另一个实施例中机器学习模型训练方法的流程示意图;
图5为一个实施例中模型再训练的步骤的流程示意图;
图6为一个实施例中对待分类的专用图像进行分类的步骤的流程示意图;
图7为一个实施例中机器学习模型训练方法的流程示意图;
图8为一个实施例中机器学习模型训练装置的结构框图;
图9为又一个实施例中机器学习模型训练装置的结构框图;
图10为一个实施例中表情图像分类方法的流程示意图;
图11为一个实施例中表情图像分类装置的结构框图。
具体实施方式
为了使本申请的技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中机器学习模型训练方法和/或表情图像分类方法的应用环境图。如图1所示,该机器学习模型训练方法和/或表情图像分类方法应用于一种计算机设备。该计算机设备可以是终端或者服务器。终端可以是台式设备或者移动终端,移动终端可以为触屏手机、平板电脑、可穿戴设备或个人阅读器等。服务器可以是独立的物理服务器、物理服务器集群或者虚拟服务器(也称云服务器)。其中,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,处理器包括中央处理器和图形处理器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器实现机器学习模型训练方法和/或表情图像分类方法。该中央处理器用于提供计算和控制能力,支撑整个计算机设备的运行,该图形处理器用于执行图形处理指令。该内存储器中也可储存有计算机可读指令,该计算 机可读指令被所述处理器执行时,可使得所述处理器执行机器学习模型训练方法和/或表情图像分类方法。本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图2为一个实施例中机器学习模型训练方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图2,该机器学习模型训练方法可以包括如下步骤:
步骤S202,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
其中,机器学习模型是经过训练后具有分类能力的机器学习算法模型。机器学习英文全称为Machine Learning,简称ML。机器学习模型可通过样本学习具备分类能力。图像训练集是用于训练机器学习模型的图像的集合。模型参数是机器学习模型的模型结构中的各个参数,能反应机器学习模型输出和输入的对应关系。
通用图像训练集是训练具有通用的分类能力的机器学习模型的图像训练集。根据通用图像训练集训练所得的机器学习模型可以称为通用的机器学习模型。通用的机器学习模型对于一般的图像都具有一定的分类能力。
在一个实施例中,计算机设备可获取根据通用图像训练集训练好的机器学习模型的模型结构和模型参数,并将该模型参数导入该模型结构,得到带有模型参数的机器学习模型。机器学习模型所带的模型参数,作为本实施例中训练机器学习模型的初始参数参与到训练中。
在一个实施例中,通用图像训练集可以是由Image Net(图像识别数据库)中的图像组成的通用图像训练集,相应的机器学习模型可以是VGG(Visual Geometry Group视觉集合组)网络模型、GoogleNet(谷歌网路)网络模型或ResNet(能效评估系统)网络模型等。
步骤S204,确定专用图像的样本和相对应的分类标签。
其中,专用图像是具有专门用途的图像,相对于通用图像训练集中的图像是专用的。根据专用图像训练得到的机器学习模型可以称为专用的机器学习模型。其中,专用图像可以细分为不同的类别。通用的机器学习模型所能够分类的类别数,可以多于专用的机器学习模型所能够分类的类别数。专用图像的样本是训练专用的机器学习模型的专用图像。分类标签是标注专用图像的样本所属类别的数据。在一个实施例中,专用图像可以是表情图像、应用图标、广告图像或风格艺术图像等。当该专用图像为表情图像时,该专用图像的样本相对应的分类标签可以包括节日类、爱情类、萌系类、真人类和恶趣味类等。
在一个实施例中,计算机设备可以从专用图像库中选择多个专用图像作为专用图像的样本,将专用图像的样本进行分类,并为每一类的专用图像的样本分配分类标签。
在另一个实施例中,计算机设备可以先确定分类标签和相应的标签定义,从而按照分类标签相应的定义,从专用图像库中选择符合该分类标签的定义的部分专用图像,作为该分类标签相对应的专用图像的样本。
步骤S206,将专用图像的样本输入机器学习模型,得到中间分类结果。
其中,中间分类结果是在训练过程中,向机器学习模型输入专用图像的样本后,由该机器学习模型所输出的分类结果。
在一个实施例中,计算机设备可将专用图像的样本输入到机器学习模型后,由该机器学习模型判定专用图像的样本所属的分类标签,从而将该分类标签作为中间分类结果。
步骤S208,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的机器学习模型。
其中,训练停止条件是结束模型训练的条件。训练停止条件可以是调整机器学习模型的模型参数并继续训练的次数达到预设的迭代次数,或者是调整模型参数后的机器学习模型的分类性能指标达到预设指标。调整机器学习模型的模型参数,是对机器学习模型的模型参数进行调整。
可选地,计算机设备可比较中间分类结果与分类标签的差异,从而朝减少差异的方向,以比根据通用图像训练集训练机器学习模型的学习率小的学习率,调整机器学习模型的模型参数。如果调整模型参数后,不满足训练停止条件,则返回步骤S206继续训练,直到满足训练停止条件时结束训练。其中,学习率(Learning Rate)是机器学习模型训练过程中一个重要的超参数,学习率可以控制基于损失梯度调整神经网络权值的速度,一般学习率越小,损失梯度下降的速度越慢,训练会变得更加可靠,但是会耗费较长的时间。
在一个实施例中,调整机器学习模型的模型参数可以是局部调整机器学习模型的模型参数。例如可保持部分模型参数不变,对另一部分模型参数做调整。
在一个实施例中,中间分类结果与分类标签的差异可以用代价函数来衡量。代价函数是模型参数的函数,是能够衡量机器学习模型的中间分类结果与分类标签之间的差异的函数。计算机设备可在代价函数的值小于预先设定的值时结束训练,得到用于对专用图像进行分类的机器学习模型。计算机设备可以选择交叉熵或均方误差等函数作为代价函数。
上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模 型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,步骤S204包括:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
其中,专用图像库是已知的专用图像的集合库,包含了所有的专用图像。代表专用图像是分类标签相应类的专用图像中能代表此类专用图像的专用图像。满足差异性条件,是指代表专用图像和相似的专用图像所构成的专用图像集合中,各专用图像彼此间具有通过数学条件约束的差异性。
在一个实施例中,计算机设备可按照分类标签的含义,从专用图像库选取能表示分类标签的含义的专用图像作为代表专用图像。在一个实施例中,可人工从专用图像库中选取与分类标签相应的代表专用图像。
在一个实施例中,计算机设备可获取代表专用图像与专用图像库中各专用图像的相似度,从而按照相似度大小将专用图像库中的专用图像排序,从最大相似度的专用图像开始选取连续的指定数量的相似的专用图像,再从选取的相似的专用图像和代表专用图像中挑选满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像时,可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的差异性比对,从而确定满足差异性条件的专用图像。例如,若该集合中某个专用图像与集合中的其他每个专用图像的差异均较大,则可以将该专用图像确定为满足差异性条件的专用图像。
其中,差异较大的两个专用图像,可以是差异性超过预设值的两个专用图像,也可以是两两对比的差异性中从大到小排序后靠前的预设数量的差异性所对应的两个专用图像。
在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像时,可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的相似度比对,剔除近似的两个专用图像中的其中一个,得到满足差异性条件的专用图像。
其中,近似的两个专用图像,可以是相似度超过预设值的两个专用图像,也可以是两两对比的相似度中从大到小排序后靠前的预设数量的相似度所对应的两个专用图像。
上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专 用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。
在一个实施例中,步骤S204还包括:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
其中,机器学习模型的中间层是机器学习模型的输入层和输出层之间的层。专用图像的图像特征,是表示相应专用图像区别于其它图像的特性。相似度可采用余弦相似度或者图像间各自感知哈希值的汉明距离。
在一个实施例中,机器学习模型为卷积神经网络模型。其中,卷积神经网络(Convolutional Neural Network,简称CNN)是一种人工神经网络。卷积神经网络包括卷积层(Convolutional Layer)和子采样层(Pooling Layer)。
在卷积神经网络的卷积层中,存在多个特征图(Feature Map),每个特征图包括多个神经元,同一个特征图的所有神经元共用一个卷积核。卷积核就是相应神经元的权值,卷积核代表一个特征。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中将学习得到合理的卷积核。卷积层可以减少神经网络中各层之间的连接,同时又降低了过拟合的风险。
子采样也叫做池化(Pooling),通常有均值子采样(Mean Pooling)和最大值子采样(Max Pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了神经网络的复杂度,减少了神经网络的参数。
卷积神经网络模型是使用了卷积神经网络算法训练而成的机器学习模型。本实施例所采用卷积神经网络可直接构建,也可将已有的卷积神经网络进行改造得到。
在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将代表专用图像输入到卷积神经网络模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为代表专用图像的图像特征。
在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将专用图像库中的专用图像输入到机器学习模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为输入的专用图像的图像特征。
举例说明,如图3所示,计算机设备可采用8层VGG模型作为需要训练的机器学习模型,其中c1-c5层为卷积层,fc6-fc8层为全连接层。计算机设备将代表专用图像从c1层 输入,提取该VGG模型中fc7全连接层输出的图像特征。同理,计算机设备可以将专用图像库中的专用图像从c1层输入,并提取该VGG模型中fc7全连接层输出的图像特征。之后,计算机设备即可根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。
如图4所示,在一个可选实施例中,机器学习模型训练方法包括以下步骤:
步骤S402,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
该步骤S402的实现过程可以参考上述步骤S202中的描述,此处不再赘述。
步骤S404,确定专用图像的样本和相对应的分类标签。
该步骤S404的实现过程可以参考上述步骤S204中的描述,此处不再赘述。
步骤S406,配置机器学习模型分类的类别与分类标签的种类相匹配。
可选地,计算机设备可将机器学习模型的模型参数中分类的类别数配置成分类标签的种类数,并使得机器学习模型的模型参数中分类的类别与分类标签相匹配,使机器学习模型的输出数量和分类标签的种类数相对应。
步骤S408,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。
可选地,计算机设备可将专用图像的样本输入机器学习模型,机器学习模型对专用图像的样本进行处理后可得到与分类标签对应数目的输出,每个输出分别表示此专用图像的样本属于某个分类标签所对应的概率。
例如,假设分类标签的种类数为N(N为大于1的整数),则机器学习模型对专用图像的样本进行处理后可得到N个输出,其中第n(n为不大于N的正整数)个输出可以表示此专用图像的样本属于第n个分类标签所对应的概率。
步骤S410,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将专用图像的样本分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
例如,计算机设备可以对比上述步骤S408中得到的N个概率,并确定该N个概率中的最大概率。
步骤S412,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
可选地,计算机设备可在确定最大概率后,获取该最大概率对应的分类标签,从而将 该分类标签作为专用图像的样本的中间分类结果。
例如,假设计算机设备确定该N个概率中的最大概率为第2个概率,则可以将该第2个概率对应的分类标签作为专用图像的样本的中间分类结果。
步骤S414,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的机器学习模型。
在一个实施例中,计算机设备可将专用图像的样本相对应的分类标签,表示为该分类标签相对于分类标签集的分布向量,将最大概率对应的分类标签(即中间分类结果)也表示为该分类标签相对于分类标签集的分布向量,从而计算分布向量之间的向量相似度,通过向量相似度衡量中间分类结果与分类标签的差异。
其中,分布向量中元素数量与分类标签的种类数相等,且每个元素对应于一种分类标签。将分类标签表示为分布向量时,将分布向量中与该分类标签对应的元素置为第一值,将分布向量中除该分类标签所对应元素之外的元素置为第二值。第一值比如可以是1,第二值比如可以是0。
上述实施例中,通过配置机器学习模型分类的类别与分类标签的种类相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。
在一个实施例中,机器学习模型为卷积神经网络模型。步骤S208包括:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。其中,按层顺序靠前的层可以是指机器学习模型中的前指定数量层,例如前三层。按层顺序靠后的层可以是指机器学习模型中的前指定数量层之后的层,例如前三层之后的层。
可选地,在机器学习模型训练过程中,由于机器学习模型中按层顺序靠前的层提取的是专用图像的样本中的低阶特征,而通用图像训练集中的通用图像和专用图像库中专用图像的低阶特征差异不大,所以可以将通用图像训练集训练所得的机器学习模型中的靠前的层的模型参数在训练过程中保持不变。同时在模型训练过程中调整机器学习模型中按层顺序靠后的层的模型参数,直至满足训练停止条件时结束训练。
例如,对于机器学习模型是VGG模型的模型训练方法,可在模型训练过程中保持VGG模型中的前三层卷积层的模型参数不变,例如可保持前三层卷积层中卷积核内的数值不变, 以比根据通用图像训练集训练机器学习模型的学习率小的学习率调整后面的层的模型参数,例如可根据该学习率调整前三层之后的卷积层中卷积核内的数值和全连接层中的全连接层矩阵系数。
上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。
在一个实施例中,步骤S208之后,该机器学习模型训练方法还包括模型再训练的步骤,如图5所示,模型再训练的步骤可以包括:
步骤S502,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。
其中,分类失败是对输入到机器学习模型中的待分类的专用图像的输出不满足此专用图像属于对应分类标签的条件时,无法将专用图像分类到对应的分类标签。
可选地,当机器学习模型对待分类的专用图像分类失败时,可将所有分类失败的专用图像集合,构成未分类的专用图像集。
步骤S504,对专用图像集进行聚类,得到专用图像子集。
其中,聚类是以专用图像的相似性为基础,将专用图像集分成由相似的专用图像组成的一个或多个专用图像子集。聚类算法可以是划分法(Partitioning Methods)、层次法(Hierarchical Methods)、密度算法(Density-based Methods)、K均值(K-means)算法、谱聚类(spectral clustering)算法或者图论聚类法等聚类分析算法。
在一个实施例中,计算机设备对专用图像集进行聚类,如果聚类成功,则将相似的专用图像组成专用图像子集。每个专用图像子集中的专用图像具有相似性,与其他专用图像子集具有差异性。
在另一个实施例中,计算机设备对专用图像集进行聚类,未能提取到具有相似性的专用图像,则聚类不成功,聚类不成功的专用图像可仍旧保留到未分类的专用图像集中。
步骤S506,确定专用图像子集相对应的分类标签。
可选地,计算机设备可以根据专用图像子集中专用图像的共同特征,生成专用图像子集相对应的分类标签。分类标签可以很好的概括专用图像子集中专用图像的共性特征。
步骤S508,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机设备可将专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签进行合并,获得新的专用图像的样本和相应的分类标签。计算 机设备使用新的专用图像的样本和相应的分类标签,执行上述步骤S202至步骤S208,以对机器学习模型进行再训练。
上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。
在一个实施例中,步骤S208之后,该机器学习模型训练方法还包括对待分类的专用图像进行分类的步骤,如图6所示,对待分类的专用图像进行分类的步骤可以包括:
步骤S602,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。
可选地,计算机设备将待分类的专用图像输入机器学习模型,机器学习模型对待分类的专用图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此专用图像属于对应的分类标签的概率。
步骤S604,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将待分类的专用图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
步骤S606,当最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机设备可通过比较确定得到的概率中的最大概率与分类阈值的大小来判断分类是否成功。当最大概率大于分类阈值时,则将输入的专用图像分类到最大概率所对应的分类标签,即分类成功。当最大概率小于分类阈值时,即分类失败,则将输入的专用图像添加至未分类的专用图像集。
上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的分类标签,进一步提高机器学习模型的分类能力。
在一个实施例中,步骤S504包括:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
可选地,计算机设备可将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,提取由机器学习模型的中间层所输出的图像特征。根据图像特征进行聚类,判断同个聚类中心内的专用图像是否符合同个分类标签的定义,若是,则计算同个聚类中心内的专用图像的图像特征到聚类中心的欧氏距离之和是否小于预设值,若是,则聚类成功;否则,则聚类不成功。同个聚类中心内的聚类成功的专用图像构成专用图像子集。
在一个实施例中,计算机设备根据图像特征进行聚类时设置的聚类中心的个数可以为2至5个。可选地,该计算机设备还可以实现聚类过程和聚类结果的可视化。
上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。
在一个实施例中,专用图像为表情图像,分类标签为表情分类标签。其中,表情图像是用卡通人物、卡通动物或真人图像等来模拟人类表情的图像,可通过在终端上使用来帮助实现人们日常沟通和交流。可选地,专用图像可以为表情图像,例如现在广泛应用于即时通讯应用中的模拟真人表情的表情图像、卡通动物的表情图像等。对应地,分类标签可以是和表情图像相对应的表情分类标签。
如图7所示,在一个可选的实施例中,机器学习模型训练方法包括以下步骤:
步骤S702,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
步骤S704,获取与分类标签相应的代表专用图像。
步骤S706,获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。
步骤S708,获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。
步骤S710,根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
步骤S712,按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像。
步骤S714,从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
步骤S716,配置机器学习模型分类的类别与分类标签的种类相匹配。
步骤S718,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。
步骤S720,确定得到的概率中的最大概率。
步骤S722,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
步骤S724,保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的机器学习模型。
步骤S726,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。
步骤S728,确定得到的概率中的最大概率。
步骤S730,当最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
步骤S732,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。
步骤S734,将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征。
步骤S736,根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
步骤S738,确定专用图像子集相对应的分类标签。
步骤S740,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
上述步骤S702至步骤S740的实现过程可以参考上述方法实施例中对应步骤的描述,此处不再赘述。
上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。而且,基于根据通用图像训练集训练得到的包括有模型参数的机器学习模型进行训练,可大大减少由少量训练数据训练模型时所产生的过拟合风险。
如图8所示,在一个实施例中,提供了一种机器学习模型训练装置800,包括:获取模块801、确定模块802、分类模块803和训练模块804。
获取模块801,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。
确定模块802,用于确定专用图像的样本和相对应的分类标签。
分类模块803,用于将专用图像的样本输入机器学习模型,得到中间分类结果。
训练模块804,用于按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的机器学习模型。
上述机器学习模型训练装置800,通过获取根据通用图像训练集训练得到的包括有模型 参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,确定模块802还用于获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。
在一个实施例中,确定模块802还用于获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。
如图9所示,在一个实施例中,机器学习模型训练装置800还包括:配置模块805。
配置模块805,用于配置机器学习模型分类的类别与分类标签的种类相匹配。
分类模块803还用于将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
上述实施例中,通过配置机器学习模型分类的类别与分类标签的种类相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。
在一个实施例中,机器学习模型为卷积神经网络模型。训练模块804还用于保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调 整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。其中,按层顺序靠前的层可以是指机器学习模型中的前指定数量层,按层顺序靠后的层可以是指机器学习模型中的前指定数量层之后的层。
上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。
在一个实施例中,训练模块804还用于获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。
在一个实施例中,训练模块804还用于将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的分类标签,进一步提高机器学习模型的分类能力。
在一个实施例中,训练模块804还用于将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和模块的工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图10为一个实施例中表情图像分类方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图10,该表情图像分类方法可以包括如下步骤:
步骤S1002,将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用 图像的样本、并采用机器学习模型训练方法训练得到的。
可选地,计算机设备将待分类的表情图像输入训练好的机器学习模型,训练好的机器学习模型对待分类的表情图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此表情图像属于对应的分类标签的概率。其中,训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的,
步骤S1004,确定得到的概率中的最大概率。
在一个实施例中,计算机设备可通过将待分类的表情图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。
步骤S1006,将待分类的表情图像分类到最大概率对应的分类标签。
在一个实施例中,计算机设备将输入的表情图像分类到最大概率所对应的分类标签。
上述表情图像分类方法,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
此外,通过本申请提供的表情图像分类方法对即时通讯应用中的表情图像进行分类后,还可以根据用户历史发送过的表情图像所属的分类标签,构造用户画像,以便对用户进行个性化推荐或者广告投放等操作。其中,用户画像可以是根据用户社会属性、生活习惯和消费行为等信息而抽象出的一个标签化的用户模型。
如图11所示,在一个实施例中,提供了一种表情图像分类装置1100,包括:机器学习模型1101和分类模块1102。
机器学习模型1101,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练装置训练得到的。
分类模块1102,用于确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述表情图像分类装置,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
在一个实施例中,本申请提供的机器学习模型训练装置可以实现为一种计算机程序的形式。所述计算机程序可在如图1所示的计算机设备上运行,所述计算机设备的非易失性存储介质可存储组成该机器学习模型训练装置的各个程序模块,比如,图8所示的获取模块801。各个程序模块中包括计算机可读指令,所述计算机可读指令用于使所述计算机设备执行本说明书中描述的本申请各个实施例的应用程序处理方法中的步骤。例如,所述计算机设备可以通过如图8所示的机器学习模型训练装置800,通过获取模块801获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,通过分类模块803输入由确定模块802确定的专用图像的样本,得到中间分类结果,再通过训练模块804根据模型训练结果来调整上述机器学习模型的模型参数,以提高机器学习模型的分类准确率。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时可以执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别与分类标签的种类相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时可以执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为 专用图像的样本的中间分类结果。
在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时可以执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时可以执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述计算机设备,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述计算机设备,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的 分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时可以执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。
在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。
在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别与分类标签的种类相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时可以执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。
在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时可以执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。
在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时可以执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
上述计算机可读存储介质,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。
一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。
上述计算机可读存储介质,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。
本申请还提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由该处理器加载并执行以实现上述方法实施例提供的机器学习模型训练,或者上述方法实施例提供的表情图像分类方法。
本申请还提供了一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、该至少一段程序、该代码集或指令集由处理器加载并执行以实现上述方法实施例提供的的机器学习模型训练,或者实现上述方法实施例提供的表情图像分类方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (20)

  1. 一种机器学习模型训练方法,其特征在于,应用于计算机设备,所述方法包括:
    获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
    确定专用图像的样本和相对应的分类标签;
    将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
    按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
  2. 根据权利要求1所述的方法,其特征在于,所述确定专用图像的样本和相对应的分类标签包括:
    获取与分类标签相应的代表专用图像;
    按照所述代表专用图像与专用图像库中专用图像的相似度,确定所述专用图像库中与所述代表专用图像相似的专用图像;
    从所述代表专用图像和所述相似的专用图像中,选取满足差异性条件的专用图像,作为与所述分类标签相对应的专用图像的样本。
  3. 根据权利要求2所述的方法,其特征在于,所述获取与分类标签相应的代表专用图像之后,所述确定专用图像的样本和相对应的分类标签还包括:
    获取所述代表专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
    获取所述专用图像库中专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
    根据所述代表专用图像的图像特征和所述专用图像库中专用图像的图像特征,计算所述代表专用图像与专用图像库中专用图像的相似度。
  4. 根据权利要求1所述的方法,其特征在于,所述将所述专用图像的样本输入所述机器学习模型,得到中间分类结果之前,所述方法还包括:
    配置所述机器学习模型分类的类别与所述分类标签的种类相匹配;
    所述将所述专用图像的样本输入所述机器学习模型,得到中间分类结果,包括:
    将所述专用图像的样本输入所述机器学习模型,得到所述专用图像的样本分类到每个分类标签所对应的概率;
    确定得到的所述概率中的最大概率;
    将所述最大概率对应的分类标签作为所述专用图像的样本的中间分类结果。
  5. 根据权利要求1所述的方法,其特征在于,所述机器学习模型为卷积神经网络模型;
    所述按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,包括:
    保持所述机器学习模型中前指定数量层的模型参数不变,按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型中所述前指定数量层后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
  6. 根据权利要求1所述的方法,其特征在于,当满足训练停止条件时结束训练后,所述方法还包括:
    获取所述机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;
    对所述专用图像集进行聚类,得到专用图像子集;
    确定所述专用图像子集相对应的分类标签;
    根据专用图像子集和相对应的分类标签,以及所述专用图像的样本和相对应的分类标签,对所述机器学习模型进行再训练。
  7. 根据权利要求6所述的方法,其特征在于,当满足训练停止条件时结束训练后,所述方法还包括:
    将待分类的专用图像输入所述机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;
    确定得到的所述概率中的最大概率;
    当所述最大概率低于阈值时判定分类失败,并将输入的专用图像添加至未分类的专用图像集。
  8. 根据权利要求6所述的方法,其特征在于,所述对所述专用图像集进行聚类,得到专用图像子集,包括:
    将所述专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取所述机器学习模型的中间层所输出的相应专用图像的图像特征;
    根据所述专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。
  9. 根据权利要求1至8中任一项所述的方法,其特征在于,所述专用图像为表情图像;所述分类标签为表情分类标签。
  10. 根据权利要求1至8中任一项所述的方法,其特征在于,所述训练停止条件,包括:
    调整模型参数并继续训练的次数达到预设的迭代次数,或者调整模型参数后的所述机器学习模型的分类性能指标达到预设指标。
  11. 一种机器学习模型训练装置,其特征在于,所述装置包括:
    获取模块,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;
    确定模块,用于确定专用图像的样本和相对应的分类标签;
    分类模块,用于将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;
    训练模块,用于按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练,得到调整模型参数后的所述机器学习模型。
  12. 根据权利要求11所述的装置,其特征在于,所述确定模块还用于获取与分类标签相应的代表专用图像;按照所述代表专用图像与专用图像库中专用图像的相似度,确定所述专用图像库中与所述代表专用图像相似的专用图像;从所述代表专用图像和所述相似的专用图像中,选取满足差异性条件的专用图像,作为与所述分类标签相对应的专用图像的样本。
  13. 根据权利要求12所述的装置,其特征在于,所述确定模块还用于:
    获取所述代表专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
    获取所述专用图像库中专用图像在输入到所述机器学习模型后,由所述机器学习模型的中间层输出的图像特征;
    根据所述代表专用图像的图像特征和所述专用图像库中专用图像的图像特征,计算所述代表专用图像与专用图像库中专用图像的相似度。
  14. 根据权利要求11所述的装置,其特征在于,所述装置还包括:
    配置模块,用于配置所述机器学习模型分类的类别与所述分类标签的种类相匹配;
    所述分类模块还用于将所述专用图像的样本输入所述机器学习模型,得到所述专用图像的样本分类到每个分类标签所对应的概率;确定得到的所述概率中的最大概率;将所述最大概率对应的分类标签作为所述专用图像的样本的中间分类结果。
  15. 根据权利要求11所述的装置,其特征在于,所述机器学习模型为卷积神经网络模型;
    所述训练模块用于:保持所述机器学习模型中前指定数量层的模型参数不变,按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型中所述前指定数量层后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。
  16. 根据权利要求11所述的装置,其特征在于,所述训练模块还用于获取所述机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对所述专用图像集进行聚类,得到专用图像子集;确定所述专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及所述专用图像的样本和相对应的分类标签,对所述机器学习模型 进行再训练。
  17. 一种表情图像分类方法,基于权利要求1至10中任一项所述的机器学习模型训练方法,其特征在于,应用于计算机设备,所述方法包括:
    将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;所述训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练方法训练得到的;
    确定得到的所述概率中的最大概率;
    将所述待分类的表情图像分类到所述最大概率对应的分类标签。
  18. 一种表情图像分类装置,基于权利要求11至16中任一项所述的机器学习模型训练装置,其特征在于,所述表情图像分类装置包括:
    机器学习模型,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;所述机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练装置训练得到的;
    分类模块,用于确定得到的所述概率中的最大概率;将所述待分类的表情图像分类到所述最大概率对应的分类标签。
  19. 一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至10任一所述的机器学习模型训练,或者实现如权利要求17所述的表情图像分类方法。
  20. 一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至10任一所述的机器学习模型训练,或者实现如权利要求17所述的表情图像分类方法。
PCT/CN2018/090676 2017-07-12 2018-06-11 机器学习模型训练方法和装置、表情图像分类方法和装置 WO2019011093A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/735,236 US11537884B2 (en) 2017-07-12 2020-01-06 Machine learning model training method and device, and expression image classification method and device
US17/969,631 US20230037908A1 (en) 2017-07-12 2022-10-19 Machine learning model training method and device, and expression image classification method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710566325.X 2017-07-12
CN201710566325.XA CN108304936B (zh) 2017-07-12 2017-07-12 机器学习模型训练方法和装置、表情图像分类方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/735,236 Continuation US11537884B2 (en) 2017-07-12 2020-01-06 Machine learning model training method and device, and expression image classification method and device

Publications (1)

Publication Number Publication Date
WO2019011093A1 true WO2019011093A1 (zh) 2019-01-17

Family

ID=62872633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/090676 WO2019011093A1 (zh) 2017-07-12 2018-06-11 机器学习模型训练方法和装置、表情图像分类方法和装置

Country Status (3)

Country Link
US (2) US11537884B2 (zh)
CN (1) CN108304936B (zh)
WO (1) WO2019011093A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866564A (zh) * 2019-11-22 2020-03-06 上海携程国际旅行社有限公司 多重半监督图像的季节分类方法、系统、电子设备和介质
CN110945522A (zh) * 2019-10-25 2020-03-31 中新智擎科技有限公司 一种学习状态的判断方法、装置及智能机器人
CN111652260A (zh) * 2019-04-30 2020-09-11 上海铼锶信息技术有限公司 一种人脸聚类样本数量的选择方法及系统
CN111667559A (zh) * 2020-05-27 2020-09-15 西北工业大学 一种基于深度迁移网络的多形态人脸情感生成方法
CN111723856A (zh) * 2020-06-11 2020-09-29 广东浪潮大数据研究有限公司 一种图像数据处理方法、装置、设备及可读存储介质
CN112418276A (zh) * 2020-11-03 2021-02-26 北京五八信息技术有限公司 一种分类器的处理方法及装置
CN112581250A (zh) * 2019-09-30 2021-03-30 深圳无域科技技术有限公司 模型生成方法、装置、计算机设备和存储介质
CN112949740A (zh) * 2021-03-17 2021-06-11 重庆邮电大学 一种基于多级度量的小样本图像分类方法
CN112949693A (zh) * 2021-02-02 2021-06-11 北京嘀嘀无限科技发展有限公司 图像分类模型的训练方法、图像分类方法、装置和设备
CN113052246A (zh) * 2021-03-30 2021-06-29 北京百度网讯科技有限公司 用于训练分类模型及图像分类的方法和相关装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359793B (zh) * 2018-08-03 2020-11-17 创新先进技术有限公司 一种针对新场景的预测模型训练方法及装置
EP3608701A1 (de) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Verfahren zur bereitstellung wenigstens einer auswertemethode für proben
CN109242034B (zh) * 2018-09-21 2020-09-15 阿里巴巴集团控股有限公司 决策树生成方法和装置
CN109523522B (zh) * 2018-10-30 2023-05-09 腾讯医疗健康(深圳)有限公司 内窥镜图像的处理方法、装置、系统及存储介质
CN109840588B (zh) * 2019-01-04 2023-09-08 平安科技(深圳)有限公司 神经网络模型训练方法、装置、计算机设备及存储介质
CN111786802B (zh) * 2019-04-03 2023-07-04 北京嘀嘀无限科技发展有限公司 一种事件检测的方法及装置
CN110232403B (zh) * 2019-05-15 2024-02-27 腾讯科技(深圳)有限公司 一种标签预测方法、装置、电子设备及介质
CN110288089B (zh) * 2019-06-28 2021-07-09 北京百度网讯科技有限公司 用于发送信息的方法和装置
CN110334763B (zh) * 2019-07-04 2021-07-23 北京字节跳动网络技术有限公司 模型数据文件生成、图像识别方法、装置、设备及介质
CN110473226B (zh) * 2019-07-18 2022-03-01 上海联影智能医疗科技有限公司 图像处理网络的训练方法、计算机设备及可读存储介质
CN113127667A (zh) * 2019-12-30 2021-07-16 阿里巴巴集团控股有限公司 图像处理方法及装置、图像分类方法及装置
CN111178446B (zh) 2019-12-31 2023-08-04 歌尔股份有限公司 一种基于神经网络的目标分类模型的优化方法、装置
CN111209946B (zh) * 2019-12-31 2024-04-30 上海联影智能医疗科技有限公司 三维图像处理方法、图像处理模型训练方法及介质
US11775822B2 (en) 2020-05-28 2023-10-03 Macronix International Co., Ltd. Classification model training using diverse training source and inference engine using same
CN111652320B (zh) * 2020-06-10 2022-08-09 创新奇智(上海)科技有限公司 一种样本分类方法、装置、电子设备及存储介质
CN111709485B (zh) * 2020-06-19 2023-10-31 腾讯科技(深圳)有限公司 医学影像处理方法、装置和计算机设备
CN111914908B (zh) * 2020-07-14 2023-10-24 浙江大华技术股份有限公司 一种图像识别模型训练方法、图像识别方法及相关设备
CN112101542A (zh) * 2020-07-24 2020-12-18 北京沃东天骏信息技术有限公司 机器学习模型的训练方法、装置、人脸的识别方法和装置
CN111860670B (zh) * 2020-07-28 2022-05-17 平安科技(深圳)有限公司 域自适应模型训练、图像检测方法、装置、设备及介质
CN111970335B (zh) * 2020-07-30 2021-09-07 腾讯科技(深圳)有限公司 一种信息推荐的方法、装置及存储介质
CN111814913A (zh) * 2020-08-20 2020-10-23 深圳市欢太科技有限公司 图像分类模型的训练方法、装置、电子设备及存储介质
CN112132239B (zh) * 2020-11-24 2021-03-16 北京远鉴信息技术有限公司 一种训练方法、装置、设备和存储介质
CN112650870A (zh) * 2020-12-30 2021-04-13 北京天广汇通科技有限公司 一种训练图片排序模型的方法、图片排序的方法以及装置
CN112861994B (zh) * 2021-03-12 2023-04-28 中国科学院自动化研究所 基于Unet迁移学习的胃印戒细胞癌图像智能分类系统
CN113033689A (zh) * 2021-04-07 2021-06-25 新疆爱华盈通信息技术有限公司 图像分类方法、装置、电子设备及存储介质
CN112988733B (zh) * 2021-04-16 2021-08-27 北京妙医佳健康科技集团有限公司 一种数据质量提升和增强的方法及装置
CN113298791A (zh) * 2021-05-31 2021-08-24 中电福富信息科技有限公司 一种基于深度学习的混合卡通的图像检测方法
CN113469249B (zh) * 2021-06-30 2024-04-09 阿波罗智联(北京)科技有限公司 图像分类模型训练方法、分类方法、路侧设备和云控平台
CN113516251B (zh) * 2021-08-05 2023-06-06 上海高德威智能交通系统有限公司 一种机器学习系统及模型训练方法
CN113723536B (zh) * 2021-09-02 2024-01-26 国网智能科技股份有限公司 一种电力巡检目标识别方法及系统
CN113792807B (zh) * 2021-09-16 2023-06-27 平安科技(深圳)有限公司 皮肤病分类模型训练方法、系统、介质和电子设备
CN114139729B (zh) * 2022-01-29 2022-05-10 北京易真学思教育科技有限公司 机器学习模型训练方法和装置、文本识别方法和装置
US20240104344A1 (en) * 2022-09-16 2024-03-28 Nec Laboratories America, Inc. Hybrid-conditional anomaly detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150098646A1 (en) * 2013-10-07 2015-04-09 Adobe Systems Incorporated Learning user preferences for photo adjustments
CN104850890A (zh) * 2015-04-14 2015-08-19 西安电子科技大学 基于实例学习和Sadowsky分布的卷积神经网络参数调整方法
CN106156807A (zh) * 2015-04-02 2016-11-23 华中科技大学 卷积神经网络模型的训练方法及装置
CN106228185A (zh) * 2016-07-20 2016-12-14 武汉盈力科技有限公司 一种基于神经网络的通用图像分类识别系统及方法
CN106897746A (zh) * 2017-02-28 2017-06-27 北京京东尚科信息技术有限公司 数据分类模型训练方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5075924B2 (ja) * 2010-01-13 2012-11-21 株式会社日立製作所 識別器学習画像生成プログラム、方法、及びシステム
CN104111931A (zh) * 2013-04-17 2014-10-22 中国科学院声学研究所 一种协议自动识别方法及其所用分类器的构造方法
CN103489009B (zh) * 2013-09-17 2016-08-17 北方信息控制集团有限公司 基于自适应修正神经网络的模式识别方法
US10275684B2 (en) * 2015-11-04 2019-04-30 Samsung Electronics Co., Ltd. Authentication method and apparatus, and method and apparatus for training a recognizer
CN106127232B (zh) * 2016-06-16 2020-01-14 北京市商汤科技开发有限公司 卷积神经网络训练方法和系统、对象分类方法和分类器
CN106295566B (zh) * 2016-08-10 2019-07-09 北京小米移动软件有限公司 人脸表情识别方法及装置
US9947102B2 (en) * 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150098646A1 (en) * 2013-10-07 2015-04-09 Adobe Systems Incorporated Learning user preferences for photo adjustments
CN106156807A (zh) * 2015-04-02 2016-11-23 华中科技大学 卷积神经网络模型的训练方法及装置
CN104850890A (zh) * 2015-04-14 2015-08-19 西安电子科技大学 基于实例学习和Sadowsky分布的卷积神经网络参数调整方法
CN106228185A (zh) * 2016-07-20 2016-12-14 武汉盈力科技有限公司 一种基于神经网络的通用图像分类识别系统及方法
CN106897746A (zh) * 2017-02-28 2017-06-27 北京京东尚科信息技术有限公司 数据分类模型训练方法和装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652260A (zh) * 2019-04-30 2020-09-11 上海铼锶信息技术有限公司 一种人脸聚类样本数量的选择方法及系统
CN111652260B (zh) * 2019-04-30 2023-06-20 上海铼锶信息技术有限公司 一种人脸聚类样本数量的选择方法及系统
CN112581250B (zh) * 2019-09-30 2023-12-29 深圳无域科技技术有限公司 模型生成方法、装置、计算机设备和存储介质
CN112581250A (zh) * 2019-09-30 2021-03-30 深圳无域科技技术有限公司 模型生成方法、装置、计算机设备和存储介质
CN110945522A (zh) * 2019-10-25 2020-03-31 中新智擎科技有限公司 一种学习状态的判断方法、装置及智能机器人
CN110945522B (zh) * 2019-10-25 2023-09-12 中新智擎科技有限公司 一种学习状态的判断方法、装置及智能机器人
CN110866564B (zh) * 2019-11-22 2023-04-25 上海携程国际旅行社有限公司 多重半监督图像的季节分类方法、系统、电子设备和介质
CN110866564A (zh) * 2019-11-22 2020-03-06 上海携程国际旅行社有限公司 多重半监督图像的季节分类方法、系统、电子设备和介质
CN111667559A (zh) * 2020-05-27 2020-09-15 西北工业大学 一种基于深度迁移网络的多形态人脸情感生成方法
CN111723856A (zh) * 2020-06-11 2020-09-29 广东浪潮大数据研究有限公司 一种图像数据处理方法、装置、设备及可读存储介质
CN111723856B (zh) * 2020-06-11 2023-06-09 广东浪潮大数据研究有限公司 一种图像数据处理方法、装置、设备及可读存储介质
CN112418276A (zh) * 2020-11-03 2021-02-26 北京五八信息技术有限公司 一种分类器的处理方法及装置
CN112949693A (zh) * 2021-02-02 2021-06-11 北京嘀嘀无限科技发展有限公司 图像分类模型的训练方法、图像分类方法、装置和设备
CN112949693B (zh) * 2021-02-02 2024-04-26 北京嘀嘀无限科技发展有限公司 图像分类模型的训练方法、图像分类方法、装置和设备
CN112949740A (zh) * 2021-03-17 2021-06-11 重庆邮电大学 一种基于多级度量的小样本图像分类方法
CN113052246A (zh) * 2021-03-30 2021-06-29 北京百度网讯科技有限公司 用于训练分类模型及图像分类的方法和相关装置
CN113052246B (zh) * 2021-03-30 2023-08-04 北京百度网讯科技有限公司 用于训练分类模型及图像分类的方法和相关装置

Also Published As

Publication number Publication date
US20230037908A1 (en) 2023-02-09
CN108304936B (zh) 2021-11-16
CN108304936A (zh) 2018-07-20
US11537884B2 (en) 2022-12-27
US20200143248A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
WO2019011093A1 (zh) 机器学习模型训练方法和装置、表情图像分类方法和装置
EP3467723B1 (en) Machine learning based network model construction method and apparatus
WO2020238293A1 (zh) 图像分类方法、神经网络的训练方法及装置
WO2019237240A1 (zh) 一种增强型生成式对抗网络以及目标样本识别方法
KR102570706B1 (ko) 분류를 위한 강제된 희소성
JP7403909B2 (ja) 系列マイニングモデルの訓練装置の動作方法、系列データの処理装置の動作方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
CN110347932B (zh) 一种基于深度学习的跨网络用户对齐方法
CN111667022A (zh) 用户数据处理方法、装置、计算机设备和存储介质
WO2022042043A1 (zh) 机器学习模型的训练方法、装置和电子设备
US11468316B2 (en) Cluster compression for compressing weights in neural networks
WO2023065859A1 (zh) 物品推荐方法、装置及存储介质
CN111898703B (zh) 多标签视频分类方法、模型训练方法、装置及介质
CN113780249B (zh) 表情识别模型的处理方法、装置、设备、介质和程序产品
CN110705489B (zh) 目标识别网络的训练方法、装置、计算机设备和存储介质
WO2023020214A1 (zh) 检索模型的训练和检索方法、装置、设备及介质
CN114298122A (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
Xu et al. Weakly supervised facial expression recognition via transferred DAL-CNN and active incremental learning
CN110414541A (zh) 用于识别物体的方法、设备和计算机可读存储介质
CN113704534A (zh) 图像处理方法、装置及计算机设备
CN113609337A (zh) 图神经网络的预训练方法、训练方法、装置、设备及介质
CN113570512A (zh) 一种图像数据处理方法、计算机及可读存储介质
CN111709473A (zh) 对象特征的聚类方法及装置
Zhao et al. Ensemble subspace segmentation under blockwise constraints

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18832476

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18832476

Country of ref document: EP

Kind code of ref document: A1