CN110555526B - 神经网络模型训练方法、图像识别方法和装置 - Google Patents
神经网络模型训练方法、图像识别方法和装置 Download PDFInfo
- Publication number
- CN110555526B CN110555526B CN201910767331.0A CN201910767331A CN110555526B CN 110555526 B CN110555526 B CN 110555526B CN 201910767331 A CN201910767331 A CN 201910767331A CN 110555526 B CN110555526 B CN 110555526B
- Authority
- CN
- China
- Prior art keywords
- stage
- neural network
- network model
- training
- data transformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种神经网络模型训练方法、图像识别方法、装置、计算机设备和可读存储介质。该方法包括:获取训练样本数据和初始阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。采用本方法能够提高训练出的神经网络模型的性能。
Description
技术领域
本申请涉及神经网络技术领域,特别是涉及一种神经网络模型训练方法、图像识别方法、装置、计算机设备和可读存储介质。
背景技术
神经网络模型往往需要大量的样本数据用于训练;因为如果采用少量样本数据进行训练,则训练出的神经网络模型往往会出现效果不好或过拟合(over fitting)的问题。然而在大量场景下,往往很难获得超大数据集的样本数据。
目前,大多数的神经网络模型采用数据增广(data augmentation)的方式来增加样本数据的数量和多样性;数据增广是指在样本数据输入神经网络模型以对神经网络模型进行训练之前,对输入的样本数据进行各种各样的变换,使得一个样本数据可以扩展为多个不同的样本数据;具体地,传统方式是从多个数据变换方式中人为地选择一种或多种数据变换方式对输入的样本数据进行变换。
然而,不同的神经网络模型往往需要采用不同的数据变换方式才能达到好的性能提升效果,粗略地人为固定数据变换方式无法使训练得到的模型性能达到最优。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升训练出的模型性能的神经网络模型训练方法、图像识别方法、装置、计算机设备和可读存储介质。
第一方面,一种神经网络模型训练方法,包括:
获取训练样本数据和初始阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据所述训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
在其中一个实施例中,所述预设的数据变换预测模型是根据统计得到的关联关系所预先训练好的,所述关联关系为不同数据变换方式的切换过程与相同类型的神经网络模型的性能参数的变化量之间的关联关系。
在其中一个实施例中,所述预设的数据变换预测模型是待训练的,所述根据所述训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型,包括:
根据所述训练样本数据和初始阶段的采样概率向量,从初始阶段开始对所述神经网络模型和所述数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于所述阶段训练后的神经网络模型的性能参数的变化量对所述数据变换预测模型进行所述阶段的训练。
在其中一个实施例中,所述根据所述训练样本数据和初始阶段的采样概率向量,从初始阶段开始对所述神经网络模型和所述数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型,包括:
针对每个阶段,根据所述阶段的采样概率向量对应的目标数据变换方式,对所述训练样本数据进行数据变换,得到所述阶段的增广样本数据;
基于所述阶段的增广样本数据对所述阶段的神经网络模型进行所述阶段的训练,得到所述阶段的下一阶段的神经网络模型;
获取所述阶段的神经网络模型的性能参数,以及所述阶段的下一阶段的神经网络模型的性能参数,并计算所述阶段的性能参数的变化量;
基于所述阶段的性能参数的变化量对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型;
将所述阶段的采样概率向量输入所述阶段的下一阶段的数据变换预测模型,得到所述阶段的下一阶段的采样概率向量。
在其中一个实施例中,所述基于所述阶段的性能参数的变化量对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型,包括:
根据所述阶段的性能参数的变化量,计算所述数据变换预测模型的奖励函数的值;所述奖励函数已预先基于策略梯度构建;
根据所述奖励函数的值,对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型。
在其中一个实施例中,所述奖励函数F(d)采用以下关系式计算得到:
F(d)=-e-dlgp,
其中,d为所述阶段的性能参数的变化量,p为所述阶段的采样概率向量中的最大元素值。
在其中一个实施例中,所述神经网络模型的性能参数包括以下内容中的至少一种:
基于测试样本数据对所述神经网络模型进行测试得到的准确率、基于测试样本数据对所述神经网络模型进行测试得到的召回率、所述神经网络模型对所述训练样本数据的预测结果与标注结果之间的损失。
第二方面,一种图像识别方法,包括:
将待处理图像输入神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
第三方面,一种神经网络模型训练装置,包括:
获取模块,用于获取训练样本数据和初始阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
训练模块,用于根据所述训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
第四方面,一种图像识别装置,包括:
特征提取模块,用于将待处理图像输入神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
图像识别模块,用于根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
第五方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面和/或第二方面中任一项所述方法的步骤。
第六方面,一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面和/或第二方面中任一项所述的方法的步骤。
上述神经网络模型训练方法、图像识别方法、装置、计算机设备和可读存储介质,计算机设备可以根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于该阶段的采样概率向量得到的增广样本数据对神经网络模型进行该阶段的训练,而且数据变换预测模型用于根据该阶段的采样概率向量预测该阶段的下一阶段的采样概率向量,可以在对神经网络模型的训练过程中,实时地为神经网络模型确定每个阶段适配的采样概率向量,选择每个阶段较优的目标数据转换方式,从而避免了人为固定数据转换方式的局限性,从而提高了训练出的神经网络模型的性能。
附图说明
图1为一个实施例中神经网络模型训练方法的流程示意图;
图2为一个实施例中神经网络模型训练方法的示意图;
图3为一个实施例中神经网络模型训练方法的流程示意图;
图4为一个实施例中图像识别方法的流程示意图;
图5为一个实施例中神经网络模型训练装置的结构框图;
图6为一个实施例中图像识别装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种神经网络模型训练方法,以该方法应用于计算机设备为例进行说明,计算机设备可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、服务器等,该方法可以包括以下步骤:
S101,获取训练样本数据和初始阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率。
示例性地,训练样本数据与目标任务相关;例如,目标任务为人脸识别任务时,训练样本数据可以包括多个人脸图像和每个人脸图像的身份标注结果;例如,目标任务为目标对象检测任务时,训练样本数据可以包括多个图像和每个图像中目标对象的位置标注结果;例如目标任务为目标对象分割任务时,训练样本数据可以包括多个图像和每个图像中的目标对象的分割标注结果;当然,本实施例的神经网络模型并不限于上述图像处理,还可以对语音数据进行处理、对文本数据进行处理等等,这里不再赘述。同样地,后续的测试样本数据与训练样本数据类似,这里不再赘述。
其中,本实施例涉及的数据变换方式包括但不限于左右翻转(flip)、颜色抖动(color jitter)、随机裁剪(crop)、各类旋转(rotation),以及自定义的数据变换方式。计算机设备可以预先定义一个采样概率向量,采样概率向量中的每个元素对应一种数据变换方式,元素值表征相应的数据变换方式被选中为目标数据变换方式的概率。假设共有n中数据变换方式,则采样概率向量可以为n维向量。初始阶段的采样概率向量,即初始值可以自行设置;示例性地,可以设置每种数据变换方式被选中为目标数据变换方式的概率相等,即每个元素值为n分之一。可以理解的是采样概率向量的维度可以很大,可以简单地将各种变换方式都包含在内。
S102,根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
其中,阶段的划分可以有多种方式,可以按照训练过程中采用的训练样本数据的不同来划分阶段:可以以一个epoch(迭代次数,使用全部的训练样本数据训练一次)为一个阶段;或者M个iterations(使用批大小的训练样本数据训练一次)为一个阶段,M为正整数,例如M可以取值1000;或者其它阶段,本实施例对此并不限制。
其中,初始的神经网络模型为待训练的目标神经网络模型,可以为各种结构,包括但不限于VGG(Visual Geometry Group Network,视觉几何组网络),Res Net(残差神经网络),Inception(将1x1、3x3等各个尺寸的卷积特征和池化特征堆叠在一起)等架构。数据变换预测模型可以是机器学习模型,包括但不限于传统的机器学习模型、卷积神经网络模型或者循环神经网络模型等。
需要说明的是,在本实施例中,计算机设备可以对初始的神经网络模型进行多个阶段的训练,直至达到训练截止条件,得到训练好的神经网络模型。其中,在训练的每个阶段,计算机设备可以采用数据变换预测模型根据该阶段的采样概率向量预测该阶段的下一阶段的采样概率向量,而且初始阶段的采样概率向量已知,从而在训练的每个阶段,计算机设备可以获取该阶段的采样概率向量。相应地,计算机设备可以采用该阶段的采样概率向量对应的目标数据变换方式对训练样本数据进行数据变换处理,从而得到该目标变换方式对应的样本数据,从而得到比训练样本数据更丰富的增广样本数据,并采用增广样本数据对该阶段的神经网络模型进行训练。
示例性地,目标任务为人脸识别任务时,对某一阶段,计算机设备可以将该阶段的增广样本数据中的人脸图像输入该阶段的神经网络模型,输出人脸图像的预测结果,然后计算人脸图像的预测结果与身份标注结果之间的损失,并根据该损失对该阶段的神经网络模型中的模型参数进行调整,得到该阶段训练后的神经网络模型。因为每个阶段采样概率向量可能不同,目标数据变换方式可能不同,因此每个阶段的增广样本数据不同。
示例性地,上述数据变换预测模型可以是基于不同数据变换方式的切换过程与神经网络模型的性能参数的变化量之间的关联关系训练得到。可选地,预设的数据变换预测模型可以是根据统计得到的关联关系所预先训练好的,关联关系为不同数据变换方式的切换过程与相同类型的神经网络模型的性能参数的变化量之间的关联关系。示例性地,计算机设备可以预先对与本实施例的神经网络模型的类型相同的其它神经网络模型进行测试,测试每个神经网络模型在训练过程中不同数据变换方式的切换过程中性能参数的变化量,并统计得到上述关联关系;其中,不同数据变换方式的切换过程包括:从数据变换方式A切换到数据变换方式B、从数据变换方式B切换到数据变换方式C等多个切换过程。示例性地,计算设备可以确定针对任一变换方式,切换为哪种目标变换方式对神经网络模型的性能提升更为有利,并将目标变换方式作为该变换方式的标注结果,从而可以利用标注结果对数据变换预测模型进行训练,得到训练好的数据变换预测模型。当然,上述关联关系也可以是针对所有神经网络模型的统计结果,或者更细粒度的统计结果,如与本实施例的神经网络模型的结构一致的神经网络模型的统计结果。
在本实施例中,计算机设备可以根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于该阶段的采样概率向量得到的增广样本数据对神经网络模型进行该阶段的训练,而且数据变换预测模型用于根据该阶段的采样概率向量预测该阶段的下一阶段的采样概率向量,可以在对神经网络模型的训练过程中,实时地为神经网络模型确定每个阶段适配的采样概率向量,选择每个阶段较优的目标数据转换方式,从而避免了人为固定数据转换方式的局限性,从而提高了训练出的神经网络模型的性能。
在一个实施例中,参照图2所示,预设的数据变换预测模型同样是待训练的,也是就是说,需要对神经网络模型和数据变换预测模型进行交替训练,具体过程可以包括:根据训练样本数据和初始阶段的采样概率向量,从初始阶段开始对神经网络模型和数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于该阶段训练后的神经网络模型的性能参数的变化量对数据变换预测模型进行该阶段的训练。
图2示出了本实施例中交替训练神经网络模型和数据变换预测模型的发明构思,其中模型M为神经网络模型,模型P为数据变换预测模型。在任一阶段,模型M根据采样概率向量来选择目标数据变换方式并结合训练样本数据获取增广样本数据,然后对模型M进行训练;当该阶段模型M训练结束后,根据模型M在该阶段的训练过程中的性能参数的变化量更新模型P,然后模型P根据该阶段的采样概率向量预测得到下一阶段的采样概率向量;如此反复直到模型M满足训练截止条件(如损失收敛、迭代次数达到阈值等)。
示例性地,参照图3所示,上述交替训练的过程可以包括:
S301,针对每个阶段,根据该阶段的采样概率向量对应的目标数据变换方式,对训练样本数据进行数据变换,得到该阶段的增广样本数据。
例如,计算机设备可以根据采样概率向量,将概率最大的数据转换方式作为目标数据转换方式,并采用目标数据转换方式对训练样本数据进行数据变换,得到变换后的训练样本数据,然后将变换前的训练样本数据和变换后的训练样本数据作为增广样本数据。例如,计算机设备可以根据采样概率向量中每个数据变换方式的概率,选取与每种数据变换方式的概率等比例的训练样本数据,进行每种数据变换方式对应的数据变换,并将每种数据变换得到的变换后的训练样本数据和变换前的训练样本数据一起作为增广样本数据。总之,得到增广样本数据的方式多种多样,本实施例对此并不限制。
S302,基于该阶段的增广样本数据对阶段的神经网络模型进行该阶段的训练,得到该阶段的下一阶段的神经网络模型。
S303,获取该阶段的神经网络模型的性能参数,以及该阶段的下一阶段的神经网络模型的性能参数,并计算该阶段的性能参数的变化量。
其中,该阶段的性能参数的变化量可以为该阶段的性能参数和该阶段的上一阶段的性能参数的差值;或者可以是以该阶段为最后阶段的连续P个阶段的性能参数的均值,和以该阶段的上一个阶段为最后阶段的连续P个阶段的性能参数的均值,之间的差值,P为大于1的整数。
可选地,神经网络模型的性能参数包括以下内容中的至少一种:基于测试样本数据对神经网络模型进行测试得到的准确率、基于测试样本数据对神经网络模型进行测试得到的召回率、神经网络模型对训练样本数据的预测结果与标注结果之间的损失。
S304,基于该阶段的性能参数的变化量对该阶段的数据变换预测模型进行训练,得到该阶段的下一阶段的数据变换预测模型。
示例性地,d为该阶段的性能参数的变化量,则可以将-kd+a作为数据变换预测模型的损失函数的值,对该阶段的数据变换预测模型的模型参数进行调整;其中,k为预设的正系数,a为阈值,保证损失函数的值为正值。可以理解的是,当性能参数降低时,d为负数,且降低程度越高,d越小,则数据变换预测模型的损失函数的值越大,则数据变换预测模型调整程度更大,预测的采样概率向量会比较波动;相反地,当性能参数提升时,d为正数,且提升程度越高,d越大,则数据变换预测模型的损失函数的值越小,则数据变换预测模型调整程度更小,预测的采样概率向量会比较稳定,从而采样概率向量会向有利于性能参数提升的方向调整。
在一种实施方式中,为了避免准确率等性能参数对数据变换预测模型不可导的限制,可以预先根据性能参数变化量基于策略梯度构建更合理的奖励函数,并根据该阶段的性能参数的变化量,计算数据变换预测模型的奖励函数的值;根据奖励函数的值,对该阶段的数据变换预测模型进行训练,得到该阶段的下一阶段的数据变换预测模型。
例如,构建的奖励函数可以为F(d)=-e-dlgp,或者为包含-e-dlgp的其它关系式,也可以是A+dlgp、A-dp等其它关系式,其中d为阶段的性能参数的变化量,p为阶段的采样概率向量中的最大元素值,A为阈值,保证损失函数的值为正值。可以理解的是,奖励函数不但和性能参数的变化量有关,同时还与采样概率向量有关,更为合理。可以理解的是,因为p小于1,所以lgp为负值,当性能参数降低且p较小时,预测的采样概率向量会比较波动,下一阶段的目标转换方式会远离该阶段的目标转换方式,降低该阶段的目标转换方式的采样概率;相反地,当性能参数提升且p较大时,预测的采样概率向量会比较稳定,下一阶段的目标转换方式会接近该阶段的目标转换方式,提高该阶段的目标转换方式的采样概率。
S305,将该阶段的采样概率向量输入该阶段的下一阶段的数据变换预测模型,得到该阶段的下一阶段的采样概率向量。
参照之前的描述,在本实施例中,计算机设备可以在神经网络模型训练过程中,根据模型当前阶段的性能参数自动为模型下一阶段选择合适的能够提升模型性能参数的数据变换方式,从而提高训练得到的神经网络模型的性能。
下面从另一个角度描述本申请的神经网络模型训练方法,具体可以包括:
第一步:设计数据变换方式的搜索空间:这个搜索空间用于为模型P的训练提供可能的数据变换方式,可以包含现有常用的数据变换方式,也可以包含自定义的各种数据变换方式;搜索空间可以很大,模型P会从中只选择有助于性能参数提升的部分数据变换方式;示例性地,搜索空间可以设计为以下几种:a(左右翻转),b(颜色抖动),c(旋转90度),d(旋转180度),e(随机裁剪),相应地,可以设置初始阶段的采样概率向量V1=[0.2,0.2,0.2,0.2,0.2]。
第二步:初始化模型M和用于预测下一阶段的数据变换方式的模型P:模型M可以是待训练的卷积神经网络模型;模型P可以为循环神经网络模型,输入为上一个阶段的采样概率向量,输出为下一阶段的采样概率向量。在此假设模型M为普通卷积神经网络模型,P为循环神经网络模型。
第三步:交替训练模型M和P:首先基于初始阶段的采样概率向量训练模型M,并记录模型M训练过程的性能参数,如记录损失函数值loss,或者准确率accuracy;当对模型M训练完一个阶段后,利用记录的性能参数对模型P进行更新,这里以accuracy为例,由于accuracy对模型P是不可导的,因此更新方式可以采用策略梯度(Policy gradient)的方式进行更新,即根据accuracy设计奖励函数(reward function)对模型P的模型参数进行更新;然后用更新后的P模型预测出下一阶段的采样概率向量,然后基于此采样概率向量进行数据变换方式的选择,以对模型M进行下一阶段的训练;如此反复交替训练,直至模型M达到收敛条件。这种方式的优势在于,可以根据上一阶段的模型M更新情况,让模型P学习出哪个数据变换方式可以带来更好的性能提升,从而预测时提高相应的数据变换方式的选取概率。比如,如果上一阶段选取的数据变换方式对模型M带来很好的性能提升,在更新模型P后,预测出的采样概率向量则会提高该数据变换方式的采样概率;如果上一阶段的数据变换方式对模型M的性能存在削弱,在更新模型P后会降低该数据变换方式的采样概率。因此,这样可以做到在线为模型训练选择更好的数据变换方式,从而提高训练模型的性能。假设在训练模型M过程中,发现数据变换方式c、d和e都能给模型带来不同的性能提升,而其它方式不能,那么模型P在更新后会倾向于c、d和e,因此下一阶段的采样概率向量可能为V2=[0.1,0.1,0.3,0.3,0.2]。
第四步:在训练收敛后,输出模型M作为最终训练好的模型。由于M在训练过程,有模型P为其选择较优的数据变换方式,因此输出模型M的性能跟用固定选择数据变换方式训练出的模型相比会更强。
可以理解的是,对于上述任一实施例而言,训练好的神经网络模型可以应用于特征提取处理、分类处理、目标对象检测、图像分割、图像配准、图像映射等多种神经网络应用场景,所处理的对象也并不限于图像数据、文本数据、视频数据、音频数据等;针对不同的应用场景,神经网络模型的结构有所不同,采用的训练样本数据有所不同,但是神经网络模型均可以基于本申请的神经网络模型训练方法进行训练,相应地,得到训练好的神经网络模型之后,本申请的神经网络模型训练方法还可以包括:将待处理数据输入神经网络模型进行前向运算,输出前向运算结果。可以理解的是,相比于采用其它训练方式得到的神经网络模型进行前向运算而言,基于本实施例的神经网络模型训练方法得到的神经网络模型,前向运算结果更准确,即预测精度更准确。
参照图4所示,以图像识别处理为例,本申请还提供了一种图像识别方法,具体可以包括:
S401,将待处理图像输入神经网络模型进行特征提取处理,输出待处理图像的图像特征;神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
S402,根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
以执行主体为计算机设备为例,上述待处理图像可以是计算机设备接收到的其它设备发送的待处理图像,如拍摄装置、其它计算机设备等,也可以是计算机设备本地存储的待处理图像,或者是其它来源的待处理图像;总之,计算机设备需要对从该待处理图像中提取出图像特征,然后基于该图像特征对该待处理图像进行图像识别处理,应用场景可以但不限于是身份认证、刷脸支付、图像相似度比对等图像识别任务的场景。关于神经网络模型训练过程参照之前的描述,这里不再赘述。
其中,图像识别处理可以包括但不限于:图像验证处理(验证多张目标图像是否为同一对象的图像)、图像搜索处理(在多张目标图像中查找与查询图像最相近的图像)和图像聚类(将多张目标图像进行分类);其中,待处理图像可以是目标图像,也可以是查询图像,对象可以包括但不限于:人、花卉、场景、物品等。
以图像验证处理为例,计算机设备可以预先将底库图像输入神经网络模型进行特征提取处理,输出底库图像的图像特征;然后将待处理图像的图像特征和底库图像的图像特征进行比对,根据比对结果确定待处理图像和底库图像是否对应同一个对象。示例性地,计算机设备可以分别计算待处理图像的图像特征与底库图像的图像特征之间的相似度,例如待处理图像的图像特征与底库图像的图像特征之间的L1范数、L2范数等;例如,判断相似度是否大于预设相似度阈值,若是,则确定待处理图像与底库图像是同一对象;若否,则确定待处理图像与底库图像不是同一对象。
相比于采用其它方式训练得到的神经网络模型进行图像识别处理而言,基于本实施例的神经网络模型训练方法训练得到的神经网络模型,图像识别结果更准确。
应该理解的是,虽然图1,3-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1,3-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种神经网络模型训练装置,包括:获取模块51和训练模块52,其中:
获取模块51,用于获取训练样本数据和初始阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
训练模块52,用于根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
在一个实施例中,预设的数据变换预测模型是根据统计得到的关联关系所预先训练好的,关联关系为不同数据变换方式的切换过程与相同类型的神经网络模型的性能参数的变化量之间的关联关系。
在一个实施例中,预设的数据变换预测模型是待训练的,训练模块52可以包括:训练单元,用于根据训练样本数据和初始阶段的采样概率向量,从初始阶段开始对神经网络模型和数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于阶段训练后的神经网络模型的性能参数的变化量对数据变换预测模型进行阶段的训练。
在一个实施例中,训练单元具体用于针对每个阶段,根据阶段的采样概率向量对应的目标数据变换方式,对训练样本数据进行数据变换,得到阶段的增广样本数据;基于阶段的增广样本数据对阶段的神经网络模型进行阶段的训练,得到阶段的下一阶段的神经网络模型;获取阶段的神经网络模型的性能参数,以及阶段的下一阶段的神经网络模型的性能参数,并计算阶段的性能参数的变化量;基于阶段的性能参数的变化量对阶段的数据变换预测模型进行训练,得到阶段的下一阶段的数据变换预测模型;将阶段的采样概率向量输入阶段的下一阶段的数据变换预测模型,得到阶段的下一阶段的采样概率向量。
在一个实施例中,训练单元还用于根据阶段的性能参数的变化量,计算数据变换预测模型的奖励函数的值;奖励函数已预先基于策略梯度构建;根据奖励函数的值,对阶段的数据变换预测模型进行训练,得到阶段的下一阶段的数据变换预测模型。
在一个实施例中,奖励函数F(d)可以采用以下关系式计算得到:
F(d)=-e-dlgp,
其中,d为阶段的性能参数的变化量,p为阶段的采样概率向量中的最大元素值。
在一个实施例中,神经网络模型的性能参数包括以下内容中的至少一种:基于测试样本数据对神经网络模型进行测试得到的准确率、基于测试样本数据对神经网络模型进行测试得到的召回率、神经网络模型对训练样本数据的预测结果与标注结果之间的损失。
在一个实施例中,如图6所示,提供了一种图像识别装置,包括:特征提取模块61和图像识别模块62,其中:
特征提取模块61,用于将待处理图像输入神经网络模型进行特征提取处理,输出待处理图像的图像特征;神经网络模型是根据根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
图像识别模块62,用于根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
关于神经网络模型训练装置的具体限定可以参见上文中对于神经网络模型训练方法的限定,关于图像识别装置的具体限定可以参见上文中对于图像识别方法的限定,在此不再赘述。上述神经网络模型训练装置、图像识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种神经网络模型训练方法和/或图像识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时一方面实现以下步骤:
获取训练样本数据和初始阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
另一方面可以实现以下步骤:
将待处理图像输入神经网络模型进行特征提取处理,输出待处理图像的图像特征;神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
在一个实施例中,提供了一种可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时一方面实现以下步骤:
获取训练样本数据和初始阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练,得到训练好的神经网络模型;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量。
另一方面可以实现以下步骤:
将待处理图像输入神经网络模型进行特征提取处理,输出待处理图像的图像特征;神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像识别方法,其特征在于,包括:
将待处理图像输入神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;所述预设的数据变换预测模型是根据统计得到的关联关系所预先训练好的,所述关联关系为不同数据变换方式的切换过程与相同类型的神经网络模型的性能参数的变化量之间的关联关系;所述神经网络模型的性能参数包括基于测试样本数据对所述神经网络模型进行测试得到的准确率、基于测试样本数据对所述神经网络模型进行测试得到的召回率、所述神经网络模型对所述训练样本数据的预测结果与标注结果之间的损失;针对每个阶段,获取所述阶段的神经网络模型的性能参数,以及所述阶段的下一阶段的神经网络模型的性能参数,并计算所述阶段的性能参数的变化量;其中,所述阶段的性能参数的变化量为所述阶段的性能参数和所述阶段的上一阶段的性能参数的差值;或者是以所述阶段为最后阶段的连续P个阶段的性能参数的均值,和以所述阶段的上一个阶段为最后阶段的连续P个阶段的性能参数的均值,之间的差值,P为大于1的整数;
根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型的训练过程包括:
根据所述训练样本数据和初始阶段的采样概率向量,从初始阶段开始对所述神经网络模型和所述数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于所述阶段训练后的神经网络模型的性能参数的变化量对所述数据变换预测模型进行所述阶段的训练。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练样本数据和初始阶段的采样概率向量,从初始阶段开始对所述神经网络模型和所述数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型,包括:
针对每个阶段,根据所述阶段的采样概率向量对应的目标数据变换方式,对所述训练样本数据进行数据变换,得到所述阶段的增广样本数据;
基于所述阶段的增广样本数据对所述阶段的神经网络模型进行所述阶段的训练,得到所述阶段的下一阶段的神经网络模型;
基于所述阶段的性能参数的变化量对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型;
将所述阶段的采样概率向量输入所述阶段的下一阶段的数据变换预测模型,得到所述阶段的下一阶段的采样概率向量。
4.根据权利要求3所述的方法,其特征在于,所述基于所述阶段的性能参数的变化量对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型,包括:
根据所述阶段的性能参数的变化量,计算所述数据变换预测模型的奖励函数的值;所述奖励函数已预先基于策略梯度构建;
根据所述奖励函数的值,对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型。
5.根据权利要求4所述的方法,其特征在于,所述奖励函数F(d)采用以下关系式计算得到:
F(d)=-e-dlgp,
其中,d为所述阶段的性能参数的变化量,p为所述阶段的采样概率向量中的最大元素值。
6.一种图像识别装置,其特征在于,包括:
特征提取模块,用于将待处理图像输入神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述神经网络模型是根据训练样本数据、初始阶段的采样概率向量和预设的数据变换预测模型,采用不同阶段的采样概率向量得到的增广样本数据对初始的神经网络模型进行多个阶段的训练得到的;所述数据变换预测模型用于根据每个阶段的采样概率向量预测每个阶段的下一阶段的采样概率向量;所述采样概率向量中的每个元素值表征每种数据变换方式被选中为目标数据变换方式的概率;
图像识别模块,用于根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果;
所述预设的数据变换预测模型是根据统计得到的关联关系所预先训练好的,所述关联关系为不同数据变换方式的切换过程与相同类型的神经网络模型的性能参数的变化量之间的关联关系;
所述神经网络模型的性能参数包括基于测试样本数据对所述神经网络模型进行测试得到的准确率、基于测试样本数据对所述神经网络模型进行测试得到的召回率、所述神经网络模型对所述训练样本数据的预测结果与标注结果之间的损失;
所述特征提取模块还用于针对每个阶段,获取所述阶段的神经网络模型的性能参数,以及所述阶段的下一阶段的神经网络模型的性能参数,并计算所述阶段的性能参数的变化量;其中,所述阶段的性能参数的变化量为所述阶段的性能参数和所述阶段的上一阶段的性能参数的差值;或者是以所述阶段为最后阶段的连续P个阶段的性能参数的均值,和以所述阶段的上一个阶段为最后阶段的连续P个阶段的性能参数的均值,之间的差值,P为大于1的整数。
7.根据权利要求6所述的装置,其特征在于,所述网络模型的训练过程包括:根据所述训练样本数据和初始阶段的采样概率向量,从初始阶段开始对所述神经网络模型和所述数据变换预测模型交替进行每个阶段的训练,得到训练好的神经网络模型;其中,在每个阶段,基于所述阶段训练后的神经网络模型的性能参数的变化量对所述数据变换预测模型进行所述阶段的训练。
8.根据权利要求7所述的装置,其特征在于,所述网络模型的训练过程包括:针对每个阶段,根据所述阶段的采样概率向量对应的目标数据变换方式,对所述训练样本数据进行数据变换,得到所述阶段的增广样本数据;基于所述阶段的增广样本数据对所述阶段的神经网络模型进行所述阶段的训练,得到所述阶段的下一阶段的神经网络模型;基于所述阶段的性能参数的变化量对所述阶段的数据变换预测模型进行训练,得到所述阶段的下一阶段的数据变换预测模型;将所述阶段的采样概率向量输入所述阶段的下一阶段的数据变换预测模型,得到所述阶段的下一阶段的采样概率向量。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
10.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910767331.0A CN110555526B (zh) | 2019-08-20 | 2019-08-20 | 神经网络模型训练方法、图像识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910767331.0A CN110555526B (zh) | 2019-08-20 | 2019-08-20 | 神经网络模型训练方法、图像识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110555526A CN110555526A (zh) | 2019-12-10 |
CN110555526B true CN110555526B (zh) | 2022-07-29 |
Family
ID=68737763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910767331.0A Active CN110555526B (zh) | 2019-08-20 | 2019-08-20 | 神经网络模型训练方法、图像识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110555526B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379045B (zh) * | 2020-02-25 | 2022-08-09 | 华为技术有限公司 | 数据增强方法和装置 |
CN111401259B (zh) * | 2020-03-18 | 2024-02-02 | 南京星火技术有限公司 | 模型训练方法、系统、计算机可读介质和电子设备 |
CN112070535A (zh) * | 2020-09-03 | 2020-12-11 | 常州微亿智造科技有限公司 | 电动汽车价格预测方法和装置 |
CN112370659B (zh) * | 2020-11-10 | 2023-03-14 | 四川大学华西医院 | 基于机器学习的头部刺激训练装置的实现方法 |
CN112580689A (zh) * | 2020-11-23 | 2021-03-30 | 北京迈格威科技有限公司 | 神经网络模型的训练方法、应用方法、装置和电子设备 |
CN114765634B (zh) * | 2021-01-13 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 网络协议识别方法、装置、电子设备及可读存储介质 |
CN115103192A (zh) * | 2022-06-15 | 2022-09-23 | 天津市国瑞数码安全系统股份有限公司 | 一种融合视频的压缩方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230339A (zh) * | 2018-01-31 | 2018-06-29 | 浙江大学 | 一种基于伪标签迭代标注的胃癌病理切片标注补全方法 |
CN110070030A (zh) * | 2019-04-18 | 2019-07-30 | 北京迈格威科技有限公司 | 图像识别与神经网络模型的训练方法、装置和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
-
2019
- 2019-08-20 CN CN201910767331.0A patent/CN110555526B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230339A (zh) * | 2018-01-31 | 2018-06-29 | 浙江大学 | 一种基于伪标签迭代标注的胃癌病理切片标注补全方法 |
CN110070030A (zh) * | 2019-04-18 | 2019-07-30 | 北京迈格威科技有限公司 | 图像识别与神经网络模型的训练方法、装置和系统 |
Non-Patent Citations (2)
Title |
---|
AutoAugment:Learning Augmentation Strategies from Data;Ekin D. Cubuk等;《arXiv》;20190411;参见第3、4节 * |
Ekin D. Cubuk等.AutoAugment:Learning Augmentation Strategies from Data.《arXiv》.2019, * |
Also Published As
Publication number | Publication date |
---|---|
CN110555526A (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110555526B (zh) | 神经网络模型训练方法、图像识别方法和装置 | |
CN110517278B (zh) | 图像分割和图像分割网络的训练方法、装置和计算机设备 | |
US11403876B2 (en) | Image processing method and apparatus, facial recognition method and apparatus, and computer device | |
CN110348562B (zh) | 神经网络的量化策略确定方法、图像识别方法和装置 | |
CN110555514B (zh) | 神经网络模型搜索方法、图像识别方法和装置 | |
CN109034078B (zh) | 年龄识别模型的训练方法、年龄识别方法及相关设备 | |
CN111160375B (zh) | 三维关键点预测及深度学习模型训练方法、装置及设备 | |
CN110443165B (zh) | 神经网络量化方法、图像识别方法、装置和计算机设备 | |
CN110796162B (zh) | 图像识别、训练识别模型的方法、相关设备及存储介质 | |
CN110765860A (zh) | 摔倒判定方法、装置、计算机设备及存储介质 | |
CN110287775B (zh) | 手掌图像裁剪方法、装置、计算机设备及存储介质 | |
CN110457985B (zh) | 基于视频序列的行人再识别方法、装置及计算机设备 | |
CN111178162B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN113505797B (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
CN112749726B (zh) | 目标检测模型的训练方法、装置、计算机设备和存储介质 | |
KR102093577B1 (ko) | 학습네트워크를 이용한 예측 영상 생성 방법 및 예측 영상 생성 장치 | |
CN111062324A (zh) | 人脸检测方法、装置、计算机设备和存储介质 | |
CN113221645B (zh) | 目标模型训练方法、人脸图像生成方法以及相关装置 | |
CN111950419A (zh) | 图像信息预测方法、装置、计算机设备和存储介质 | |
CN112232397A (zh) | 图像分类模型的知识蒸馏方法、装置和计算机设备 | |
CN114429641A (zh) | 一种时序动作检测方法、装置、存储介质及终端 | |
CN114639165B (zh) | 基于人工智能的行人重识别方法、装置、设备及存储介质 | |
CN113077379B (zh) | 特征潜码的提取方法及装置、设备及存储介质 | |
CN114155388A (zh) | 一种图像识别方法、装置、计算机设备和存储介质 | |
CN116842447A (zh) | 分类数据的后处理方法、装置、系统和电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |