CN108229676B - 神经网络模型的训练方法和装置、电子设备和计算机存储介质 - Google Patents

神经网络模型的训练方法和装置、电子设备和计算机存储介质 Download PDF

Info

Publication number
CN108229676B
CN108229676B CN201710351624.1A CN201710351624A CN108229676B CN 108229676 B CN108229676 B CN 108229676B CN 201710351624 A CN201710351624 A CN 201710351624A CN 108229676 B CN108229676 B CN 108229676B
Authority
CN
China
Prior art keywords
sample
categories
list
category
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710351624.1A
Other languages
English (en)
Other versions
CN108229676A (zh
Inventor
钱晨
胡杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201710351624.1A priority Critical patent/CN108229676B/zh
Publication of CN108229676A publication Critical patent/CN108229676A/zh
Application granted granted Critical
Publication of CN108229676B publication Critical patent/CN108229676B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种神经网络模型的训练方法和装置、电子设备和计算机存储介质。其中,方法包括:基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同,且每次训练样本子集的选取包括:从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集;其中,n和t均为整数,且1<t≤n。本发明实施例可以提高网络模型预测结果的精度,提升网络模型总体的性能。

Description

神经网络模型的训练方法和装置、电子设备和计算机存储 介质
技术领域
本发明属于机器学习领域,特别是涉及一种神经网络模型的训练方法和装置、电子设备和计算机存储介质。
背景技术
目前,机器学习技术已经广泛应用于各行各业中,特别是深度学习技术,已经取得了巨大的成果。其中,有监督学习是以大量有类别标注的样本为基础,从这些样本中学习到类别内的各样本特征的共性和类别间的各样本特征的差异,并用这些学习到的特征来指导对新样本类别的预测。
然而,在实际应用中,由于通常需要训练的样本的类别较多,每次需要从所有类别的所有样本中选取一批样本进行训练,这样就会导致样本较多的类别的样本每次被选中的概率较大,训练得到的网络模型对这些类别优化较好,样本较少的类别的样本每次被选中的概率较小,训练得到的网络模型对这些类别优化较差,例如,在图像分类任务中,有些类别比较稀少、不常见,能够收集到的图像样本非常有限,如熊猫,而有些类别涵盖范围比较广泛,可以轻松收集到大量的图像样本,如动物,由于不同类别的训练样本不均衡造成的网络模型的性能损失,会使得网络模型预测结果的精度下降,从而影响网络模型总体的性能。
发明内容
本发明实施例提供一种神经网络模型训练的技术方案。
根据本发明实施例的一个方面,提供一种神经网络模型的训练方法,包括:
基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同,且每次训练样本子集的选取包括:从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集;其中,n和t均为整数,且1<t≤n。
根据本发明实施例的另一个方面,提供一种神经网络模型的训练装置,包括:
选取单元,用于从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集;其中,n和t均为整数,且1<t≤n;
训练单元,用于基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同。
根据本发明实施例的又一个方面,提供的一种电子设备,包括上述任一实施例所述的神经网络模型的训练装置。
根据本发明实施例的再一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
处理器,用于与所述存储器通信以执行所述可执行指令从而完成上述任一实施例所述的神经网络模型的训练方法的操作。
根据本发明实施例的再一个方面,提供的一种计算机存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一实施例所述的神经网络模型的训练方法的操作。
根据本发明实施例的再一个方面,提供一种计算机设备,包括:
存储器,存储可执行指令;
处理器,与存储器通信以执行可执行指令从而完成本发明上述任一实施例所述的神经网络模型的训练方法对应的操作。
基于本发明上述实施例提供的神经网络模型的训练方法和装置、电子设备和计算机存储介质,通过建立包含神经网络模型训练涉及的所有类别的类别列表,和针对每个类别建立包含属于该类别的用于神经网络模型训练的所有样本的样本列表,在进行神经网络模型训练时,首先从类别列表中选取需要的类别,再根据所选取的类别从对应的样本列表中选取样本,构成训练样本子集,利用训练样本子集来调整神经网络模型的网络参数,本发明实施例由于是按照类别进行训练样本的选取,可以保证用于神经网络模型训练的各类别的样本被选中的概率均衡,从而使得神经网络模型对于各类别的优化都比较均衡,由此可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,其中对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
附图说明
构成说明书的一部分的附图描述了本发明的实施例,并且连同描述一起用于解释本发明的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本发明,其中:
图1是本发明实施神经网络模型的训练方法一个实施例的流程图。
图2是本发明实施例神经网络模型的训练方法另一个实施例的流程图。
图3是本发明实施例神经网络模型的训练方法又一个实施例的流程图。
图4是本发明实施例从类别列表中依次选取类别的一个实施例的流程图。
图5是本发明实施例从样本列表中依次选取样本的一个实施例的流程图。
图6是本发明实施例神经网络模型的训练方法再一个实施例的流程图。
图7是本发明实施例神经网络模型的训练装置一个实施例的结构示意图。
图8是本发明实施例神经网络模型的训练装置另一个实施例的结构示意图。
图9是本发明实施例神经网络模型的训练装置又一个实施例的结构示意图。
图10是本发明实施例神经网络模型的训练装置再一个实施例的结构示意图。
图11是本发明实施例电子设备一个实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于计算机系统/服务器,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与计算机系统/服务器一起使用的众所周知的计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
计算机系统/服务器可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1是本发明实施例神经网络模型的训练方法一个实施例的流程图。如图1所示,该实施例的方法包括:
102,从包含有n个类别的类别列表中选取t个类别、并从t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集。
其中,n和t均为整数,且1<t≤n,类别列表包含神经网络模型训练涉及的所有类别,每个类别的样本列表包含属于该类别的用于神经网络模型训练的所有样本。
具体实现中,操作102可以从包含有n个类别的类别列表中随机或依次选取t个类别,也可以从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。也就是说,本发明实施例不对从类别列表中选取类别的方式,和从样本列表中选取样本的方式做具体限定,它可以采用随机选取的方式,也可以采用依次选取的方式。
具体实现中,针对包含有n个类别的类别列表和每个类别的样本列表多次执行操作102。
其中,不同次从类别列表中选取的类别的数目t可以相同或不同,每次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,不同次从每个类别对应的样本列表中选取的样本的数目可以相同或不同。
通常对于神经网络模型的训练,如果每次只选取一个类别的样本进行神经网络模型训练,会造成每次针对这个类别训练好的神经网络模型在对其他类别进行训练时又需要重新进行调整,因此我们在对神经网络模型训练时需要每次选取几个类别的样本,这样得到的神经网络会更加稳定,能够稳定优化。
具体实现中,可以尽可能让神经网络模型在邻近的几次训练中遍历所有的类别,以保证神经网络模型的稳定性,避免发生突变。例如,在一个具体应用中,可以尽可能让神经网络模型在3至4次训练中遍历所有的类别。
104,基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件。
其中,多次选取中至少两次训练样本子集选取的类别和/或样本不同。
具体实现中,操作104在对神经网络模型的网络参数进行调整的过程中,可以采用但不限于梯度下降法,或者最大次数控制法等进行训练停止判断,其中需要调整的网络参数可以包括但不限于卷积核大小、权重参数等。
通常机器学习中的有监督学习,采用批量梯度下降来优化神经网络模型,在对神经网络模型优化的过程中,每次迭代时选取一批样本进入神经网络模型,对神经网络模型进行网络参数调整,直到神经网络模型收敛,完成对神经网络模型的训练,整个神经网络模型的训练过程需要做几十万次甚至上百万次这样的迭代。
如果用于对神经网络模型进行训练的不同类别的样本不均衡,所选取的每一批样本都是从所有样本里随机选取,会导致样本较多的类别的样本被选取的概率较大,在调整参数的时候神经网络模型就会更好的拟合这些类别,而样本稀少的类别的样本很可能经过好多轮迭代才会被选取一次,并且很有可能被神经网络模型当成噪声,那么在调整参数的时候神经网络模型对这些类别的拟合就会很差,从而导致最终神经网络模型对所有类别预测结果的精度参差不齐,影响神经网络模型总体的性能。
而基于本发明上述实施例提供的神经网络模型的训练方法,通过建立包含神经网络模型训练涉及的所有类别的类别列表,和针对每个类别建立包含属于该类别的用于神经网络模型训练的所有样本的样本列表,在进行神经网络模型训练时,首先从类别列表中选取需要的类别,再根据所选取的类别从对应的样本列表中选取样本,构成训练样本子集,利用训练样本子集来调整神经网络模型的网络参数,本发明实施例由于是按照类别进行训练样本的选取,可以保证用于神经网络模型训练的各类别的样本被选中的概率均衡,从而使得神经网络模型对于各类别的优化都比较均衡,由此可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,其中对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
例如,在一个具体应用中,在图像分类任务时,定义了“猫”、“狗”、“熊猫”、“羊驼”、“鱼”、“动物”、“植物”、“花”、“树木”、“美食”共计十个类别,然后从网上收集每个类别的样本图像,发现“熊猫”和“羊驼”的图像相对于其他类别过于稀少,如果不对样本不做任何操作,只是每次随机从所有类别的样本中选取一批样本进行训练,所得到的最终神经网络模型的准确率为90%,其中“熊猫”和“羊驼”的识别率分别为80%和70%,其他类别的识别率均在90%以上,而采用本发明实施例提供的方法进行神经网络模型的训练,可以使最终神经网络模型对“熊猫”和“羊驼”的识别率分别提升到87%和85%,使整体识别率提升2.2个百分点。
图2是本发明实施例神经网络模型的训练方法另一个实施例的流程图。如图2所示,该实施例的方法包括:
202,从包含有n个类别的类别列表中随机选取t个类别、并从t个类别的每个类别分别对应的样本列表中选取至少一个样本。
其中,n和t为整数,且1<t≤n,类别列表包含神经网络模型训练涉及的所有类别,每个类别的样本列表包含属于该类别的用于神经网络模型训练的所有样本。
具体实现中,操作202可以从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。
具体实现中,针对包含有n个类别的类别列表和每个类别的样本列表多次执行操作202。其中,不同次从类别列表中随机选取的类别的数目t可以相同或不同,只要保证经过有限的几次选取能够遍历所有的类别即可,例如,从类别列表中选取的类别的数目t与类别列表中类别的数目n可以满足:t≥(1/5)n。
其中,每次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,不同次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,只要保证各类别样本总体取到的概率相同,在进行多次选取后各类别样本的概率保持平衡即可,例如,可以严格的每次每个类别中依次选取相同数量的样本,也可以这一次某个类别的样本多取点儿,下一次这个类别的样本就少取点儿,以使经过多次选取后各类别样本的概率大致在一个平衡范围内。
204,基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件。
其中,多次选取中至少两次训练样本子集选取的类别和/或样本不同。
具体实现中,操作204在对神经网络模型的网络参数进行调整的过程中,可以采用但不限于梯度下降法,或者最大次数控制法等进行训练停止判断,其中需要调整的网络参数可以包括但不限于卷积核大小、权重参数等。
基于本发明上述实施例提供的神经网络模型的训练方法,通过建立包含神经网络模型训练涉及的所有类别的类别列表,和针对每个类别建立包含属于该类别的用于神经网络模型训练的所有样本的样本列表,在进行神经网络模型训练时,首先从类别列表中随机选取需要的类别,再根据所选取的类别从对应的样本列表中选取样本,构成训练样本子集,利用训练样本子集来调整神经网络模型的网络参数,本发明实施例由于是按照类别进行训练样本的选取,可以保证用于神经网络模型训练的各类别的样本被选中的概率均衡,从而使得神经网络模型对于各类别的优化都比较均衡,由此可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,其中对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
图3是本发明实施例神经网络模型的训练方法又一个实施例的流程图。如图3所示,该实施例的方法包括:
302,从包含有n个类别的类别列表中依次选取t个类别、并从t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集。
其中,n和t为整数,且1<t≤n,类别列表包含神经网络模型训练涉及的所有类别,每个类别的样本列表包含属于该类别的用于神经网络模型训练的所有样本。
具体实现中,操作302可以从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。
具体实现中,针对包含有n个类别的类别列表和每个类别的样本列表多次执行操作302。
其中,不同次从类别列表中依次选取的类别的数目可以相同或不同,只要保证经过有限的几次选取能够遍历所有的类别即可,例如,从类别列表中选取的类别的数目t与类别列表中类别的数目n可以满足:t≥(1/5)n。
其中,每次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,不同次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,只要保证各类别样本总体取到的概率相同,在进行多次选取后各类别样本的概率保持平衡即可,例如,可以严格的每次每个类别中依次选取相同数量的样本,也可以这一次某个类别的样本多取点儿,下一次这个类别的样本就少取点儿,以使经过多次选取后各类别样本的概率大致在一个平衡范围内。
304,基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件。
其中,多次选取中至少两次训练样本子集选取的类别和/或样本不同。
具体实现中,操作304在对神经网络模型的网络参数进行调整的过程中,可以采用但不限于梯度下降法,或者最大次数控制法等进行训练停止判断,其中需要调整的网络参数可以包括但不限于卷积核大小、权重参数等。
基于本发明上述实施例提供的神经网络模型的训练方法,通过建立包含神经网络模型训练涉及的所有类别的类别列表,和针对每个类别建立包含属于该类别的用于神经网络模型训练的所有样本的样本列表,在进行神经网络模型训练时,首先从类别列表中依次选取需要的类别,再根据所选取的类别从对应的样本列表中选取样本,构成训练样本子集,利用训练样本子集来调整神经网络模型的网络参数,本发明实施例由于是按照类别进行训练样本的选取,可以保证用于神经网络模型训练的各类别的样本被选中的概率均衡,从而使得神经网络模型对于各类别的优化都比较均衡,由此可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,其中对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
图4是本发明实施从类别列表中依次选取类别的一个实施例的流程图。如图4所示,该实施例的方法包括:
402,判断包含有n个类别的类别列表中当前未被选取的类别的数目是否为0。
其中,n为整数,且1<n。
若类别列表中当前未被选取的类别的数目为0,执行操作404;否则,若类别列表中当前未被选取的类别的数目不为0,执行操作406。
404,改变类别列表中n个类别的顺序、并从顺序改变后的类别列表中依次选取t个类别。
其中,t为整数,且1<t≤n。
406,判断包含有n个类别的类别列表中当前未被选取的类别的数目t0是否小于t。
其中,t0为整数,且0<t0≤n。
若类别列表中当前未被选取的类别的数目t0小于t,执行操作408;否则,若类别列表中当前未被选取的类别的数目t0大于或等于t,执行操作410。
408,从类别列表中依次选取t0个未被选取的类别、改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t-t0个类别。
具体实现中,操作408也可以为改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t个类别。
410,从类别列表中t0个未被选取的类别中依次选取t个类别。
基于本发明上述实施例提供的方法,通过在类别列表中所有的类别都依次选取完后改变类别列表中所有类别的排列顺序,当再次选取类别时从顺序改变后的类别列表中依次选取需要的类别,由此尽量均衡的选择类别,有利于进一步均衡各类别的样本被选中的概率,使神经网络模型对于各类别的优化都比较均衡,从而可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
图5是本发明实施例中从样本列表中依次选取样本的一个实施例的流程图。如图5所示,针对所选取出的类别中的每个类别,从样本列表中依次选取样本包括:
502,判断样本列表中当前未被选取的样本的数目是否为0。
若样本列表中当前未被选取的样本的数目为0,执行操作504;否则,若样本列表中当前未被选取的样本的数目不为0,执行操作506。
504,改变样本列表中样本的排列顺序、并从顺序改变后的样本列表中依次选取需要选取数目的样本。
506,判断样本列表中当前未被选取的样本的数目是否小于需要选取的样本的数目。
若样本列表中当前未被选取的样本的数目小于需要选取的样本的数目,执行操作508;否则,若样本列表中当前未被选取的样本的数目大于或等于需要选取的样本的数目,执行操作510。
508,从样本列表中依次选取所有未被选取的样本、改变样本列表中样本的排列顺序并从顺序改变后的样本列表中依次选取剩余数目的样本。
具体实现中,操作508也可以为改变样本列表中样本的排列顺序、并从顺序改变后的样本列表中依次选取需要选取数目的样本。
510,从样本列表中未被选取的样本中依次选取需要选取数目的样本。
基于本发明上述实施例提供的方法,通过在样本列表中所有的样本都依次选取完后改变样本列表中所有样本的排列顺序,当再次选取样本时从顺序改变后的样本列表中依次选取样本,确保每个类别选取的样本数目基本一致,有利于进一步均衡各类别的样本被选中的概率,使神经网络模型对于各类别的优化都比较均衡,从而可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
本发明上述各实施例还可以包括:在类别列表中增加新的类别的操作,并以增加新的类别后的类别列表执行上述各实施例的操作。
本发明上述各实施例还可以包括:在每个类别的样本列表中增加新的样本的操作,并以增加新的样本后的样本列表执行上述各实施例的操作。
如图6所示,图6是本发明实施例神经网络模型的训练方法再一个实施例的流程图。该实施例的方法包括:
602,基于样本总数小于预设值的样本列表中的至少一个样本,从N种图像变换方式中选取T种图像变换方式,对所述样本依次进行与所述T种图像变换方式相应的变换处理,获得新样本,并将新样本增加至所述样本列表中。
其中,N为大于1的整数,T为大于0的整数,且T≤N,N种图像变换方式包括但不限于:尺寸裁剪变换、色彩增强变换、胶片暗角变换、径向畸变变换、透视变换与图像旋转变换。
具体实现中,如果选取过多的图像变换方式组合使用,对样本进行变换处理,会造成变换处理后的样本图像失真,如果只选取一种图像变换方式,对样本进行变换处理,无法满足扩充样本数以改善识别效果的需要,因此通常T的取值为3或4,即通常选取3种或4种图像变换方式组合使用,对样本进行变换处理,这样既能够保证变换处理后的样本图像的效果,又能够产生指数级数量增量的样本图像。
604,从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集。
其中,n和t均为整数,且1<t≤n,类别列表包含神经网络模型训练涉及的所有类别,每个类别的样本列表包含属于该类别的用于神经网络模型训练的所有样本。
具体实现中,操作102可以从包含有n个类别的类别列表中随机或依次选取t个类别,也可以从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。
具体实现中,针对包含有n个类别的类别列表和每个类别的样本列表多次执行操作604。
606,基于训练样本子集和对训练样本子集中各样本进行变换处理获得的新样本调整神经网络模型的网络参数。
其中,多次选取中至少两次训练样本子集选取的类别和/或样本不同。
具体实现中,操作606在对神经网络模型的网络参数进行调整的过程中,可以采用但不限于梯度下降法,或者最大次数控制法等进行训练停止判断,其中需要调整的网络参数可以包括但不限于卷积核大小、权重参数等。
基于本发明上述实施例提供的神经网络模型的训练方法,通过在训练样本子集的选取之前,针对样本总数小于预设值的样本列表中的样本,采用从多种图像变换方式中选取至少一种图像变换方式,并根据所选取的图像变换方式对样本进行变换处理的方式,获得新样本,并将新样本增加至样本列表中,可以实现对训练样本的扩充,有利于进一步均衡各类别的样本被选中的概率,使神经网络模型对于各类别的优化都比较均衡,从而可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
图7是本发明实施例神经网络模型的训练装置一个实施例的结构示意图。该实施例的神经网络模型的训练装置可用于实现本发明上述各实施例的神经网络模型的训练方法。如图7所示,该实施例的装置包括:选取单元和训练单元。其中:
选取单元,用于从包含有n个类别的类别列表中选取t个类别、并从t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集。
其中,n和t均为整数,且1<t≤n,类别列表包含神经网络模型训练涉及的所有类别,每个类别的样本列表包含属于该类别的用于神经网络模型训练的所有样本。
具体实现中,选取单元可以从包含有n个类别的类别列表中随机或依次选取t个类别,也可以从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。也就是说,本发明实施例不对选取单元从类别列表中选取类别的方式,和从样本列表中选取样本的方式做具体限定,它可以采用随机选取的方式,也可以采用依次选取的方式。
具体实现中,选取单元针对包含有n个类别的类别列表和每个类别的样本列表多次执行训练样本子集的选取操作。
其中,选取单元不同次从类别列表中选取的类别的数目t可以相同或不同,选取单元每次从每个类别对应的样本列表中选取的样本的数目可以相同或不同,选取单元不同次从每个类别对应的样本列表中选取的样本的数目可以相同或不同。
训练单元,用于基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件。
其中,多次选取中至少两次训练样本子集选取的类别和/或样本不同。
具体实现中,训练单元在对神经网络模型的网络参数进行调整的过程中,可以采用但不限于梯度下降法,或者最大次数控制法等进行训练停止判断,其中需要调整的网络参数可以包括但不限于卷积核大小、权重参数等。
基于本发明上述实施例提供的神经网络模型的训练装置,通过建立包含神经网络模型训练涉及的所有类别的类别列表,和针对每个类别建立包含属于该类别的用于神经网络模型训练的所有样本的样本列表,在进行神经网络模型训练时,首先从类别列表中选取需要的类别,再根据所选取的类别从对应的样本列表中选取样本,构成训练样本子集,利用训练样本子集来调整神经网络模型的网络参数,本发明实施例由于是按照类别进行训练样本的选取,可以保证用于神经网络模型训练的各类别的样本被选中的概率均衡,从而使得神经网络模型对于各类别的优化都比较均衡,由此可以避免由于不同类别的训练样本不均衡所造成的神经网络模型的性能损失,其中对于训练样本数目较少的类别,可以提高神经网络模型预测结果的精度,而对于训练样本数目较多的类别,也不会降低神经网络模型预测结果的精度,因此可以提升神经网络模型总体的性能。
图8是本发明实施例神经网络模型的训练装置另一个实施例的结构示意图。该实施例的神经网络模型的训练装置可用于实现本发明上述各实施例的神经网络模型的训练方法。如图8所示,与图7的实施例相比较,在该实施例中,选取单元还包括:第一选取模块。其中:
第一选取模块,用于从包含有n个类别的类别列表中随机或依次选取t个类别。
作为一个具体示例,第一选取模块,用于从包含有n个类别的类别列表中依次选取t个类别。
具体地,第一选取模块,具体用于若类别列表中当前未被选取的类别的数目t0小于t,从类别列表中依次选取t0个未被选取的类别、改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t-t0个类别,或者,改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t个类别;其中,t0为整数,且0<t0≤n;和/或,若类别列表中当前未被选取的类别的数目为0,改变类别列表中n个类别的顺序、并从顺序改变后的类别列表中依次选取t个类别。
图9是本发明实施例神经网络模型的训练装置又一个实施例的结构示意图。该实施例的神经网络模型的训练装置可用于实现本发明上述各实施例的神经网络模型的训练方法。如图9所示,与图8的实施例相比较,在该实施例中,选取单元还包括:第二选取模块。其中:
第二选取模块,用于从t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本。
作为一个具体示例,第二选取模块,用于从每个类别对应的样本列表中依次选取至少一个样本。
具体地,第二选取模块,具体用于若样本列表中当前未被选取的样本的数目小于需要选取的样本的数目,从样本列表中依次选取所有未被选取的样本、改变样本列表中样本的排列顺序并从顺序改变后的样本列表中依次选取剩余数目的样本,或者,改变样本列表中样本的排列顺序并从顺序改变后的样本列表中依次选取需要选取数目的样本;和/或,若样本列表中当前未被选取的样本的数目为0,改变样本列表中样本的排列顺序、并从顺序改变后的样本列表中依次选取需要选取数目的样本。
本发明上述各实施例还可以包括:第一增加单元,用于在类别列表中增加新的类别,从而本发明实施例的装置将基于第一增加单元增加新的类别后的类别列表执行神经网络模型训练的操作。
本发明上述各实施例还可以包括:第二增加单元,用于在每个类别的样本列表中增加新的样本,从而本发明实施例的装置将基于第二增加单元增加新的样本后的样本列表执行神经网络模型训练的操作。
如图10所示,图10是本发明实施例神经网络模型的训练装置再一个实施例的结构示意图。该实施例的神经网络模型的训练装置可用于实现本发明上述各实施例的神经网络模型的训练方法。与图7的实施例相比较,在该实施例中,神经网络模型的训练装置还包括:数据增强单元。其中:
数据增强单元,用于在选取单元之前,基于样本总数小于预设值的样本列表中的至少一个样本,从N种图像变换方式中选取T种图像变换方式,对所述样本依次进行与所述T种图像变换方式相应的变换处理,获得新样本,并将新样本增加至所述样本列表中。
其中,N为大于1的整数,T为大于0的整数,且T≤N,N种图像变换方式包括但不限于:尺寸裁剪变换、色彩增强变换、胶片暗角变换、径向畸变变换、透视变换与图像旋转变换。
具体实现中,如果选取过多的图像变换方式组合使用,对样本进行变换处理,会造成变换处理后的样本图像失真,如果只选取一种图像变换方式,对样本进行变换处理,无法满足扩充样本数以改善识别效果的需要,因此通常T的取值为3或4,即通常选取3种或4种图像变换方式组合使用,对样本进行变换处理,这样既能够保证变换处理后的样本图像的效果,又能够产生指数级数量增量的样本图像。
另外,本发明实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等,该电子设备设置有本发明上述任一实施例的神经网络模型的训练装置。
图11是本发明实施例电子设备一个实施例的结构示意图。如图11所示,用于实现本发明实施例的电子设备包括中央处理单元(CPU),其可以根据存储在只读存储器(ROM)中的可执行指令或者从存储部分加载到随机访问存储器(RAM)中的可执行指令而执行各种适当的动作和处理。中央处理单元可与只读存储器和/或随机访问存储器中通信以执行可执行指令从而完成本发明实施例提供的神经网络模型的训练方法对应的操作,例如:基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同,且每次训练样本子集的选取包括:从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集;其中,n和t均为整数,且1<t≤n。
此外,在RAM中,还可存储有系统操作所需的各种程序和数据。CPU、ROM以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,所述程序代码可包括对应执行本发明实施例提供的神经网络模型的训练方法步骤对应的指令,例如,基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件的指令;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同,且每次训练样本子集的选取包括:从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集的指令;其中,n和t均为整数,且1<t≤n。该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本发明的方法中限定的上述功能。
本发明实施例还提供了一种计算机存储介质,用于存储计算机可读取的指令,所述指令被执行时执行本发明上述任一实施例的神经网络模型的训练方法对应的操作。所述指令例如可以包括:基于多次选取的训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件的指令;其中,所述多次选取中至少两次训练样本子集选取的类别和/或样本不同,且每次训练样本子集的选取包括:从包含有n个类别的类别列表中选取t个类别、并从所述t个类别的每个类别分别对应的样本列表中选取至少一个样本,得到一训练样本子集的指令;其中,n和t均为整数,且1<t≤n。
另外,本发明实施例还提供了一种计算机设备,包括:
存储器,存储可执行指令;
处理器,与存储器通信以执行可执行指令从而完成本发明上述任一实施例的神经网络模型的训练方法对应的操作。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
可能以许多方式来实现本发明的方法和装置、设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和装置、设备。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (15)

1.一种神经网络模型的训练方法,其特征在于,包括:
基于样本图像总数小于预设值的样本列表中的至少一个样本图像,从N种图像变换方式中选取T种图像变换方式,对所述样本图像依次进行与所述T种图像变换方式相应的变换处理,获得新样本图像,并将新样本图像增加至所述样本图像所属的样本列表中;其中,N为大于1的整数,T为大于0的整数,且T≤N;每个所述样本列表包括同一类别的样本图像;
从n个类别的样本列表中多次选取训练样本子集,得到多个训练样本子集,其中,所述多次选取中至少两次训练样本子集选取的类别不同,且每次训练样本子集的选取包括:从所述n个类别中选取出t个类别、并从所述t个类别的每个类别分别对应的样本列表中各自选取至少一个样本图像,得到一训练样本子集;其中,n和t均为整数,且1<t≤n;
基于选取的所述多个训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件,以便将训练好的神经网络模型用于进行图像分类任务。
2.根据权利要求1所述的方法,其特征在于,所述从所述n个类别中选取出t个类别,包括:从包含有n个类别的类别列表中随机或依次选取出t个类别。
3.根据权利要求2所述的方法,其特征在于,所述从包含有n个类别的类别列表中依次选取出t个类别,包括:
若类别列表中当前未被选取的类别的数目t0小于t,从类别列表中依次选取t0个未被选取的类别、改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t-t0个类别,或者,改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t个类别;其中,t0为整数,且0<t0≤n;和/或,
若类别列表中当前未被选取的类别的数目为0,改变类别列表中n个类别的顺序、并从顺序改变后的类别列表中依次选取t个类别。
4.根据权利要求1所述的方法,其特征在于,不同次从所述n个类别中选取出的类别的数目t相同或不同;和/或,每次从每个类别对应的样本列表中选取的样本图像的数目相同或不同;和/或,不同次从每个类别对应的样本列表中选取的样本图像的数目相同或不同。
5.根据权利要求1所述的方法,其特征在于,从所述t个类别的每个类别分别对应的样本列表中各自选取至少一个样本图像,包括:从所述t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本图像。
6.根据权利要求5所述的方法,其特征在于,从每个类别对应的样本列表中依次选取至少一个样本图像,包括:
若样本列表中当前未被选取的样本图像的数目小于需要选取的样本图像的数目,从样本列表中依次选取所有未被选取的样本图像、改变样本列表中样本图像的排列顺序并从顺序改变后的样本列表中依次选取剩余数目的样本图像,或者,改变样本列表中样本图像的排列顺序并从顺序改变后的样本列表中依次选取需要选取数目的样本图像;和/或,
若样本列表中当前未被选取的样本图像的数目为0,改变样本列表中样本图像的排列顺序、并从顺序改变后的样本列表中依次选取需要选取数目的样本图像。
7.一种神经网络模型的训练装置,其特征在于,包括:
数据增强单元,用于基于样本图像总数小于预设值的样本列表中的至少一个样本图像,从N种图像变换方式中选取T种图像变换方式,对所述样本图像依次进行与所述T种图像变换方式相应的变换处理,获得新样本图像,并将新样本图像增加至所述样本图像所属的样本列表中;其中,N为大于1的整数,T为大于0的整数,且T≤N;每个所述样本列表包括同一类别的样本图像;
选取单元,用于从n个类别的样本列表中多次选取训练样本子集,得到多个训练样本子集,其中,所述多次选取中至少两次训练样本子集选取的类别不同,且每次训练样本子集的选取包括:从所述n个类别中选取出t个类别、并从所述t个类别的每个类别分别对应的样本列表中各自选取至少一个样本图像,得到一训练样本子集;其中,n和t均为整数,且1<t≤n;所述类别为样本图像中的类别;
训练单元,用于基于选取的所述多个训练样本子集分别调整神经网络模型的网络参数,直至满足神经网络模型训练的停止条件,以便将训练好的神经网络模型用于识别图像中的类别。
8.根据权利要求7所述的装置,其特征在于,所述选取单元包括:第一选取模块,用于从包含有n个类别的类别列表中随机或依次选取出t个类别。
9.根据权利要求8所述的装置,其特征在于,所述第一选取模块从包含有n个类别的类别列表中依次选取t个类别,具体用于:
若类别列表中当前未被选取的类别的数目t0小于t,从类别列表中依次选取t0个未被选取的类别、改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t-t0个类别,或者,改变类别列表中n个类别的顺序并从顺序改变后的类别列表中依次选取t个类别;其中,t0为整数,且0<t0≤n;和/或,
若类别列表中当前未被选取的类别的数目为0,改变类别列表中n个类别的顺序、并从顺序改变后的类别列表中依次选取t个类别。
10.根据权利要求7所述的装置,其特征在于,所述选取单元不同次从所述n个类别中选取出的类别的数目t相同或不同;和/或,每次从每个类别对应的样本列表中选取的样本图像的数目相同或不同;和/或,不同次从每个类别对应的样本列表中选取的样本图像的数目相同或不同。
11.根据权利要求7所述的装置,其特征在于,所述选取单元包括:第二选取模块,用于从所述t个类别的每个类别分别对应的样本列表中随机或依次选取至少一个样本图像。
12.根据权利要求11所述的装置,其特征在于,所述第二选取模块从每个类别对应的样本列表中依次选取至少一个样本图像,具体用于:
若样本列表中当前未被选取的样本图像的数目小于需要选取的样本图像的数目,从样本列表中依次选取所有未被选取的样本图像、改变样本列表中样本图像的排列顺序并从顺序改变后的样本列表中依次选取剩余数目的样本图像,或者,改变样本列表中样本图像的排列顺序并从顺序改变后的样本列表中依次选取需要选取数目的样本图像;和/或,
若样本列表中当前未被选取的样本图像的数目为0,改变样本列表中样本图像的排列顺序、并从顺序改变后的样本列表中依次选取需要选取数目的样本图像。
13.一种电子设备,其特征在于,包括权利要求7至12任意一项所述的神经网络模型的训练装置。
14.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及
处理器,用于与所述存储器通信以执行所述可执行指令从而完成权利要求1至6任意一项所述的神经网络模型的训练方法的操作。
15.一种计算机存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1至6任意一项所述的神经网络模型的训练方法的操作。
CN201710351624.1A 2017-05-18 2017-05-18 神经网络模型的训练方法和装置、电子设备和计算机存储介质 Active CN108229676B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710351624.1A CN108229676B (zh) 2017-05-18 2017-05-18 神经网络模型的训练方法和装置、电子设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710351624.1A CN108229676B (zh) 2017-05-18 2017-05-18 神经网络模型的训练方法和装置、电子设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN108229676A CN108229676A (zh) 2018-06-29
CN108229676B true CN108229676B (zh) 2022-02-25

Family

ID=62658112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710351624.1A Active CN108229676B (zh) 2017-05-18 2017-05-18 神经网络模型的训练方法和装置、电子设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN108229676B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046891A (zh) * 2018-10-11 2020-04-21 杭州海康威视数字技术股份有限公司 车牌识别模型的训练方法、车牌识别方法和装置
CN109597123B (zh) * 2018-10-26 2021-02-19 长江大学 一种有效信号检测方法及系统
CN110288085B (zh) * 2019-06-20 2022-06-03 厦门市美亚柏科信息股份有限公司 一种数据处理方法、装置、系统及存储介质
CN111292329B (zh) * 2020-01-15 2023-06-06 北京字节跳动网络技术有限公司 视频分割网络的训练方法、装置及电子设备
CN114358284A (zh) * 2022-01-12 2022-04-15 厦门市美亚柏科信息股份有限公司 一种基于类别信息对神经网络分步训练的方法、装置、介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622611A (zh) * 2012-01-13 2012-08-01 哈尔滨工业大学 基于特征扩展和模糊支持向量机的多分组图像分类方法
CN105487526A (zh) * 2016-01-04 2016-04-13 华南理工大学 一种Fast RVM污水处理故障诊断方法
CN106228183A (zh) * 2016-07-18 2016-12-14 北京邮电大学 一种半监督学习分类方法与装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2864920B1 (en) * 2012-06-21 2023-05-10 Philip Morris Products S.A. Systems and methods for generating biomarker signatures with integrated bias correction and class prediction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622611A (zh) * 2012-01-13 2012-08-01 哈尔滨工业大学 基于特征扩展和模糊支持向量机的多分组图像分类方法
CN105487526A (zh) * 2016-01-04 2016-04-13 华南理工大学 一种Fast RVM污水处理故障诊断方法
CN106228183A (zh) * 2016-07-18 2016-12-14 北京邮电大学 一种半监督学习分类方法与装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《糖尿病性视网膜图像的深度神经网络分类方法》;丁蓬莉等;《计算机应用》;20170310;第37卷(第3期);第2.2.4节,第2.1节以及图2 *

Also Published As

Publication number Publication date
CN108229676A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN108229676B (zh) 神经网络模型的训练方法和装置、电子设备和计算机存储介质
US11379901B2 (en) Methods and apparatuses for deep learning-based recommendation, electronic devices, and media
KR102170105B1 (ko) 신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체
CN109754105B (zh) 一种预测方法及终端、服务器
US11074295B2 (en) Distributed graph embedding method and apparatus, device, and system
US9406019B2 (en) Normalization of predictive model scores
Aho et al. Multi-target regression with rule ensembles.
CN108833458B (zh) 一种应用推荐方法、装置、介质及设备
US20170206361A1 (en) Application recommendation method and application recommendation apparatus
US20190205791A1 (en) Transforming attributes for training automated modeling systems
CN108021806B (zh) 一种恶意安装包的识别方法和装置
CN108304354B (zh) 一种预测模型训练方法及装置、存储介质、电子设备
US20240127058A1 (en) Training neural networks using priority queues
CN113128419B (zh) 一种障碍物识别方法和装置、电子设备及存储介质
CN108229652B (zh) 神经网络模型迁移方法和系统、电子设备、程序和介质
US20200134363A1 (en) Automatic feature selection and model generation for linear models
US20220351004A1 (en) Industry specific machine learning applications
CN110598120A (zh) 基于行为数据的理财推荐方法及装置、设备
US20230259829A1 (en) Warm starting an online bandit learner model utilizing relevant offline models
CN110879776A (zh) 一种测试用例的生成方法和装置
US10248527B1 (en) Automated device-specific dynamic operation modifications
US20210055973A1 (en) Automatic task distribution and optimization using machine learning and artificial intelligence
CN109597702B (zh) 消息总线异常的根因分析方法、装置、设备及存储介质
CN114611015B (zh) 交互信息处理方法、装置和云服务器
CN111309706A (zh) 模型训练方法、装置、可读存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant