CN110348563A - 神经网络半监督训练方法、装置、服务器及存储介质 - Google Patents
神经网络半监督训练方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110348563A CN110348563A CN201910463734.6A CN201910463734A CN110348563A CN 110348563 A CN110348563 A CN 110348563A CN 201910463734 A CN201910463734 A CN 201910463734A CN 110348563 A CN110348563 A CN 110348563A
- Authority
- CN
- China
- Prior art keywords
- network model
- output result
- sample
- nervus opticus
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种神经网络半监督训练方法,包括:利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。本发明还提供一种神经网络半监督训练装置、服务器及存储介质。通过本发明可以能够提高神经网络的拟合能力,同时使神经网络具有较高的泛化能力。
Description
技术领域
本发明涉及计算机技术领域,具体涉及一种神经网络半监督训练方法、装置、服务器及存储介质。
背景技术
基于小样本学习的神经网络容易过拟合,而对于输入维度比较高,输出维度比较低的神经网络在小样本上学习更进一步导致过拟合的发生。现有技术中,为了防止过拟合要么采用减小网络规模的方法,但是这种方法会导致网络的最大拟合能力下降;要么采用增加标记的样本规模的方法,这种方法又会有样本的标注工作量大的问题,标注人员需要进行专业培训。
发明内容
鉴于以上内容,有必要提出一种神经网络半监督训练方法、装置、服务器及存储介质,能够提高网络的拟合能力,同时使网络具有较高的泛化能力。
本发明的第一方面提供一种神经网络半监督训练方法,所述方法包括:
利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;
随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;
从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及
利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
优选地,所述利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型包括:
随机从未标记样本集中选择多个未标记的样本数据,及从标记样本集中选择多个样本数据的标记,将所述未标记的样本数据与所述样本数据的标记一一配对后建立第一样本池;
将所述第一样本池中的数据分别输入至第一神经网络模型和第二神经网络模型,并分别得到第一输出结果和第二输出结果;及
利用所述第一输出结果与样本数据的标记之间的损失对所述第一神经网络模型进行训练,和利用所述第二输出结果与样本数据的标记之间的损失对所述第二神经网络模型进行训练。
优选地,所述利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练包括:
将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失,对所述第一神经网络模型进行训练;及
将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失,对所述第二神经网络模型进行训练。
优选地,通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失,其中,所述损失函数包括平方损失函数、交叉熵损失函数、对数似然函数损失函数或0-1损失函数和绝对值损失函数。
优选地,当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值小于预设值,确认所述第一神经网络模型训练完成;
当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值大于等于所述预设值,确认所述第一神经网络模型没有训练好,继续训练所述第一神经网络模型;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值小于所述预设值,确认所述第二神经网络模型训练完成;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值大于等于所述预设值,确认所述第二神经网络模型没有训练好,继续训练所述第二神经网络模型。
优选地,所述第一神经网络模型与所述第二神经网络模型分别包括输入层、输出层和隐藏层。
优选地,所述隐藏层包括一层或者多层。
本发明的第二方面提供一种神经网络半监督训练装置,所述装置包括:
初始化模块,用于利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;
建立模块,用于随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;
第一处理模块,用于从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及
第二处理模块,用于利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
本发明的第三方面提供一种服务器,所述服务器包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述神经网络半监督训练方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述神经网络半监督训练方法。
本发明所述的神经网络半监督训练方法、装置、系统及存储介质,把对策优化引入神经网络的训练中,随机从未标记样本集中再选择多个未标记的样本数据,建立第二样本池。将所述第二样本池中的数据和第一样本池中的数据都输入至第一神经网络模型和第二神经网络模型。然后通过计算所述第二样本池的数据和第一样本池中的数据经过所述两个神经网络模型的输出结果之间的损失,来衡量进行对抗训练的两个神经网络模型之间的差距。提高网络的拟合能力同时使网络具有较高的泛化能力。能够提高在小样本上的准确率,减少了样本标注的工作量,节约了相应的成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例一提供的神经网络半监督训练方法的流程图。
图2是本发明实施例一提供的神经网络半监督训练方法中数据交互示意图。
图3是本发明实施例二提供的本发明神经网络半监督训练装置较佳实施例中的功能模块图。
图4是本发明实施例三提供的服务器的示意图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例的神经网络半监督训练方法应用在由至少一个服务器和通过网络与所述服务器进行连接的移动终端所构成的硬件环境中。网络包括但不限于:广域网、城域网或局域网。本发明实施例的神经网络半监督训练方法可以由服务器来执行,也可以由移动终端来执行;还可以是由服务器和移动终端共同执行。
所述对于需要进行神经网络半监督训练方法的服务器,可以直接在服务器上集成本发明的方法所提供的神经网络半监督训练功能,或者安装用于实现本发明的方法的客户端。再如,本发明所提供的方法还可以以软件开发工具包(Software Development Kit,SDK)的形式运行在服务器等设备上,以SDK的形式提供神经网络半监督训练功能的接口,服务器或其他设备通过提供的接口即可实现神经网络半监督训练功能。
实施例一
图1是本发明实施例一提供的神经网络半监督训练方法的流程图。根据不同的需求,该流程图中的执行顺序可以改变,某些步骤可以省略。同时参阅图2来说明本发明实施例一提供的神经网络半监督训练方法。
步骤S01、利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型。
在本实施方式中,通过监督学习算法初始化所述第一神经网络模型和第二神经网络模型。所述第一样本池的数据包括多个未标记的样本数据与多个样本数据的标记一一配对后的数据对。
所述监督学习算法(Supervised learning)是机器学习算法中的一种,可以由训练资料中学到或建立一个模式(learning model),并依此模式推测新的实例。训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。在本实施方式中,所述训练资料为多个未标记的样本数据与多个样本数据的标记一一配对后的数据对。
具体地,初始化第一神经网络模型和第二神经网络模型包括:
a、随机从未标记样本集中选择多个未标记的样本数据,及从标记样本集中选择多个样本数据的标记,将所述未标记的样本数据与所述样本数据的标记一一配对后建立第一样本池。
在本实施方式中,所述样本数据的标记为所述未标记的样本数据进过神经网络处理后的精确值。
b、将所述第一样本池中的数据分别输入至第一神经网络模型和第二神经网络模型,并分别得到第一输出结果和第二输出结果。
现有技术中,神经网络模型一般包括输入层、输出层和隐藏层。所述输入层用于接收样本数据的输入,所述输出层用于将接收的样本数据经过处理后输出,所述隐藏层为所述输入层和输出层之间众多神经元和链接组成的各个层面,负责数据处理。
由此,上述第一样本池中的数据从所述第一神经网络模型的输入层输入,经过所述第一神经网络模型处理后,所述第一神经网络模型的输出层输出所述第一输出结果;上述第一样本池中的数据从所述第二神经网络模型的输入层输入,经过所述第二神经网络模型处理后,所述第二神经网络模型的输出层输出所述第二输出结果。
可以理解的是,所述隐藏层可以有多层。
在本实施方式中,所述第一神经网络模型与所述第二神经网络模型可以是相同的网络模型,也可以是不相同的网络模型。且所述第一神经网络模型和所述第二神经网络模型可以为具有一个隐藏层的结构简单的神经网络模型,也可以为具有多个隐藏层的结构复杂的神经网络模型。
c、利用所述第一输出结果与样本数据的标记之间的损失对所述第一神经网络模型进行训练,和利用所述第二输出结果与样本数据的标记之间的损失对所述第二神经网络模型进行训练。
在本实施方式中,先通过监督学习对所述第一神经网络模型和所述第二神经网络模型进行训练,直到所述第一输出结果与所述标记一致,且所述第二输出结果与所述标记一致,才完成对所述第一神经网络模型和所述第二神经网络模型的训练。当所述第一输出结果与所述标记不一致时,确认所述第一神经网络模型没有训练好,继续通过所述监督学习算法训练所述第一神经网络模型;当所述第二输出结果与所述标记不一致时,确认所述第二神经网络模型没有训练好,继续通过所述监督学习算法训练所述第二神经网络模型。
在本实施方式中,利用所述第一神经网络模型和所述第二神经网络模型的输出层的输出结果与标记之间的损失,可以更新神经网络模型中输出层的权重参数,使输出结果尽可能的去接近标记,从而完成对神经网络模型的训练。
在本实施方式中,通过损失函数(loss function)来计算上述输出结果与标记的样本数据之间的损失。所述损失函数用来估量所述第一神经网络模型和第二神经网络模型的预测值f(x)与真实值Y的不一致程度,是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。即,所述神经网络模型的训练是通过损失函数来衡量所述神经网络模型是否已经收敛,如果未收敛,通过计算所述损失函数的梯度,沿着梯度下降的方法不断调整参数的值,重新计算神经网络模型的输出。周而复始,不断迭代直到所述神经网络模型收敛,损失函数达到一个极小值为止。
在本实施方式中,所述损失函数可以是平方损失函数、交叉熵损失函数、对数似然函数损失函数或0-1损失函数和绝对值损失函数。
可以理解的是,通过监督学习训练出来的第一神经网络模型和所述第二神经网络模型容易出现过拟合现象,训练结果不够准确。因此本方案采用增加一个辅助损失来衡量进行对抗训练的第一神经网络模型和所述第二神经网络模型之间的差距,从而继续训练所述第一神经网络模型和所述第二神经网络模型。
步骤S02、随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池。
在本实施方式中,把对策优化引入神经网络的训练中,随机从未标记样本集中再选择多个未标记的样本数据,建立第二样本池。为了解决基于小样本学习的神经网络模型容易过拟合的问题。另外选择多个未标记的样本数据通过半监督学习算法继续训练所述第一神经网络模型和第二神经网络模型。然后通过计算所述第二样本池的数据经过所述两个神经网络模型的输出结果与之前进行监督学习训练后的结果之间的损失,来衡量进行对抗训练的两个神经网络模型之间的差距。从而,可以在一定程度上克服小样本学习容易过拟合的缺点,并通过使用半监督学习的方法一方面提高了神经网络模型的准确度,另一方面减少了样本的标记工作。
步骤S03、从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果。
在本实施方式中,将所述第二样本池中的数据和所述第一样本池中的数据取出若干组成一个批次数据,将所述批次数据分别从所述第一神经网络模型和第二神经网络模型的输入层输入以进行半监督学习方法,经过所述第一神经网络模型和所述第二神经网络模型处理后,所述第一神经网络模型的输出层输出所述第三输出结果,所述第二神经网络模型的输出层输出所述第四输出结果。
步骤S04、利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
在本实施方式中,可以将所述第一神经网络模型和所述第二神经网络模型中的一者的输出结果作为具有参考意义的弱标签,再计算所述第一神经网络模型和所述第二神经网络模型中的另一者的输出结果与所述弱标签之间的损失来判断所述第一神经网络模型与所述第二神经网络模型是否训练好。
例如,将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失。同样地,也可以将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失。即,将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失,对所述第一神经网络模型进行训练;及将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失,对所述第二神经网络模型进行训练。
若通过损失函数计算出来的损失值较大,说明所述第一神经网络模型或所述第二神经网络模型没有训练好,不够收敛,需继续进行训练;若通过损失函数计算出来的损失值较小,说明所述第一神经网络模型或所述第二神经网络模型已经训练好。
例如,当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值小于预设值,确认所述第一神经网络模型训练完成;当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值大于等于所述预设值,确认所述第一神经网络模型没有训练好,继续训练所述第一神经网络模型。
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值小于所述预设值,确认所述第二神经网络模型训练完成;当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值大于等于所述预设值,确认所述第二神经网络模型没有训练好,继续对所述第二神经网络模型进行训练。
在本实施方式中,所述第三输出结果与所述第四输出结果之间的损失可以用来衡量进行对抗训练的所述第一神经网络模型和所述第二神经网络模型之间的差距,其可以定义所述第一神经网络模型和所述第二神经网络模型在样本集空间上的距离。通过反复训练至所述第一神经网络模型和所述第二神经网络模型最后都收敛,就说明所述第一神经网络模型和所述第二神经网络模型在博弈中达到了纳什均衡。
可选地,基于就近原则,在标记附近的无标记样本数据可以推测其也具有与其接近的标记相同的标记结果,这些无标记样本数据也可以用于对输出层的训练。可以理解的是,利用标记对神经网络模型进行训练更加准确。
综上所述,本发明提供的神经网络半监督训练方法,包括利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
本发明通过把对策优化引入神经网络的训练中,随机从未标记样本集中再选择多个未标记的样本数据,建立第二样本池。将所述第二样本池中的数据和第一样本池中的数据都输入至第一神经网络模型和第二神经网络模型。然后通过计算所述第二样本池的数据和第一样本池中的数据经过所述两个神经网络模型的输出结果之间的损失,来衡量进行对抗训练的两个神经网络模型之间的差距。提高网络的拟合能力同时使网络具有较高的泛化能力。能够提高在小样本上的准确率,减少了样本标注的工作量节约了相应的成本。
实施例二
图3为本发明神经网络半监督训练装置较佳实施例中的功能模块图。
在一些实施例中,所述神经网络半监督训练装置20(下文简称为“训练装置20”)运行于服务器中。所述训练装置20可以包括多个由程序代码段所组成的功能模块。所述训练装置20中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行神经网络半监督训练功能。
本实施例中,所述训练装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:初始化模块201、建立模块202、第一处理模块203及第二处理模块204。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
所述初始化模块201用于利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型。
在本实施方式中,通过监督学习算法初始化所述第一神经网络模型和第二神经网络模型。所述第一样本池的数据包括多个未标记的样本数据与多个样本数据的标记一一配对后的数据对。
所述监督学习算法(Supervised learning)是机器学习算法中的一种,可以由训练资料中学到或建立一个模式(learning model),并依此模式推测新的实例。训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。在本实施方式中,所述训练资料为多个未标记的样本数据与多个样本数据的标记一一配对后的数据对。
具体地,初始化第一神经网络模型和第二神经网络模型包括:
a、随机从未标记样本集中选择多个未标记的样本数据,及从标记样本集中选择多个样本数据的标记,将所述未标记的样本数据与所述样本数据的标记一一配对后建立第一样本池。
在本实施方式中,所述样本数据的标记为所述未标记的样本数据进过神经网络处理后的精确值。
b、将所述第一样本池中的数据分别输入至第一神经网络模型和第二神经网络模型,并分别得到第一输出结果和第二输出结果。
现有技术中,神经网络模型一般包括输入层、输出层和隐藏层。所述输入层用于接收样本数据的输入,所述输出层用于将接收的样本数据经过处理后输出,所述隐藏层为所述输入层和输出层之间众多神经元和链接组成的各个层面,负责数据处理。
由此,上述第一样本池中的数据从所述第一神经网络模型的输入层输入,经过所述第一神经网络模型处理后,所述第一神经网络模型的输出层输出所述第一输出结果;上述第一样本池中的数据从所述第二神经网络模型的输入层输入,经过所述第二神经网络模型处理后,所述第二神经网络模型的输出层输出所述第二输出结果。
可以理解的是,所述隐藏层可以有多层。
在本实施方式中,所述第一神经网络模型与所述第二神经网络模型可以是相同的网络模型,也可以是不相同的网络模型。且所述第一神经网络模型和所述第二神经网络模型可以为具有一个隐藏层的结构简单的神经网络模型,也可以为具有多个隐藏层的结构复杂的神经网络模型。
c、利用所述第一输出结果与样本数据的标记之间的损失对所述第一神经网络模型进行训练,和利用所述第二输出结果与样本数据的标记之间的损失对所述第二神经网络模型进行训练。
在本实施方式中,先通过监督学习对所述第一神经网络模型和所述第二神经网络模型进行训练,直到所述第一输出结果与所述标记一致,且所述第二输出结果与所述标记一致,才完成对所述第一神经网络模型和所述第二神经网络模型的训练。当所述第一输出结果与所述标记不一致时,确认所述第一神经网络模型没有训练好,继续通过所述监督学习算法训练所述第一神经网络模型;当所述第二输出结果与所述标记不一致时,确认所述第二神经网络模型没有训练好,继续通过所述监督学习算法训练所述第二神经网络模型。
在本实施方式中,利用所述第一神经网络模型和所述第二神经网络模型的输出层的输出结果与标记之间的损失,可以更新神经网络模型中输出层的权重参数,使输出结果尽可能的去接近标记,从而完成对神经网络模型的训练。
在本实施方式中,通过损失函数(loss function)来计算上述输出结果与标记的样本数据之间的损失。所述损失函数用来估量所述第一神经网络模型和第二神经网络模型的预测值f(x)与真实值Y的不一致程度,是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。即,所述神经网络模型的训练是通过损失函数来衡量所述神经网络模型是否已经收敛,如果未收敛,通过计算所述损失函数的梯度,沿着梯度下降的方法不断调整参数的值,重新计算神经网络模型的输出。周而复始,不断迭代直到所述神经网络模型收敛,损失函数达到一个极小值为止。
在本实施方式中,所述损失函数可以是平方损失函数、交叉熵损失函数、对数似然函数损失函数或0-1损失函数和绝对值损失函数。
可以理解的是,通过监督学习训练出来的第一神经网络模型和所述第二神经网络模型容易出现过拟合现象,训练结果不够准确。因此本方案采用增加一个辅助损失来衡量进行对抗训练的第一神经网络模型和所述第二神经网络模型之间的差距,从而继续训练所述第一神经网络模型和所述第二神经网络模型。
所述建立模块202用于随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池。
在本实施方式中,把对策优化引入神经网络的训练中,随机从未标记样本集中再选择多个未标记的样本数据,建立第二样本池。为了解决基于小样本学习的神经网络模型容易过拟合的问题。另外选择多个未标记的样本数据通过半监督学习算法继续训练所述第一神经网络模型和第二神经网络模型。然后通过计算所述第二样本池的数据经过所述两个神经网络模型的输出结果与之前进行监督学习训练后的结果之间的损失,来衡量进行对抗训练的两个神经网络模型之间的差距。从而,可以在一定程度上克服小样本学习容易过拟合的缺点,并通过使用半监督学习的方法一方面提高了神经网络模型的准确度,另一方面减少了样本的标记工作。
所述第一处理模块203用于从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果。
在本实施方式中,将所述第二样本池中的数据和所述第一样本池中的数据取出若干组成一个批次数据,将所述批次数据分别从所述第一神经网络模型和第二神经网络模型的输入层输入以进行半监督学习方法,经过所述第一神经网络模型和所述第二神经网络模型处理后,所述第一神经网络模型的输出层输出所述第三输出结果,所述第二神经网络模型的输出层输出所述第四输出结果。
所述第二处理模块204用于利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
在本实施方式中,可以将所述第一神经网络模型和所述第二神经网络模型中的一者的输出结果作为具有参考意义的弱标签,再计算所述第一神经网络模型和所述第二神经网络模型中的另一者的输出结果与所述弱标签之间的损失来判断所述第一神经网络模型与所述第二神经网络模型是否训练好。
例如,将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失。同样地,也可以将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失。即,将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失,对所述第一神经网络模型进行训练;及将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失,对所述第二神经网络模型进行训练。
若通过损失函数计算出来的损失值较大,说明所述第一神经网络模型或所述第二神经网络模型没有训练好,不够收敛,需继续进行训练;若通过损失函数计算出来的损失值较小,说明所述第一神经网络模型或所述第二神经网络模型已经训练好。
例如,当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值小于预设值,确认所述第一神经网络模型训练完成;当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值大于等于所述预设值,确认所述第一神经网络模型没有训练好,继续训练所述第一神经网络模型。
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值小于所述预设值,确认所述第二神经网络模型训练完成;当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值大于等于所述预设值,确认所述第二神经网络模型没有训练好,继续对所述第二神经网络模型进行训练。
在本实施方式中,所述第三输出结果与所述第四输出结果之间的损失可以用来衡量进行对抗训练的所述第一神经网络模型和所述第二神经网络模型之间的差距,其可以定义所述第一神经网络模型和所述第二神经网络模型在样本集空间上的距离。通过反复训练至所述第一神经网络模型和所述第二神经网络模型最后都收敛,就说明所述第一神经网络模型和所述第二神经网络模型在博弈中达到了纳什均衡。
可选地,基于就近原则,在标记附近的无标记样本数据可以推测其也具有与其接近的标记相同的标记结果,这些无标记样本数据也可以用于对输出层的训练。可以理解的是,利用标记对神经网络模型进行训练更加准确。
综上所述,本发明提供的神经网络半监督训练方法,包括利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
本发明通过把对策优化引入神经网络的训练中,随机从未标记样本集中再选择多个未标记的样本数据,建立第二样本池。将所述第二样本池中的数据和第一样本池中的数据都输入至第一神经网络模型和第二神经网络模型。然后通过计算所述第二样本池的数据和第一样本池中的数据经过所述两个神经网络模型的输出结果之间的损失,来衡量进行对抗训练的两个神经网络模型之间的差距。提高网络的拟合能力同时使网络具有较高的泛化能力。能够提高在小样本上的准确率,减少了样本标注的工作量节约了相应的成本。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,双屏设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
实施例三
图4为本发明实施例三提供的服务器的示意图。
所述服务器3包括:数据库31、存储器32、至少一个处理器33、存储在所述存储器32中并可在所述至少一个处理器33上运行的计算机程序34及至少一条通讯总线35。
所述至少一个处理器33执行所述计算机程序34时实现上述神经网络半监督训练方法实施例中的步骤。
示例性的,所述计算机程序34可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器32中,并由所述至少一个处理器33执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序34在所述服务器3中的执行过程。
所述服务器3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(应用程序licationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。本领域技术人员可以理解,所述示意图4仅仅是服务器3的示例,并不构成对服务器3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述服务器3还可以包括输入输出设备、网络接入设备、总线等。
所述数据库(Database)31是按照数据结构来组织、存储和管理数据的建立在所述服务器3上的仓库。数据库通常分为层次式数据库、网络式数据库和关系式数据库三种。在本实施方式中,所述数据库31用于存储所述样本数据等。
所述至少一个处理器33可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。该处理器33可以是微处理器或者该处理器33也可以是任何常规的处理器等,所述处理器33是所述服务器3的控制中心,利用各种接口和线路连接整个服务器3的各个部分。
所述存储器32可用于存储所述计算机程序34和/或模块/单元,所述处理器33通过运行或执行存储在所述存储器32内的计算机程序和/或模块/单元,以及调用存储在存储器32内的数据,实现所述服务器3的各种功能。所述存储器32可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器3的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器32可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器32中存储有程序代码,且所述至少一个处理器33可调用所述存储器32中存储的程序代码以执行相关的功能。例如,图3中所述的各个模块(接收模块201、建立模块202、第一处理模块203及第二处理模块204)是存储在所述存储器32中的程序代码,并由所述至少一个处理器33所执行,从而实现所述各个模块的功能以达到神经网络半监督训练目的。
所述初始化模块201用于利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;
所述建立模块202用于随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;
所述第一处理模块203用于从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及
所述第二处理模块204用于利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
优选地,所述利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型包括:
随机从未标记样本集中选择多个未标记的样本数据,及从标记样本集中选择多个样本数据的标记,将所述未标记的样本数据与所述样本数据的标记一一配对后建立第一样本池;
将所述第一样本池中的数据分别输入至第一神经网络模型和第二神经网络模型,并分别得到第一输出结果和第二输出结果;及
利用所述第一输出结果与样本数据的标记之间的损失对所述第一神经网络模型进行训练,和利用所述第二输出结果与样本数据的标记之间的损失对所述第二神经网络模型进行训练。
优选地,所述利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练包括:
将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失,对所述第一神经网络模型进行训练;及
将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失,对所述第二神经网络模型进行训练。
优选地,通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失,其中,所述损失函数包括平方损失函数、交叉熵损失函数、对数似然函数损失函数或0-1损失函数和绝对值损失函数。
优选地,当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值小于预设值,确认所述第一神经网络模型训练完成;
当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值大于等于所述预设值,确认所述第一神经网络模型没有训练好,继续训练所述第一神经网络模型;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值小于所述预设值,确认所述第二神经网络模型训练完成;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值大于等于所述预设值,确认所述第二神经网络模型没有训练好,继续对所述第二神经网络模型进行训练。
优选地,所述第一神经网络模型与所述第二神经网络模型分别包括输入层、输出层和隐藏层。
优选地,所述隐藏层包括一层或者多层。
所述服务器3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
尽管未示出,所述服务器3还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理系统与所述至少一个处理器33逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述服务器3还可以包括蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
在本发明所提供的几个实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的电子设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神范围。
Claims (10)
1.一种神经网络半监督训练方法,其特征在于,所述方法包括:
利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;
随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;
从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及
利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
2.如权利要求1所述的神经网络半监督训练方法,其特征在于,所述利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型包括:
随机从未标记样本集中选择多个未标记的样本数据,及从标记样本集中选择多个样本数据的标记,将所述未标记的样本数据与所述样本数据的标记一一配对后建立第一样本池;
将所述第一样本池中的数据分别输入至第一神经网络模型和第二神经网络模型,并分别得到第一输出结果和第二输出结果;及
利用所述第一输出结果与样本数据的标记之间的损失对所述第一神经网络模型进行训练,和利用所述第二输出结果与样本数据的标记之间的损失对所述第二神经网络模型进行训练。
3.如权利要求1所述的神经网络半监督训练方法,其特征在于,所述利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练包括:
将所述第四输出结果作为具有参考意义的弱标签,再计算所述第四输出结果与所述第三输出结果之间的损失,对所述第一神经网络模型进行训练;及
将所述第三输出结果作为具有参考意义的弱标签,再计算所述第三输出结果与所述第四输出结果之间的损失,对所述第二神经网络模型进行训练。
4.如权利要求3所述的神经网络半监督训练方法,其特征在于,通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失,其中,所述损失函数包括平方损失函数、交叉熵损失函数、对数似然函数损失函数或0-1损失函数和绝对值损失函数。
5.如权利要求4所述的神经网络半监督训练方法,其特征在于:
当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值小于预设值,确认所述第一神经网络模型训练完成;
当通过损失函数计算所述第四输出结果与所述第三输出结果之间的损失得到的值大于等于所述预设值,确认所述第一神经网络模型没有训练好,继续训练所述第一神经网络模型;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值小于所述预设值,确认所述第二神经网络模型训练完成;
当通过损失函数计算所述第三输出结果与所述第四输出结果之间的损失得到的值大于等于所述预设值,确认所述第二神经网络模型没有训练好,继续训练所述第二神经网络模型。
6.如权利要求1所述的神经网络半监督训练方法,其特征在于,所述第一神经网络模型与所述第二神经网络模型分别包括输入层、输出层和隐藏层。
7.如权利要求6所述的神经网络半监督训练方法,其特征在于,所述隐藏层包括一层或者多层。
8.一种神经网络半监督训练装置,其特征在于,所述装置包括:
初始化模块,用于利用第一样本池的数据初始化第一神经网络模型和第二神经网络模型;
建立模块,用于随机从未标记样本集中选择多个未标记的样本数据,建立第二样本池;
第一处理模块,用于从所述第二样本池和所述第一样本池中分别取出若干数据组成一个批次数据,将所述批次数据输入至所述第一神经网络模型和所述第二神经网络模型,并分别得到第三输出结果和第四输出结果;及
第二处理模块,用于利用所述第三输出结果与所述第四输出结果之间的损失对所述第一神经网络模型与所述第二神经网络模型进行训练。
9.一种服务器,其特征在于,所述服务器包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至7中任意一项所述的神经网络半监督训练方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的神经网络半监督训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463734.6A CN110348563A (zh) | 2019-05-30 | 2019-05-30 | 神经网络半监督训练方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463734.6A CN110348563A (zh) | 2019-05-30 | 2019-05-30 | 神经网络半监督训练方法、装置、服务器及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110348563A true CN110348563A (zh) | 2019-10-18 |
Family
ID=68174466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910463734.6A Pending CN110348563A (zh) | 2019-05-30 | 2019-05-30 | 神经网络半监督训练方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110348563A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291833A (zh) * | 2020-03-20 | 2020-06-16 | 京东方科技集团股份有限公司 | 应用于监督学习系统训练的数据增强方法和数据增强装置 |
CN111310823A (zh) * | 2020-02-12 | 2020-06-19 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子系统 |
CN111402929A (zh) * | 2020-03-16 | 2020-07-10 | 南京工程学院 | 基于域不变的小样本语音情感识别方法 |
CN111598182A (zh) * | 2020-05-22 | 2020-08-28 | 北京市商汤科技开发有限公司 | 训练神经网络及图像识别的方法、装置、设备及介质 |
CN116086497A (zh) * | 2023-04-11 | 2023-05-09 | 北京理工导航控制科技股份有限公司 | 基于神经网络的光纤陀螺仪低角速率下的输出校正方法、装置、介质 |
-
2019
- 2019-05-30 CN CN201910463734.6A patent/CN110348563A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310823A (zh) * | 2020-02-12 | 2020-06-19 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子系统 |
CN111310823B (zh) * | 2020-02-12 | 2024-03-29 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子系统 |
CN111402929A (zh) * | 2020-03-16 | 2020-07-10 | 南京工程学院 | 基于域不变的小样本语音情感识别方法 |
CN111402929B (zh) * | 2020-03-16 | 2022-09-20 | 南京工程学院 | 基于域不变的小样本语音情感识别方法 |
CN111291833A (zh) * | 2020-03-20 | 2020-06-16 | 京东方科技集团股份有限公司 | 应用于监督学习系统训练的数据增强方法和数据增强装置 |
CN111598182A (zh) * | 2020-05-22 | 2020-08-28 | 北京市商汤科技开发有限公司 | 训练神经网络及图像识别的方法、装置、设备及介质 |
CN111598182B (zh) * | 2020-05-22 | 2023-12-01 | 北京市商汤科技开发有限公司 | 训练神经网络及图像识别的方法、装置、设备及介质 |
CN116086497A (zh) * | 2023-04-11 | 2023-05-09 | 北京理工导航控制科技股份有限公司 | 基于神经网络的光纤陀螺仪低角速率下的输出校正方法、装置、介质 |
CN116086497B (zh) * | 2023-04-11 | 2023-06-09 | 北京理工导航控制科技股份有限公司 | 基于神经网络的光纤陀螺仪低角速率下的输出校正方法、装置、介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348563A (zh) | 神经网络半监督训练方法、装置、服务器及存储介质 | |
CN108171280A (zh) | 一种分类器构建方法及预测分类的方法 | |
Vieira et al. | Two cooperative ant colonies for feature selection using fuzzy models | |
US20210350382A1 (en) | Machine learning system for transaction reconciliation | |
CN111008640B (zh) | 图像识别模型训练及图像识别方法、装置、终端及介质 | |
CN109765462A (zh) | 输电线路的故障检测方法、装置和终端设备 | |
CN108427708A (zh) | 数据处理方法、装置、存储介质和电子装置 | |
CN111860828B (zh) | 一种神经网络的训练方法、存储介质和设备 | |
CN109508789A (zh) | 预测手牌的方法、存储介质、处理器以及设备 | |
CN110442718A (zh) | 语句处理方法、装置及服务器和存储介质 | |
CN112215212B (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN108304427A (zh) | 一种用户客群分类方法和装置 | |
CN110532417A (zh) | 基于深度哈希的图像检索方法、装置及终端设备 | |
CN110472790A (zh) | 一种多无人船路径规划方法、终端设备及存储介质 | |
CN110033281A (zh) | 一种智能客服至人工客服转换的方法及装置 | |
CN110515732A (zh) | 一种基于资源受限机器人深度学习推理的任务分配方法 | |
CN111259738A (zh) | 人脸识别模型构建方法、人脸识别方法及相关装置 | |
CN110688478B (zh) | 一种答案排序方法、装置及存储介质 | |
CN110378297A (zh) | 一种基于深度学习的遥感图像目标检测方法 | |
CN111079001A (zh) | 装修推荐信息生成方法、装置、存储介质及电子设备 | |
CN108446534A (zh) | 选择神经网络超参数的方法、装置和计算机可读存储介质 | |
CN113590863A (zh) | 图像聚类方法、装置及计算机可读存储介质 | |
CN108961267A (zh) | 图片处理方法、图片处理装置及终端设备 | |
CN108229536A (zh) | 分类预测模型的优化方法、装置及终端设备 | |
CN109815541A (zh) | 轨道交通车辆产品零部件模块划分方法、装置与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |