WO2021233389A1 - 增强深度学习模型鲁棒性的方法及装置 - Google Patents
增强深度学习模型鲁棒性的方法及装置 Download PDFInfo
- Publication number
- WO2021233389A1 WO2021233389A1 PCT/CN2021/094950 CN2021094950W WO2021233389A1 WO 2021233389 A1 WO2021233389 A1 WO 2021233389A1 CN 2021094950 W CN2021094950 W CN 2021094950W WO 2021233389 A1 WO2021233389 A1 WO 2021233389A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- prediction
- feature vector
- sample feature
- sample
- sub
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本说明书实施例提供了一种增强深度学习模型鲁棒性的方法及装置,该方法应用于深度学习模块,包括:提取目标样本的样本特征向量;重复执行多次设定操作;针对每次执行设定操作所得到的随机失活处理后的样本特征向量,使用随机失活处理后的样本特征向量进行预测,得到其所对应的子预测结果;根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差;其中,上述设定操作包括获取样本特征向量,并对该样本特征向量进行随机失活处理。
Description
本申请涉及人工智能技术领域,尤其涉及一种增强深度学习模型鲁棒性的方法及装置。
随着人工智能技术的迅速发展,能够进行图像识别、语音识别、自然语言处理等的深度学习模型也在各个领域得到了广泛的应用和快速的普及。而随着深度学习模型在各个领域的广泛应用和普及,对深度学习模型的鲁棒性和可靠性则有了更高的要求,尤其是对可靠性要求较高的一些领域,如自动驾驶领域、医疗领域等。
虽然目前已经存在一些提高深度学习模型鲁棒性的方案,比如使用扰动样本重新进行模型的训练,这样所耗费的计算量较大、实用性较低。因此,亟需提出一种技术方案,以便通过较少的计算量就可以提高深度学习模型的鲁棒性。
发明内容
本说明书实施例提供了一种增强深度学习模型鲁棒性的方法。其中,该方法应用于深度学习模型,且该方法包括:提取目标样本的样本特征向量。重复执行多次设定操作。其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量。针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果。根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。其中,所述预测误差用于指示所述预测结果的可靠程度。
本说明书实施例还提供了一种增强深度学习模型鲁棒性的装置。其中,该装置应用于深度学习模型,且该装置包括:提取模块,提取目标样本的样本特征向量。执行模块,重复执行多次设定操作。其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量。预测模块,针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果。 确定模块,根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。其中,所述预测误差用于指示所述预测结果的可靠程度。
本说明书实施例还提供了一张增强深度学习模型鲁棒性的设备。该设备包括处理器,以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:提取目标样本的样本特征向量。重复执行多次设定操作。其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量。针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果。根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。其中,所述预测误差用于指示所述预测结果的可靠程度。
本说明书实施例还提供了一种存储介质。该存储介质用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:提取目标样本的样本特征向量。重复执行多次设定操作。其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量。针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果。根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。其中,所述预测误差用于指示所述预测结果的可靠程度。
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的增强深度学习模型鲁棒性的方法的第一种方法流程图;
图2为本说明书实施例提供的增强深度学习模型鲁棒性的方法的第二种方法流程图;
图3为本说明书实施例提供的增强深度学习模型鲁棒性的装置的模块组成示意图;
图4为本说明书实施例提供的增强深度学习模型鲁棒性的设备的结构示意图。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本说明书实施例的思想在于,复用深度学习网络模型的特征提取器所提取的样本特征,对从特征提取器重复获取的多个样本特征进行随机失活处理,这样可以得到多个不同的样本特征,从而使用多个不同的样本特征进行多次预测,根据多次预测的结果确定出样本所对应的预测结果和预测误差,根据样本的预测误差便可确定预测结果的可靠程度,从而对于可靠性较差的预测结果进行拒绝,从而可以提高深度学习模型的鲁棒性。由于复用了特征提取器所提取的样本特征,这样不需要多次执行提取样本特征的操作,从而减少了计算量。基于此思想,本说明书实施例提供了一种增强深度学习模型鲁棒性的方法、装置、设备及存储介质,下述将一一详细进行介绍。
图1为本说明书实施例提供的增强深度学习模型鲁棒性的方法的第一种方法流程图,其中,该方法应用于深度学习模型,图1所示的方法,至少包括如下步骤:步骤102,提取目标样本的样本特征向量。
其中,目标样本为输入至深度学习模型的样本,例如,该样本可以为图片样本、文本样本、语音样本等等,上述目标样本可以是任意能够通过深度学习模型进行处理的样本,此处只是示例性说明,并不构成对本说明书实施例的限定。另外,还需要说明的是,上述目标样本可以是扰动样本,也可以是非扰动样本。
步骤104,重复执行多次设定操作;其中,该设定操作包括获取上述样本特征向量,并对该样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量。
其中,上述“多次”的具体取值可以根据实际应用场景进行设置,本说明书实施例并不对“多次”的具体取值进行限定。
可选的,在具体实施时,每次对样本特征向量进行随机失活处理后得到的随机失活处理后的样本特征向量均不相同。
为便于理解,下述将举例进行说明。
例如,在一种具体实施方式中,假设通过步骤102提取的样本特征向量为样本特征向量A,重复执行五次设定操作,五次操作如下所示:
第一次,获取样本特征向量A,对样本特征向量A进行随机失活处理,得到随机失活处理后的样本特征向量B;
第二次,获取样本特征向量A,对样本特征向量A进行随机失活处理,得到随机失活处理后的样本特征向量C;
第三次,获取样本特征向量A,对样本特征向量A进行随机失活处理,得到随机失活处理后的样本特征向量D;
第四次,获取样本特征向量A,对样本特征向量A进行随机失活处理,得到随机失活处理后的样本特征向量E;
第五次,获取样本特征向量A,对样本特征向量A进行随机失活处理,得到随机失活处理后的样本特征向量F。
样本特征向量B、样本特征向量C、样本特征向量D、样本特征向量E和样本特征向量F为不同的样本特征向量。实际上可以理解,通过对样本特征向量A进行随机失活处理,一方面可以减少过拟合,另一方面,可以将重复获取的多个相同的样本特征向量A转化为相应数量个不同的样本特征向量。
另外,需要说明的是,在本说明书实施例中,通过上述步骤104重复执行多次设定操作可以得到多个随机失活处理后的样本特征向量,且所得到的随机失活处理后的样本特征向量的个数与上述设定操作重复执行的次数相同。例如,若是重复执行了五次设定操作,则得到的随机失活处理后的样本特征向量的个数也为五个。
步骤106,针对每次执行上述设定操作所得到的随机失活处理后的样本特征向量,使用随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果。
在本说明书实施例中,使用一个随机失活处理后的样本特征向量进行一次预测,即一个随机失活处理后的样本特征向量对应一个子预测结果。所以在本说明书实施例中,执行设定操作的次数、随机失活处理后的样本特征向量的个数以及子预测结果的个数是相等的。
步骤108,根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差;其中,上述预测误差用于指示该预测结果的可靠程度。
在本说明书实施例中,由于存在多个子预测结果,因此,可以确定出预测结果的预测误差。这样,可以根据预测误差判断出该深度学习模型所得到目标样本的预测结果是否为可靠结果,以便在深度学习模型得到的结果为非可靠结果时,可以拒绝该预测结果,从而可以提高深度学习模型的鲁棒性;并且,由于复用了所提取的样本特征向量,因此,不需要执行多次提取样本特征的过程,减少了计算量。
可选的,在一种具体实施方式中,各个子预测结果可以包括目标样本属于XX的子预测概率值;目标样本的预测结果可以包括目标样本属于XX的预测概率值。例如,目标样本为图像,且该图像为汽车,则通过深度学习模型所得到的子预测结果可以为目标样本属于汽车的子预测概率值;目标样本的预测结果可以包括目标样本属于XX的预测概率值。
可选的,在一种具体实施方式中,上述预测结果包括预测概率值;相应的,上述步骤108中,根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差,具体包括:确定多个子预测结果所对应的各个子预测概率值的平均值,并将该平均值确定为目标样本的预测概率值;以及,确定多个子预测结果所对应的各个子预测概率值的标准差,并将该标准差确定为上述预测误差。
为便于理解,下述将举例进行说明。
例如,继续沿用上例,分别使用样本特征向量B、样本特征向量C、样本特征向量D、样本特征向量E和样本特征向量F进行预测,得到样本特征向量B所对应的子预测结果1、样本特征向量C所对应的子预测结果2、样本特征向量D所对应的子预测结果3、样本特征向量E所对应的子预测结果4和样本特征向量F所对应的子预测结果5。
计算子预测结果1所对应的子预测概率值、子预测结果2所对应的子预测概率值、子预测结果3所对应的子预测概率值、子预测结果4所对应的子预测概率值和子预测结果5所对应子预测概率值的平均值,将该平均值作为目标样本所对应的预测概率值;以及计算子预测结果1所对应的子预测概率值、子预测结果2所对应的子预测概率值、子预测结果3所对应的子预测概率值、子预测结果4所对应的子预测概率值和子预测结果5所对应子预测概率值的标准差,将该标准差作为目标样本所对应的预测结果的预测误差。
因此,在一种具体实施方式中,深度学习模型所输出的目标样本的预测结果可以为P+M的形式,其中,P表征目标样本为XX的预测概率值,M表示预测误差。预测误差的值越大,表征该预测结果的可靠性越低。当然,在某些具体实施方式中,可以设置误差阈值,当预测误差的值大于该误差阈值时,则认为该预测结果为不可靠的,当预测误差小于 或等于该误差阈值时,则认为该预测结果是可靠的。
可选的,在一种具体实施方式中,上述深度学习模型可以由特征提取器和分类器构成;相应的,上述步骤102中,提取目标样本的样本特征向量,包括:通过上述特征提取器提取目标样本的样本特征向量;上述步骤104中,重复执行多次设定操作,包括:通过上述分类器重复执行多次设定操作;上述步骤106中,针对每次执行设定操作所得到的随机失活处理后的样本特征向量,使用随机失活处理后的样本特征向量进行预测,得到随机失活处理后的样本特征向量所对应的子预测结果,包括:针对每次执行设定操作所得到的随机失活处理后的样本特征向量,通过上述分类器使用随机失活处理后的样本特征向量进行预测,得到随机失活处理后的样本特征向量所对应的子预测结果;上述步骤108中,根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差,包括:通过上述分类器根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差。
一般的,对于输入深度学习模型的目标样本,则是先经过特征提取器,由特征提取器提取该目标样本的样本特征向量,然后再将样本特征向量传输至分类器,从而由分类器对目标样本的样本特征向量执行后续操作。
可选的,在一种具体实施方式中,上述分类器包括随机失活(dropout)层和全连接层;且dropout层位于所述全连接层的前面;相应的,上述步骤104中,重复执行多次设定操作,包括:通过dropout层重复执行多次设定操作;上述步骤106中,针对每次执行设定操作所得到的随机失活处理后的样本特征向量,使用随机失活处理后的样本特征向量进行预测,得到随机失活处理后的样本特征向量所对应的子预测结果,包括:针对dropout层每次执行上述设定操作所得到的随机失活处理后的样本特征向量,通过全连接层使用随机失活处理后的样本特征向量进行预测,得到随机失活处理后的样本特征向量所对应的子预测结果;上述步骤108中,根据多个子预测结果确定目标样本的预测结果和针对该预测结果的预测误差,包括:通过全连接层根据多个子预测结果确定目标样本测预测结果和针对该预测结果的预测误差。
另外,在本说明书实施例中,上述特征提取器可以为卷积神经网,且该卷积神经网络包括多层卷积层。这样,可以通过对目标样本进行多次卷积处理的方式提取目标样本的样本特征向量。
因此,在本说明书实施例中,在将目标样本输入至深度学习模型后,首先经过深度学习模型的卷积神经网络,通过卷积神经网络对该目标样本进行多次卷积处理,得到目标样 本的样本特征向量;然后,通过dropout层执行多次设定操作,并且针对每次设定操作所输出的随机失活处理后的样本特征向量,通过全连接层使用该随机失活处理后的样本特征向量进行预测,得到该随机失活处理后的样本特征向量所对应的子预测结果,由于dropout层执行多次设定操作,因此,从dropout层可以输出多个随机失活处理后的样本特征向量,进而,通过全连接层可以进行多次预测,得到多个子预测结果;并通过全连接层计算多个子预测结果的平均值,作为目标样本的预测结果,以及,确定多个子预测结果的标准差,作为目标样本的预测结果的预测误差。
另外,需要说明的是,在一种具体实施方式中,本说明书实施例中所使用的深度学习模型可以是采用微调(fine tune)的方法训练得到的。具体的,可以是使用预先训练好的模型(如ResNet网络模型、VGG模型、MobileNets模型等)作为骨干(backbone)网络(其中,这些backbone网络不包含dropout层)。之后去掉backbone网络顶部的全连阶层,留下卷积神经网络作为特征提取器,其中,该特征提取器用于提取输入模型的目标样本的样本特征向量,一般情况下,通过特征提取器提取出的样本特征向量可以为512维或者1024维。最后增加dropout层和全连接层形成新的分类器。分类器通常是非常简单的一层或两层全连接神经网络。
当然,在进行深度学习模型的训练过程中,既可以只训练新增的全连接层(即采用fine tune的方法),也可以在全连阶层训练好之后再进一步fine tune所有权重,本说明书实施例并不对此进行限定。
图2为本说明书实施例提供的增强学习深度模型鲁棒性的方法的第二种方法流程图,图2所示的方法,至少包括如下步骤:步骤202,通过深度学习模型的卷积神经网络层获取输入至深度学习模型的目标样本,并提取目标样本的样本特征向量。
步骤204,通过dropout层执行多次设定操作;其中,该设定操作包括从卷积神经网络层获取样本特征向量,对该样本特征向量进行dropout处理,得到dropout处理后的样本特征向量。
步骤206,通过全连接层从dropout层获取多个dropout处理后的样本特征向量,并对dropout处理后的样本特征向量进行预测,得到多个子预测结果。
其中,上述各个子结果包括目标样本属于XX的子预测概率值。
步骤208,通过全连接层计算多个子预测结果所对应的子预测概率值的平均值,将该 平均值作为目标样本的预测结果;以及,计算多个子预测结果所对应的子预测概率值的标准差,将该标准差作为目标样本的预测结果的预测误差。
本说明书实施例提供的增强深度学习模型鲁棒性的方法,复用深度学习网络模型的特征提取器所提取的样本特征,对从特征提取器重复获取的多个样本特征进行随机失活处理,这样可以得到多个不同的样本特征,从而使用多个不同的样本特征进行多次预测,根据多次预测的结果确定出样本所对应的预测结果和预测误差,根据样本的预测误差便可确定预测结果的可靠程度,从而对于可靠性较差的预测结果进行拒绝,从而可以提高深度学习模型的鲁棒性。由于复用了特征提取器所提取的样本特征,这样不需要多次执行提取样本特征的操作,从而减少了计算量,即通过较少的计算量就可以增强深度学习模型的鲁棒性。
对应于图1至图2所示实施例提供的方法,基于相同的思路,本说明书实施例还提供了一种增强深度学习模型鲁棒性的装置,用于执行图1至图2所示实施例挺高的增强深度学习模型鲁棒性的方法。图3为本说明书实施例提供的增强深度学习模型鲁棒性的装置的模块组成示意图,图3所示的装置,至少包括:
提取模块302,用于提取目标样本的样本特征向量;执行模块304,用于重复执行多次设定操作;其中,上述设定操作包括获取上述样本特征向量,并对上述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;预测模块306,用于针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;确定模块308,用于根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差;其中,上述预测误差用于指示上述预测结果的可靠程度。
可选的,上述预测结果包括预测概率值;相应的,上述确定模块308,具体用于:确定多个上述子预测结果所对应的各个子预测概率值的平均值,并将上述平均值确定为上述预测概率值;以及,确定多个上述子预测结果所对应的各个子预测概率值的标准差,并将上述标准差确定为上述预测误差。
可选的,上述深度学习模型由特征提取器和分类器构成;相应的,上述提取模块302,具体用于:通过上述特征提取器提取上述目标样本的样本特征向量;上述执行模块304,具体用于:通过上述分类器重复执行多次设定操作;上述预测模块306,具体用于:针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述分类器使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所 对应的子预测结果;上述确定模块308,具体用于:通过上述分类器根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,上述分类器包括随机失活dropout层和全连接层;相应的,上述执行模块304,还具体用于:通过上述dropout层重复执行多次上述设定操作;上述预测模块306,还具体用于:针对上述dropout层每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述全连接层使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;上述确定模块308,还具体用于:通过上述全连接层根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,上述特征提取器为卷积神经网络,且上述卷积神经网络包括多层卷积层。
需要说明的是,本说明书实施例提供的增强深度学习模型鲁棒性的装置与本说明书实施例提供的增强深度学习模型鲁棒性的方法基于同一发明构思,因此,该装置实施例的具体实施可参见前述增强深度学习模型鲁棒性的方法的实施,重复之处不再赘述。
本说明书实施例提供的增强深度学习模型鲁棒性的装置,复用深度学习网络模型的特征提取器所提取的样本特征,对从特征提取器重复获取的多个样本特征进行随机失活处理,这样可以得到多个不同的样本特征,从而使用多个不同的样本特征进行多次预测,根据多次预测的结果确定出样本所对应的预测结果和预测误差,根据样本的预测误差便可确定预测结果的可靠程度,从而对于可靠性较差的预测结果进行拒绝,从而可以提高深度学习模型的鲁棒性。由于复用了特征提取器所提取的样本特征,这样不需要多次执行提取样本特征的操作,从而减少了计算量,即通过较少的计算量就可以增强深度学习模型的鲁棒性。
进一步地,基于上述图1至图2所示的方法,本说明书实施例还提供了一种增强深度学习模型鲁棒性的设备,如图4所示。
增强深度学习模型鲁棒性的设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器401和存储器402,存储器402中可以存储有一个或一个以上存储应用程序或数据。其中,存储器402可以是短暂存储或持久存储。存储在存储器402的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对增强深度学习模型鲁棒性的设备中的一系列计算机可执行指令信息。更进一步地,处理器401可以设置为与存储器402通信,在增强深度学习模型鲁棒性的设备上执行存储器402中的一系列计算机可执行指令信息。增强深度学习模型鲁棒性的设备还可以包括一个或一个以上电源403, 一个或一个以上有线或无线网络接口404,一个或一个以上输入输出接口405,一个或一个以上键盘406等。
在一个具体的实施例中,增强深度学习模型鲁棒性的设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对增强深度学习模型鲁棒性的设备中的一系列计算机可执行指令信息,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令信息:提取目标样本的样本特征向量;重复执行多次设定操作;其中,上述设定操作包括获取上述样本特征向量,并对上述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差;其中,上述预测误差用于指示上述预测结果的可靠程度。
可选的,计算机可执行指令信息在被执行时,上述预测结果包括预测概率值;相应的,上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:确定多个上述子预测结果所对应的各个子预测概率值的平均值,并将上述平均值确定为上述预测概率值;以及,确定多个上述子预测结果所对应的各个子预测概率值的标准差,并将上述标准差确定为上述预测误差。
可选的,计算机可执行指令信息在被执行时,上述深度学习模型由特征提取器和分类器构成;相应的,上述提取目标样本的样本特征向量,包括:通过上述特征提取器提取上述目标样本的样本特征向量;上述重复执行多次设定操作,包括:通过上述分类器重复执行多次设定操作;上述针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述分类器使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:通过上述分类器根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,计算机可执行指令信息在被执行时,上述分类器包括随机失活dropout层和全连接层;上述重复执行多次设定操作,包括:通过上述dropout层重复执行多次上述设定操作;上述针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对上述dropout层每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述全连接层使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:通过上述全连接层根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,计算机可执行指令信息在被执行时,上述特征提取器为卷积神经网络,且上述卷积神经网络包括多层卷积层。
本说明书实施例提供的增强深度学习模型鲁棒性的设备,复用深度学习网络模型的特征提取器所提取的样本特征,对从特征提取器重复获取的多个样本特征进行随机失活处理,这样可以得到多个不同的样本特征,从而使用多个不同的样本特征进行多次预测,根据多次预测的结果确定出样本所对应的预测结果和预测误差,根据样本的预测误差便可确定预测结果的可靠程度,从而对于可靠性较差的预测结果进行拒绝,从而可以提高深度学习模型的鲁棒性。由于复用了特征提取器所提取的样本特征,这样不需要多次执行提取样本特征的操作,从而减少了计算量,即通过较少的计算量就可以增强深度学习模型的鲁棒性。
进一步地,基于上述图1至图2所示的方法,本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:提取目标样本的样本特征向量;重复执行多次设定操作;其中,上述设定操作包括获取上述样本特征向量,并对上述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差;其中,上述预测误差用于指示上述预测结果的可靠程度。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,上述预测结果 包括预测概率值;相应的,上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:确定多个上述子预测结果所对应的各个子预测概率值的平均值,并将上述平均值确定为上述预测概率值;以及,确定多个上述子预测结果所对应的各个子预测概率值的标准差,并将上述标准差确定为上述预测误差。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,上述深度学习模型由特征提取器和分类器构成;相应的,上述提取目标样本的样本特征向量,包括:通过上述特征提取器提取上述目标样本的样本特征向量;上述重复执行多次设定操作,包括:通过上述分类器重复执行多次设定操作;上述针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述分类器使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:通过上述分类器根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,上述分类器包括随机失活dropout层和全连接层;上述重复执行多次设定操作,包括:通过上述dropout层重复执行多次上述设定操作;上述针对每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对上述dropout层每次执行上述设定操作所得到的上述随机失活处理后的样本特征向量,通过上述全连接层使用上述随机失活处理后的样本特征向量进行预测,得到上述随机失活处理后的样本特征向量所对应的子预测结果;上述根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差,包括:通过上述全连接层根据多个上述子预测结果确定上述目标样本的预测结果和针对上述预测结果的预测误差。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,上述特征提取器为卷积神经网络,且上述卷积神经网络包括多层卷积层。
本说明书实施例提供的存储介质存储的计算机可执行指令信息在被处理器执行时,复用深度学习网络模型的特征提取器所提取的样本特征,对从特征提取器重复获取的多个样 本特征进行随机失活处理,这样可以得到多个不同的样本特征,从而使用多个不同的样本特征进行多次预测,根据多次预测的结果确定出样本所对应的预测结果和预测误差,根据样本的预测误差便可确定预测结果的可靠程度,从而对于可靠性较差的预测结果进行拒绝,从而可以提高深度学习模型的鲁棒性。由于复用了特征提取器所提取的样本特征,这样不需要多次执行提取样本特征的操作,从而减少了计算量,即通过较少的计算量就可以增强深度学习模型的鲁棒性。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控 制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令信息实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令信息到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令信息产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令信息也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令信息产生包括指令信息装置的制造品,该指令信息装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令信息也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令信息提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令信息、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令信息的一般上下文中描述,例如程序 模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (12)
- 一种增强深度学习模型鲁棒性的方法,应用于深度学习模型,所述方法包括:提取目标样本的样本特征向量;重复执行多次设定操作;其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差;其中,所述预测误差用于指示所述预测结果的可靠程度。
- 如权利要求1所述的方法,所述预测结果包括预测概率值;相应的,所述根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差,包括:确定多个所述子预测结果所对应的各个子预测概率值的平均值,并将所述平均值确定为所述预测概率值;以及,确定多个所述子预测结果所对应的各个子预测概率值的标准差,并将所述标准差确定为所述预测误差。
- 如权利要求1或2所述的方法,所述深度学习模型由特征提取器和分类器构成;相应的,所述提取目标样本的样本特征向量,包括:通过所述特征提取器提取所述目标样本的样本特征向量;所述重复执行多次设定操作,包括:通过所述分类器重复执行多次设定操作;所述针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,通过所述分类器使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;所述根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差,包括:通过所述分类器根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。
- 如权利要求3所述的方法,所述分类器包括随机失活dropout层和全连接层;所述重复执行多次设定操作,包括:通过所述dropout层重复执行多次所述设定操作;所述针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果,包括:针对所述dropout层每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,通过所述全连接层使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;所述根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差,包括:通过所述全连接层根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。
- 如权利要求3所述的方法,所述特征提取器为卷积神经网络,且所述卷积神经网络包括多层卷积层。
- 一种增强深度学习模型鲁棒性的装置,应用于深度学习模型,所述装置包括:提取模块,提取目标样本的样本特征向量;执行模块,重复执行多次设定操作;其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;预测模块,针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;确定模块,根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差;其中,所述预测误差用于指示所述预测结果的可靠程度。
- 如权利要求6所述的装置,所述预测结果包括预测概率值;相应的,所述确定模块,具体用于:确定多个所述子预测结果所对应的各个子预测概率值的平均值,并将所述平均值确定为所述预测概率值;以及,确定多个所述子预测结果所对应的各个子预测概率值的标准差,并将所述标准差确定为所述预测误差。
- 如权利要求6或7所述的装置,所述深度学习模型由特征提取器和分类器构成;相应的,所述提取模块,具体用于:通过所述特征提取器提取所述目标样本的样本特征向量;所述执行模块,具体用于:通过所述分类器重复执行多次设定操作;所述预测模块,具体用于:针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,通过所述分类器使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;所述确定模块,具体用于:通过所述分类器根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。
- 如权利要求8所述的装置,所述分类器包括随机失活dropout层和全连接层;相应的,所述执行模块,还具体用于:通过所述dropout层重复执行多次所述设定操作;所述预测模块,还具体用于:针对所述dropout层每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,通过所述全连接层使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;所述确定模块,还具体用于:通过所述全连接层根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差。
- 如权利要求8所述的装置,所述特征提取器为卷积神经网络,且所述卷积神经网络包括多层卷积层。
- 一种增强深度学习模型鲁棒性的设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:提取目标样本的样本特征向量;重复执行多次设定操作;其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预 测误差;其中,所述预测误差用于指示所述预测结果的可靠程度。
- 一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:提取目标样本的样本特征向量;重复执行多次设定操作;其中,所述设定操作包括获取所述样本特征向量,并对所述样本特征向量进行随机失活处理,得到随机失活处理后的样本特征向量;针对每次执行所述设定操作所得到的所述随机失活处理后的样本特征向量,使用所述随机失活处理后的样本特征向量进行预测,得到所述随机失活处理后的样本特征向量所对应的子预测结果;根据多个所述子预测结果确定所述目标样本的预测结果和针对所述预测结果的预测误差;其中,所述预测误差用于指示所述预测结果的可靠程度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010442837.7A CN111539520A (zh) | 2020-05-22 | 2020-05-22 | 增强深度学习模型鲁棒性的方法及装置 |
CN202010442837.7 | 2020-05-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021233389A1 true WO2021233389A1 (zh) | 2021-11-25 |
Family
ID=71979730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2021/094950 WO2021233389A1 (zh) | 2020-05-22 | 2021-05-20 | 增强深度学习模型鲁棒性的方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111539520A (zh) |
WO (1) | WO2021233389A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539520A (zh) * | 2020-05-22 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 增强深度学习模型鲁棒性的方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590741A (zh) * | 2017-09-19 | 2018-01-16 | 广东工业大学 | 一种预测图片流行度的方法及系统 |
CN108932713A (zh) * | 2018-07-20 | 2018-12-04 | 成都指码科技有限公司 | 一种基于深度学习的焊缝气孔缺陷自动检测方法 |
US20190213470A1 (en) * | 2018-01-09 | 2019-07-11 | NEC Laboratories Europe GmbH | Zero injection for distributed deep learning |
CN110866592A (zh) * | 2019-10-28 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、能效预测方法、装置和存储介质 |
CN111539520A (zh) * | 2020-05-22 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 增强深度学习模型鲁棒性的方法及装置 |
-
2020
- 2020-05-22 CN CN202010442837.7A patent/CN111539520A/zh active Pending
-
2021
- 2021-05-20 WO PCT/CN2021/094950 patent/WO2021233389A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590741A (zh) * | 2017-09-19 | 2018-01-16 | 广东工业大学 | 一种预测图片流行度的方法及系统 |
US20190213470A1 (en) * | 2018-01-09 | 2019-07-11 | NEC Laboratories Europe GmbH | Zero injection for distributed deep learning |
CN108932713A (zh) * | 2018-07-20 | 2018-12-04 | 成都指码科技有限公司 | 一种基于深度学习的焊缝气孔缺陷自动检测方法 |
CN110866592A (zh) * | 2019-10-28 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、能效预测方法、装置和存储介质 |
CN111539520A (zh) * | 2020-05-22 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 增强深度学习模型鲁棒性的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111539520A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102513089B1 (ko) | 소프트 라벨링을 이용한 딥 러닝 훈련 방법 및 장치 | |
US10748524B2 (en) | Speech wakeup method, apparatus, and electronic device | |
US10943582B2 (en) | Method and apparatus of training acoustic feature extracting model, device and computer storage medium | |
EP3608822B1 (en) | Method and apparatus for detecting model security and electronic device | |
TWI685761B (zh) | 詞向量處理方法及裝置 | |
TWI701588B (zh) | 詞向量處理方法、裝置以及設備 | |
JP2021515905A (ja) | 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム | |
WO2022121251A1 (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
US20200312324A1 (en) | Hybrid arbitration System | |
WO2023231785A1 (zh) | 数据处理方法、装置及设备 | |
US20180300610A1 (en) | Select one of plurality of neural networks | |
JP7178394B2 (ja) | 音声信号を処理するための方法、装置、機器、および媒体 | |
US11620992B2 (en) | Automated speech recognition confidence classifier | |
CN111753878A (zh) | 一种网络模型部署方法、设备及介质 | |
CN109934253B (zh) | 一种对抗样本生成方法及装置 | |
CN112200132A (zh) | 一种基于隐私保护的数据处理方法、装置及设备 | |
CN112417093B (zh) | 一种模型训练的方法及装置 | |
WO2021233389A1 (zh) | 增强深度学习模型鲁棒性的方法及装置 | |
CN112908315B (zh) | 一种基于声音特征和语音识别的问答意图判断方法 | |
CN114880472A (zh) | 数据处理方法、装置及设备 | |
WO2024060852A1 (zh) | 一种模型的所有权验证方法、装置、存储介质及电子设备 | |
TWI818427B (zh) | 使用基於文本的說話者變更檢測的說話者劃分糾正方法及系統 | |
CN115456114A (zh) | 一种模型训练和业务执行的方法、装置、介质及设备 | |
CN111788582A (zh) | 电子设备及其控制方法 | |
CN110399984B (zh) | 一种信息的预测方法、系统以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21809744 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21809744 Country of ref document: EP Kind code of ref document: A1 |