CN112580822A - 机器学习模型的对抗训练方法装置、电子设备和介质 - Google Patents
机器学习模型的对抗训练方法装置、电子设备和介质 Download PDFInfo
- Publication number
- CN112580822A CN112580822A CN202011488742.5A CN202011488742A CN112580822A CN 112580822 A CN112580822 A CN 112580822A CN 202011488742 A CN202011488742 A CN 202011488742A CN 112580822 A CN112580822 A CN 112580822A
- Authority
- CN
- China
- Prior art keywords
- attention
- machine learning
- learning model
- training
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 145
- 238000010801 machine learning Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 78
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000003094 perturbing effect Effects 0.000 claims description 8
- 238000003058 natural language processing Methods 0.000 abstract description 10
- 230000003042 antagnostic effect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 12
- 238000013519 translation Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 229940037003 alum Drugs 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
- Character Discrimination (AREA)
Abstract
本申请公开了一种机器学习模型的对抗训练方法、装置、电子设备和介质,涉及自然语言处理NLP、深度学习领域。实现方案为:对训练样本中的输入信息中的各输入字符分别进行特征提取,得到各输入字符的特征;将各输入字符的特征输入机器学习模型,以采用模型中的注意力层对多个输入字符进行注意力权重捕获;对注意力层捕获所得到的注意力权重进行扰动,以使模型根据扰动后的注意力权重输出预测字符;根据预测字符和训练样本中的标注字符之间的差异对模型进行训练。由此,通过对注意力层输出的注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练。
Description
技术领域
本申请涉及NLP(Natural Language Processing,自然语言处理)、深度学习等AI(Artificial Intelligence,人工智能)技术领域,具体地,本申请提供了一种机器学习模型的对抗训练方法、训练方法、装置、电子设备和介质。
背景技术
随着世界经济的快速发展、国际文化交流的日益频繁,以及互联网技术的高速发展,全球信息化程度迅速提高,传统的依赖于人工翻译的方法已经无法满足人们日常跨语言交流的需求。
机器翻译能够利用计算机将一种语言自动翻译成为另外一种语言,是解决语言障碍问题的最有力手段之一种。在理想状态下,机器翻译方法不仅需要正确预测未见实例,又需抵抗对抗攻击,即能够识别添加噪声的对抗样本。因此,为了提升机器翻译结果的质量,如何实现翻译模型的对抗训练是非常重要的。
发明内容
本申请提供了一种用于机器学习模型的对抗训练方法、装置、电子设备和介质。
根据本申请的一方面,提供了一种机器学习模型的对抗训练方法,包括:
获取训练样本中的输入信息;
对所述输入信息中的多个输入字符分别进行特征提取,以得到所述多个输入字符的特征;
将所述多个输入字符的特征输入机器学习模型,以采用所述机器学习模型中的注意力层对所述多个输入字符进行注意力权重捕获;
对所述注意力层捕获所得到的注意力权重进行扰动,以使所述机器学习模型根据扰动后的注意力权重输出预测字符;
根据所述预测字符和所述训练样本中的标注字符之间的差异,对所述机器学习模型进行训练。
根据本申请的另一方面,提供了一种机器学习模型的对抗训练装置,包括:
获取模块,用于获取训练样本中的输入信息;
提取模块,用于对所述输入信息中的多个输入字符分别进行特征提取,以得到所述多个输入字符的特征;
输入模块,用于将所述多个输入字符的特征输入机器学习模型,以采用所述机器学习模型中的注意力层对所述多个输入字符进行注意力权重捕获;
扰动模块,用于对所述注意力层捕获所得到的注意力权重进行扰动,以使所述机器学习模型根据扰动后的注意力权重输出预测字符;
训练模块,用于根据所述预测字符和所述训练样本中的标注字符之间的差异,对所述机器学习模型进行训练。
根据本申请的又一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请上述实施例提出的机器学习模型的对抗训练方法。
根据本申请的再一方面,提供了一种计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请上述实施例提出的机器学习模型的对抗训练方法。
根据本申请的还一方面,提供了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如本申请上述实施例提出的机器学习模型的对抗训练方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为ALUM原理示意图。
图2为本申请实施例一所提供的机器学习模型的对抗训练方法的流程示意图;
图3为本申请实施例二所提供的机器学习模型的对抗训练方法的流程示意图;
图4为本申请实施例的机器学习模型结构示意图;
图5为本申请实施例三所提供的机器学习模型的对抗训练装置的结构示意图;
图6是根据本申请实施例的机器学习模型的对抗训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在理想状态下,机器学习算法既需要正确预测未见实例,又需要抵抗对抗攻击,即能够正确识别添加噪声的对抗样本。目前,以BERT(Bidirectional EncoderRepresentations from Transformer,基于机器翻译的双向编码表示)为代表的预训练语言模型提出了“Pre-training(预训练)+Fine-tuning(细调)”的范式,并大幅提升了各类NLP任务的效果。但是,上述算法仍然无法适应对抗场景。
对抗训练是一种利用对抗样本所设计的训练方法,以此来提升模型的泛化性和鲁棒性。在计算机视觉领域,已经有大量针对对抗样本攻击与对抗训练的探索,而在自然语言处理中,对抗训练的研究也越来越引起学者们的关注。
目前,在自然语言处理领域中的对抗训练方法主要包括以下两种方法:
第一种,基于原始输入文本生成对抗样本,例如,替换原始输入文本中的部分词汇等,即基于原始文本生成添加噪声的对抗样本,利用对抗样本对模型进行对抗训练。
第二种,基于流型空间生成对抗样本,例如针对embedding space(特征空间)的扰动,即直接在输入文本对应的特征向量上添加扰动,从而生成添加噪声的对抗样本,利用对抗样本对模型进行对抗训练。
针对第二种对抗训练方法,最典型的建模方法为ALUM(大型神经语言模型的对抗性训练方法),ALUM在输入文本的embedding space上添加扰动来生成对抗样本,从而实现对抗训练。其中,ALUM的原理可以如图1所示。
其中,token为输入到模型的最小单元,比如,在中文中,token为字,token编码即字向量,在英文中,token为单词,token编码即词向量。H0、H1、…、H6为模型输出的特征向量。由图1可知,ALUM方法,是直接在输入文本的各字符对应的特征向量上添加扰动,来生成对抗样本。
ALUM模型是首次尝试在流型空间生成对抗样本的算法,使得对抗训练在自然语言处理领域得到了进一步发展。但是,ALUM的embedding space扰动策略是通用策略,可应用于基于Transformer的模型,亦可用于其他类型的模型,即ALUM模型并未充分利用Transformer中Self-Attention(自注意力机制)的优势。
因此,上述两种对抗训练方法均可以适配至以Transformer为基本结构的预训练语言模型中,但是,上述两种对抗训练方法并未利用Transformer的优势,即上述两种对抗训练方法并未针对性地从Self-Attention的角度生成对抗样本,从而实现模型的对抗训练。其中,Self-Attention是Transformer的关键策略,其决定了字符对其周边字符的依赖程度或关注程度,也是影响模型最终效果的关键因素。因此,本申请提出一种针对注意力权值进行扰动的策略,来实现机器学习模型的对抗训练,以充分利用Transformer中Self-Attention的优势。
下面参考附图描述本申请实施例的机器学习模型的对抗训练方法、装置、电子设备和介质。
图2为本申请实施例一所提供的机器学习模型的对抗训练方法的流程示意图。
本申请实施例以该机器学习模型的对抗训练方法被配置于机器学习模型的对抗训练装置中来举例说明,该机器学习模型的对抗训练装置可以应用于任一电子设备中,以使该电子设备可以执行机器学习模型的对抗训练功能。
其中,电子设备可以为任一具有计算能力的设备,例如可以为PC(PersonalComputer,个人电脑)、移动终端、服务器等,移动终端例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图2所示,该机器学习模型的对抗训练方法可以包括以下步骤:
步骤201,获取训练样本中的输入信息。
本申请实施例中,训练样本可以根据翻译需求进行选取,其中,各训练样本中的输入信息可以为属于同一语言的文本信息,或者,也可以为属于不同语言的文本信息。
比如,当该机器学习模型用于将第一语言的文本信息翻译为第二语言的文本信息时,其中,第一语言与第二语言不同,比如第一语言可以为中文,第二语言可以为英文,或者,第一语言可以为中文,第二语言可以为法文,等等,此时,各训练样本中的输入信息的语言可以为第一语言。
再比如,当该机器学习模型用于第一语言和第二语言互译的场景时,比如中英互译场景,训练样本可以包括:包含属于第一语言的输入信息的训练样本,和/或,包含属于第二语言的输入信息的训练样本,即各训练样本中的输入信息的语言可以为第一语言,或者,也可以为第二语言,或者,可以同时包含第一语言和第二语言,本申请对此并不作限制。
本申请实施例中,可以根据翻译需求,选取训练样本,并获取训练样本中的输入信息。
作为一种示例,可以根据翻译需求,构建语料库,其中,语料库可以包括多个双语句对,每个双语句对可以包括互译的两个语句,从而可以根据双语句对,生成训练样本。例如,可以将双语句对中的其中一个语句作为训练样本的输入信息,并根据双语句对中的另一个语句,对训练样本进行标注,得到标注后的训练样本。
步骤202,对输入信息中的多个输入字符分别进行特征提取,以得到多个输入字符的特征。
本申请实施例中,在获取训练样本的输入信息后,可以对输入信息中的各字符,本申请中记为输入字符进行特征提取,得到多个输入字符的特征。例如,当输入信息所属的语言为中文时,各输入字符的特征可以为文字的字向量,当输入信息所属的语言为英文时,各输入字符的特征可以为单词的词向量。
在本申请实施例的一种可能的实现方式中,可以通过编码器,对输入信息中的各输入字符进行编码,得到输入信息中各输入字符对应的特征。
在本申请实施例的另一种可能的实现方式中,可以基于NLP技术中的特征提取算法,对输入信息中各输入字符进行特征提取,得到各输入字符对应的特征。
需要说明的是,上述仅是示例性实施例,但不限于此,还可以包括本领域已知的其他编码方法或者特征提取方法或者字符向量计算方法,只要能够得到输入字符的特征即可。
步骤203,将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对多个输入字符进行注意力权重捕获。
本申请实施例中,可以将多个输入字符的特征输入机器学习模型,从而可以由机器学习模型中的注意力层,对多个输入字符进行注意力权重捕获。
其中,注意力权重,用于表征多个输入字符中各输入字符对其它字符的关注程度或依赖程度。举例而言,当输入信息的语言为中文时,比如输入信息为“我爱打篮球”,输入字符“我”对“爱”的依赖程度或关注程度,应低于“篮”对“球”的依赖程度或关注程度,例如,“我”对“爱”的依赖程度或关注程度可用数值0.2表示,“篮”对“球”的依赖程度或关注程度可用数值0.8表示。
在本申请实施例的一种可能的实现方式中,注意力层可以基于预设算法,或根据特定规则,确定各输入字符对输入信息中其他字符的依赖程度或关注程度,从而输出得到注意力权重。例如,注意力层可以基于预设算法,或根据特定规则,对各输入字符的特征进行运算处理,确定各输入字符对输入信息中其他字符的依赖程度或关注程度,从而得到注意力权重。
由此,可以对用于表征各输入字符对其它字符关注程度的注意力权重进行计算,从而后续可以对注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,提升模型的鲁棒性和泛化性。
步骤204,对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符。
本申请实施例中,可以对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符。
例如,可以将注意力层输出的注意力权重进行扰动,仍以上述例子示例,可以将“我”对“爱”的依赖程度或关注程度从0.2扰动为0.9,将“篮”对“球”的依赖程度或关注程度从0.8扰动为0.5,从而机器学习模型可以根据更改后的注意力权重输出预测字符。
在本申请实施例的一种可能的实现方式中,注意力层输出的注意力权重是矩阵形式,该注意力权重对应的矩阵具有多个维度的权重分量,可以在预设范围内生成一个随机数,本申请中记为第一随机数,比如可以在(-1,1)的范围内,随机生成第一随机数,利用该第一随机数,替换矩阵中一个或多个维度的权重分量,从而实现对注意力层预测所得到的注意力权重进行扰动。
在本申请实施例的另一种可能的实现方式中,注意力层输出的注意力权重是矩阵形式,该注意力权重对应的矩阵具有多个维度的权重分量,可以生成一个随机数,本申请中记为第二随机数,利用该第二随机数,对矩阵中一个或多个维度的权重分量进行更新。例如,可以将矩阵中一个或多个维度的权重分量减去第二随机数,和/或,可以将矩阵中一个或多个维度的权重分量加上第二随机数,得到更新后的注意力权重。
其中,各权重分量,可以用于表征相应输入字符对其它字符的关注程度或依赖程度,关注程度或依赖程度越高,权重分量的取值越大,反之,关注程度或依赖程度越低,权重分量的取值越小。
一种示例,矩阵中需要进行扰动的权重分量的个数可以为预先设置的,本申请中标记第一个数,例如,该第一个数可以为一个,或者,第一个数也可以为多个,本申请对此并不作限制。在确定第一个数后,可以从注意力权重对应的矩阵中,随机选择第一个数维度的权重分量进行扰动。当然,也可以对所有维度的权重分量进行扰动,例如,将矩阵中所有元素均加上随机数,以实现对注意力权重进行扰动,本申请对此并不作限制。
另一种示例,可以预先指定矩阵中需要进行扰动的权重分量所对应的维度,从而可以根据指定的维度,将矩阵中相应维度的权重分量进行扰动。当然,也可以对所有维度的权重分量进行扰动,例如,将矩阵中所有元素均加上随机数,以实现对注意力权重进行扰动,本申请对此并不作限制。
由此,可以通过多种方式,对注意力层捕获得到的注意力权重进行扰动,可以提升该方法的适用性。
步骤205,根据预测字符和训练样本中的标注字符之间的差异,对机器学习模型进行训练。
本申请实施例中,训练样本中的标注字符可以为在训练样本上标注的,输入信息对应的标准译文中的各个字符。例如,训练样本可根据互译的双语句对生成,输入信息为双语句对中的其中一个语句,则标注字符可以为训练样本上标注的,双语句对中的另一个语句中的各个字符。
应当理解的是,预测字符为机器学习模型预测得到的各个字符,而标注字符为输入信息对应的标准译文中的各个字符,当预测字符与标注字符之间的差异最小时,机器学习模型的预测精度较高、性能较好,翻译结果的准确性较高。因此,本申请中,可以根据预测字符和训练样本中的标注字符之间的差异,对机器学习模型进行训练。例如,当预测字符和训练样本中的标注字符之间的差异较大时,可以调整机器学习模型的模型参数,以使预测字符与标注字符之间的差异最小化。
本申请实施例的机器学习模型的对抗训练方法,通过对训练样本中的输入信息中的多个输入字符分别进行特征提取,得到多个输入字符的特征;将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对多个输入字符进行注意力权重捕获;对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符;最后根据预测字符和训练样本中的标注字符之间的差异对机器学习模型进行训练。由此,在机器学习模型训练的过程中,通过对注意力层输出的注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,可以提升模型的鲁棒性和泛化性。
本申请实施例中,可以采用AI领域中的深度学习方法或者机器学习方法,对机器学习模型进行训练,其中,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
在本申请实施例的一种可能的实现方式中,还可以对多个输入字符之中的至少一个输入字符的特征进行特征扰动。例如,可以对至少一个输入字符的特征中至少一个维度的取值进行替换处理,比如替换为其他数值,或者,可以利用预设数值或随机数,对至少一个输入字符的特征中至少一个维度的取值进行更新,比如可以将输入字符的特征中至少一个维度的取值加上预设数值或随机数,得到更新后的特征。由此,可以实现对输入字符的特征进行特征扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,可以进一步提升模型的鲁棒性和泛化性。
需要说明的是,本申请对特征扰动的执行时序并不作限制。例如,可以在提取到多个输入字符的特征之后,即在上述步骤202后,对多个输入字符之中的至少一个输入字符的特征进行特征扰动,或者,还可以对注意力层捕获所得到的注意力权重进行扰动的同时,对多个输入字符之中的至少一个输入字符的特征进行特征扰动。
举例而言,当输入字符的语言为中文时,输入字符的特征为字向量,可以对字向量中的至少一个维度的取值进行替换处理,当输入字符的语言为英文时,输入字符的特征为词向量,可以利用随机数,对词向量中的至少一个维度的取值进行更新处理,比如将至少一个维度的取值加上随机数。
在本申请实施例的一种可能的实现方式中,机器学习模型可以为基于Transformer构建的模型,模型中可以包括多个注意力层,本申请中,可以在模型的多个注意力层中的目标注意力层,对该目标注意力层所输出的注意力权重进行扰动。下面结合实施例二,对上述过程进行详细说明。
图3为本申请实施例二所提供的机器学习模型的对抗训练方法的流程示意图。
如图3所示,该机器学习模型的对抗训练方法可以包括以下步骤:
步骤301,获取训练样本中的输入信息。
步骤302,对输入信息中的多个输入字符分别进行特征提取,以得到多个输入字符的特征。
步骤303,将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对多个输入字符进行注意力权重捕获。
本申请实施例中,机器学习模型包括多个注意力层。例如,机器学习模型以BaseTransformer为基本结构,该机器学习模型可以包括12层,则注意力层的个数为12。其中,机器学习模型的每一层注意力层均可以对多个输入字符进行注意力权重捕获,捕获得到对应的注意力权重。
例如,注意力层可以为Self-Attention层或Multi-Head Attention(多头注意力机制)层等,注意力层可以将每个输入字符,与输入信息中的其他字符进行特定的运算处理,得到一个数值,该数值即为该输入字符对应的权重分量,即注意力层可以根据特定规则,对该输入字符的特征和其他字符的特征进行计算,确定用于表征该输入字符对其相邻的输入字符关注程度的权重分量。
步骤301至303的执行过程可以参见上述实施例中步骤201至203的执行过程,在此不做赘述。
步骤304,从多个注意力层之中随机选择至少一个目标注意力层。
本申请实施例中,可以预先设置选择的目标注意力层的个数,本申请中记为第二个数,例如,第二个数可以为一个,或者,第二个数也可以为多个,本申请对此并不作限制。在确定所选择的目标注意力层的第二个数后,可以从多个注意力层之中随机选择第二个数的目标注意力层。
步骤305,对目标注意力层输出的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符。
本申请实施例中,在选择目标注意力层后,可以对目标注意力层所输出的注意力权重进行扰动。
在本申请实施例的一种可能的实现方式中,目标注意力层输出的注意力权重是矩阵形式,该注意力权重对应的矩阵具有多个维度的权重分量,可以在预设范围内生成一个随机数,本申请中记为第一随机数,比如可以在(-1,1)的范围内,随机生成第一随机数,利用该第一随机数,替换矩阵中一个或多个维度的权重分量,从而实现对目标注意力层输出的注意力权重进行扰动。
在本申请实施例的另一种可能的实现方式中,目标注意力层输出的注意力权重是矩阵形式,该注意力权重对应的矩阵具有多个维度的权重分量,可以生成一个随机数,本申请中记为第二随机数,利用该第二随机数,对目标注意力层输出的注意力权重对应的矩阵中一个或多个维度的权重分量进行更新。例如,可以将目标注意力层输出的注意力权重对应的矩阵中一个或多个维度的权重分量减去第二随机数,或者,可以将目标注意力层输出的注意力权重对应的矩阵中一个或多个维度的权重分量加上第二随机数,得到更新后的注意力权重。
由此,可以通过多种方式,对目标注意力层输出的注意力权重进行扰动,可以提升该方法的适用性。
步骤306,根据预测字符和训练样本中的标注字符之间的差异,对机器学习模型进行训练。
步骤306的执行过程可以参见上述实施例中步骤205的执行过程,在此不做赘述。
作为一种示例,参见4,图4为本申请实施例的机器学习模型结构示意图。其中,Matmul是指矩阵相乘,SoftMax表示激活函数,Mask表示掩码,注意力层(Self-Attention)的三个输入分别为:Q∈Rn×dk,K∈Rm×dk,V∈Rm×dv。注意力层可以输出得到用于表征各字符对其他字符关注程度的注意力权重,可以在SoftMax后,对注意力权重进行加扰。
本申请实施例的机器学习模型的对抗训练方法,通过从多个注意力层之中随机选择至少一个目标注意力层,对目标注意力层输出的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符。由此,可以在机器学习模型训练的过程中,通过对目标注意力层输出的注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,可以提升模型的鲁棒性和泛化性。
在本申请实施例的一种可能的实现方式中,上述机器学习模型可以为基于Transformer构建的模型,例如,本申请实施例的对抗训练方法可以适用于基于Transformer的预训练语言模型的预训练阶段和微调阶段。可以在预训练阶段和/或微调阶段,对注意力层输出的注意力权重进行扰动,以增加模型的鲁棒性和泛化性。
本申请实施例的对抗训练方法,可以在ALUM的基础上,额外引入从Self-Attention的角度生成对抗样本的策略。例如,在Transformer架构中,机器学习模型可以由多层Multi-Head Attention+Feed Forward(前馈)模块组成,Feed Forward模块的作用是整合并过滤Multi-Head Attention模块所获取的信息。Multi-Head Attention作为Transformer的核心策略,可以利用Self-Attention捕捉token与token之间的依赖关系或关注程度,以生成用于表征各token对其他token的依赖关系或关注程度的注意力权重,生成的注意力权重(Attention Weights)则是依赖关系或关注程度的数值体现。因此,直接扰动注意力权重,可以从根本上干扰模型的训练,从而实现模型的对抗训练。
例如,当输入信息的语言为中文时,可以在Multi-Head Attention层产出的,表征字与字之间的依赖程度或关注程度的注意力权重(attention weight)上添加扰动,比如将注意力权重的至少一个维度的权重分量加上一个随机数。举例而言,假设输入信息为“我爱打篮球”,可以在“爱”和“篮”之间的依赖关系或关注程度(0.2)上加上0.7(即变为0.9),“篮”和“球”的依赖关系或关注程度(0.8)上加上-0.3(即变为0.5),这样就直接干扰了模型的训练,从而达到对抗训练的目的。
在预训练阶段,模型执行每一轮字符预测过程中,均可以随机的从embeddingspace和attention weight space中选择一处添加扰动,即对输入字符的特征进行特征扰动和注意力权重扰动。假设模型是以Base Transformer(12层)为基本结构,则注意力层为12个,embedding space和attention weight space(特征扰动和注意力权重扰动)共计有13处,在模型利用训练样本进行训练的过程中,可以随机的从13处中选择至少一处添加扰动。
在微调阶段,扰动的添加方式可与预训练阶段一致。
由此,基于注意力权重扰动的方式,对模型进行对抗训练,可以使得模型充分利用Transformer中Self-Attention的优势。
与上述图2至图3实施例提供的机器学习模型的对抗训练方法相对应,本申请还提供一种机器学习模型的对抗训练装置,由于本申请实施例提供的机器学习模型的对抗训练装置与上述图2至图3实施例提供的机器学习模型的对抗训练方法相对应,因此在机器学习模型的对抗训练方法的实施方式也适用于本申请实施例提供的机器学习模型的对抗训练装置,在本申请实施例中不再详细描述。
图5为本申请实施例三所提供的机器学习模型的对抗训练装置的结构示意图。
如图5所示,该机器学习模型的对抗训练装置500包括:获取模块510、提取模块520、扰动模块530、扰动模块540以及训练模块550。
其中,获取模块510,用于获取训练样本中的输入信息。
提取模块520,用于对输入信息中的多个输入字符分别进行特征提取,以得到多个输入字符的特征。
输入模块530,用于将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对所述多个输入字符进行注意力权重捕获。
扰动模块540,用于对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符。
训练模块550,用于根据预测字符和训练样本中的标注字符之间的差异,对机器学习模型进行训练。
在本申请实施例的一种可能的实现方式中,注意力权重是矩阵形式,扰动模块530,具体用于:在预设范围之内生成第一随机数,根据第一随机数替换矩阵中一个或多个维度的权重分量。
在本申请实施例的一种可能的实现方式中,注意力权重是矩阵形式,扰动模块530,具体用于:生成第二随机数,并使用第二随机数对矩阵中一个或多个维度的权重分量进行更新。
在本申请实施例的一种可能的实现方式中,扰动模块530,还用于:对多个输入字符之中至少一个输入字符的特征进行特征扰动。
在本申请实施例的一种可能的实现方式中,机器学习模型包括多个注意力层,其中,扰动模块530,具体用于:从多个注意力层之中随机选择至少一个目标注意力层;对目标注意力层输出的注意力权重进行扰动。
在本申请实施例的一种可能的实现方式中,注意力权重用于表征多个输入字符中各输入字符对其它字符关注程度。
本申请实施例的机器学习模型的对抗训练装置,通过对训练样本中的输入信息中的多个输入字符分别进行特征提取,得到多个输入字符的特征;将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对多个输入字符进行注意力权重捕获;对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符;根据预测字符和训练样本中的标注字符之间的差异对机器学习模型进行训练。由此,在机器学习模型训练的过程中,通过对注意力层输出的注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,可以提升模型的鲁棒性和泛化性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的机器学习模型的对抗训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的机器学习模型的对抗训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的机器学习模型的对抗训练方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的机器学习模型的对抗训练方法对应的程序指令/模块(例如,附图5所示的获取模块510、提取模块520、输入模块530、扰动模块540以及训练模块550)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的机器学习模型的对抗训练方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据机器学习模型的对抗训练方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(VirtualPrivate Server,虚拟专用服务器)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请的实施例,本申请还提供了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行本申请上述实施例提出的机器学习模型的对抗训练方法。
根据本申请实施例的技术方案,通过对训练样本中的输入信息中的多个输入字符分别进行特征提取,得到多个输入字符的特征;将多个输入字符的特征输入机器学习模型,以采用机器学习模型中的注意力层对多个输入字符进行注意力权重捕获;对注意力层捕获所得到的注意力权重进行扰动,以使机器学习模型根据扰动后的注意力权重输出预测字符;根据预测字符和训练样本中的标注字符之间的差异对机器学习模型进行训练。由此,在机器学习模型训练的过程中,通过对注意力层输出的注意力权重进行扰动,来干扰机器学习模型的训练,从而实现模型的对抗训练,可以提升模型的鲁棒性和泛化性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (15)
1.一种机器学习模型的对抗训练方法,所述方法包括:
获取训练样本中的输入信息;
对所述输入信息中的多个输入字符分别进行特征提取,以得到所述多个输入字符的特征;
将所述多个输入字符的特征输入机器学习模型,以采用所述机器学习模型中的注意力层对所述多个输入字符进行注意力权重捕获;
对所述注意力层捕获所得到的注意力权重进行扰动,以使所述机器学习模型根据扰动后的注意力权重输出预测字符;
根据所述预测字符和所述训练样本中的标注字符之间的差异,对所述机器学习模型进行训练。
2.如权利要求1所述的方法,其中,所述注意力权重是矩阵形式,所述对所述注意力层捕获所得到的注意力权重进行扰动,包括:
在预设范围之内生成第一随机数,根据所述第一随机数,替换所述矩阵中一个或多个维度的权重分量。
3.如权利要求1所述的方法,其中,所述注意力权重是矩阵形式,所述对所述注意力层捕获所得到的注意力权重进行扰动,包括:
生成第二随机数,并使用所述第二随机数,对所述矩阵中一个或多个维度的权重分量进行更新。
4.如权利要求1所述的方法,其中,所述方法还包括:
对多个输入字符之中至少一个输入字符的特征进行特征扰动。
5.如权利要求1所述的方法,所述机器学习模型包括多个注意力层,其中,所述对所述注意力层捕获所得到的注意力权重进行扰动,包括:
从所述多个注意力层之中随机选择至少一个目标注意力层;
对所述目标注意力层输出的注意力权重进行扰动。
6.如权利要求1-5任一项所述的方法,其中,所述注意力权重,用于表征所述多个输入字符中各输入字符对其它字符关注程度。
7.一种机器学习模型的对抗训练装置,包括:
获取模块,用于获取训练样本中的输入信息;
提取模块,用于对所述输入信息中的多个输入字符分别进行特征提取,以得到所述多个输入字符的特征;
输入模块,用于将所述多个输入字符的特征输入机器学习模型,以采用所述机器学习模型中的注意力层对所述多个输入字符进行注意力权重捕获;
扰动模块,用于对所述注意力层捕获所得到的注意力权重进行扰动,以使所述机器学习模型根据扰动后的注意力权重输出预测字符;
训练模块,用于根据所述预测字符和所述训练样本中的标注字符之间的差异,对所述机器学习模型进行训练。
8.如权利要求7所述的装置,其中,所述注意力权重是矩阵形式,所述扰动模块,具体用于:
在预设范围之内生成第一随机数,根据所述第一随机数,替换所述矩阵中一个或多个维度的权重分量。
9.如权利要求7所述的装置,其中,所述注意力权重是矩阵形式,所述扰动模块,具体用于:
生成第二随机数,并使用所述第二随机数,对所述矩阵中一个或多个维度的权重分量进行更新。
10.如权利要求7所述的装置,其中,所述扰动模块,还用于:
对多个输入字符之中至少一个输入字符的特征进行特征扰动。
11.如权利要求7所述的装置,所述机器学习模型包括多个注意力层,其中,所述扰动模块,具体用于:
从所述多个注意力层之中随机选择至少一个目标注意力层;
对所述目标注意力层输出的注意力权重进行扰动。
12.如权利要求11所述的装置,其中,所述注意力权重用于表征所述多个输入字符中各输入字符对其它字符关注程度。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的机器学习模型的对抗训练方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的机器学习模型的对抗训练方法。
15.一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行权利要求1-6中任一项所述的机器学习模型的对抗训练方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011488742.5A CN112580822B (zh) | 2020-12-16 | 2020-12-16 | 机器学习模型的对抗训练方法装置、电子设备和介质 |
US17/369,699 US20210334659A1 (en) | 2020-12-16 | 2021-07-07 | Method and apparatus for adversarial training of machine learning model, and medium |
JP2021144744A JP7262537B2 (ja) | 2020-12-16 | 2021-09-06 | 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011488742.5A CN112580822B (zh) | 2020-12-16 | 2020-12-16 | 机器学习模型的对抗训练方法装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580822A true CN112580822A (zh) | 2021-03-30 |
CN112580822B CN112580822B (zh) | 2023-10-17 |
Family
ID=75135820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011488742.5A Active CN112580822B (zh) | 2020-12-16 | 2020-12-16 | 机器学习模型的对抗训练方法装置、电子设备和介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210334659A1 (zh) |
JP (1) | JP7262537B2 (zh) |
CN (1) | CN112580822B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221163A (zh) * | 2021-04-29 | 2021-08-06 | 深圳大学 | 一种训练模型的方法及系统 |
CN115392259A (zh) * | 2022-10-27 | 2022-11-25 | 暨南大学 | 一种基于对抗训练融合bert的微博文本情感分析方法及系统 |
CN115909354A (zh) * | 2022-11-11 | 2023-04-04 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、文本获取方法及装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114021645A (zh) * | 2021-11-03 | 2022-02-08 | 北京百度网讯科技有限公司 | 视觉模型降秩方法、装置、设备、存储介质以及程序产品 |
CN115358343A (zh) * | 2022-09-06 | 2022-11-18 | 河海大学 | 基于对抗和伪标签学习的小样本洪水预报方法 |
CN115392326B (zh) * | 2022-10-27 | 2024-03-19 | 中国人民解放军国防科技大学 | 基于联合多模态信息与域对抗神经网络的调制识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190661A (zh) * | 2018-07-26 | 2019-01-11 | 安徽师范大学 | 一种基于差分隐私保护的谱聚类方法 |
CN109697048A (zh) * | 2017-10-20 | 2019-04-30 | 图核有限公司 | 在神经网络中生成随机性 |
CN109754078A (zh) * | 2017-11-03 | 2019-05-14 | 三星电子株式会社 | 用于优化神经网络的方法 |
US20190156183A1 (en) * | 2018-12-27 | 2019-05-23 | David M. Durham | Defending neural networks by randomizing model weights |
CN109948658A (zh) * | 2019-02-25 | 2019-06-28 | 浙江工业大学 | 面向特征图注意力机制的对抗攻击防御方法及应用 |
CN110334548A (zh) * | 2019-07-16 | 2019-10-15 | 桂林电子科技大学 | 一种基于差分隐私的数据异常检测方法 |
CN111325205A (zh) * | 2020-03-02 | 2020-06-23 | 北京三快在线科技有限公司 | 文档图像方向识别方法、装置及模型的训练方法、装置 |
CN111401415A (zh) * | 2020-03-02 | 2020-07-10 | 北京三快在线科技有限公司 | 计算机视觉任务模型的训练方法、装置、设备和存储介质 |
CN111651992A (zh) * | 2020-04-24 | 2020-09-11 | 平安科技(深圳)有限公司 | 命名实体标注方法、装置、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2021116658A (ru) | 2017-05-23 | 2021-07-05 | ГУГЛ ЭлЭлСи | Нейронные сети с преобразованием последовательности на основе внимания |
US10657259B2 (en) | 2017-11-01 | 2020-05-19 | International Business Machines Corporation | Protecting cognitive systems from gradient based attacks through the use of deceiving gradients |
CN108304390B (zh) | 2017-12-15 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 基于翻译模型的训练方法、训练装置、翻译方法及存储介质 |
US10963652B2 (en) | 2018-12-11 | 2021-03-30 | Salesforce.Com, Inc. | Structured text translation |
US11507878B2 (en) * | 2019-04-10 | 2022-11-22 | Adobe Inc. | Adversarial training for event sequence analysis |
-
2020
- 2020-12-16 CN CN202011488742.5A patent/CN112580822B/zh active Active
-
2021
- 2021-07-07 US US17/369,699 patent/US20210334659A1/en active Pending
- 2021-09-06 JP JP2021144744A patent/JP7262537B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697048A (zh) * | 2017-10-20 | 2019-04-30 | 图核有限公司 | 在神经网络中生成随机性 |
CN109754078A (zh) * | 2017-11-03 | 2019-05-14 | 三星电子株式会社 | 用于优化神经网络的方法 |
CN109190661A (zh) * | 2018-07-26 | 2019-01-11 | 安徽师范大学 | 一种基于差分隐私保护的谱聚类方法 |
US20190156183A1 (en) * | 2018-12-27 | 2019-05-23 | David M. Durham | Defending neural networks by randomizing model weights |
CN109948658A (zh) * | 2019-02-25 | 2019-06-28 | 浙江工业大学 | 面向特征图注意力机制的对抗攻击防御方法及应用 |
CN110334548A (zh) * | 2019-07-16 | 2019-10-15 | 桂林电子科技大学 | 一种基于差分隐私的数据异常检测方法 |
CN111325205A (zh) * | 2020-03-02 | 2020-06-23 | 北京三快在线科技有限公司 | 文档图像方向识别方法、装置及模型的训练方法、装置 |
CN111401415A (zh) * | 2020-03-02 | 2020-07-10 | 北京三快在线科技有限公司 | 计算机视觉任务模型的训练方法、装置、设备和存储介质 |
CN111651992A (zh) * | 2020-04-24 | 2020-09-11 | 平安科技(深圳)有限公司 | 命名实体标注方法、装置、计算机设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
LEE J: "Interactive visualization and manipulation of attention-based neural machine translation", 《PROCEEDINGS OF THE 2017 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING: SYSTEM DEMONSTRATIONS. COPENHAGEN》 * |
陈素彬;胡振;: "优化的近红外光谱LS-SVM模型测定小麦蛋白质", 食品工业, no. 12 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221163A (zh) * | 2021-04-29 | 2021-08-06 | 深圳大学 | 一种训练模型的方法及系统 |
CN113221163B (zh) * | 2021-04-29 | 2023-05-23 | 深圳大学 | 一种训练模型的方法及系统 |
CN115392259A (zh) * | 2022-10-27 | 2022-11-25 | 暨南大学 | 一种基于对抗训练融合bert的微博文本情感分析方法及系统 |
CN115909354A (zh) * | 2022-11-11 | 2023-04-04 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、文本获取方法及装置 |
CN115909354B (zh) * | 2022-11-11 | 2023-11-10 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、文本获取方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7262537B2 (ja) | 2023-04-21 |
CN112580822B (zh) | 2023-10-17 |
JP2021192289A (ja) | 2021-12-16 |
US20210334659A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111428507B (zh) | 实体链指方法、装置、设备以及存储介质 | |
CN112580822B (zh) | 机器学习模型的对抗训练方法装置、电子设备和介质 | |
US11341366B2 (en) | Cross-modality processing method and apparatus, and computer storage medium | |
KR20210040851A (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
CN112347769B (zh) | 实体识别模型的生成方法、装置、电子设备及存储介质 | |
CN111539227B (zh) | 训练语义表示模型的方法、装置、设备和计算机存储介质 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
CN112001180A (zh) | 多模态预训练模型获取方法、装置、电子设备及存储介质 | |
CN110795569B (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111259671A (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN112560505A (zh) | 一种对话意图的识别方法、装置、电子设备及存储介质 | |
CN111144108A (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
KR102635800B1 (ko) | 신경망 모델의 사전 훈련 방법, 장치, 전자 기기 및 매체 | |
CN111709249B (zh) | 多语种模型的训练方法、装置、电子设备和存储介质 | |
CN112528669B (zh) | 多语言模型的训练方法、装置、电子设备和可读存储介质 | |
CN111737954A (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN111753761B (zh) | 模型生成方法、装置、电子设备及存储介质 | |
CN112507101A (zh) | 一种建立预训练语言模型的方法和装置 | |
CN112561056A (zh) | 神经网络模型的训练方法、装置、电子设备和存储介质 | |
CN112182292A (zh) | 视频检索模型的训练方法、装置、电子设备及存储介质 | |
CN112001265A (zh) | 视频事件识别方法、装置、电子设备及存储介质 | |
CN114154550A (zh) | 域名对抗样本生成方法以及装置 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |