CN111783434A - 提升回复生成模型抗噪能力的方法及系统 - Google Patents
提升回复生成模型抗噪能力的方法及系统 Download PDFInfo
- Publication number
- CN111783434A CN111783434A CN202010664792.8A CN202010664792A CN111783434A CN 111783434 A CN111783434 A CN 111783434A CN 202010664792 A CN202010664792 A CN 202010664792A CN 111783434 A CN111783434 A CN 111783434A
- Authority
- CN
- China
- Prior art keywords
- noise
- training
- character
- reply
- generation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 claims abstract description 76
- 230000036039 immunity Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 14
- 230000007246 mechanism Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010009244 Claustrophobia Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 208000019899 phobic disease Diseases 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种提升回复生成模型抗噪能力的方法,回复生成模型采用编码‑解码架构,该方法包括:在训练集中加入模拟噪声,以得到混合训练样本;将混合训练样本输入至所述回复生成模型;在编码端输出层通过对每个字符做二分类识别噪声字符;整体模型采用多任务训练的方式,同时训练噪声字符识别和回复生成。本发明通过训练过程中在训练样本中加入模拟现实情况的噪声,并通过训练学习噪声的语义特征,提升回复生成模型对噪声特征的编码能力,从而提升回复生成模型的抗噪能力。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种提升回复生成模型抗噪能力的方法及系统。
背景技术
近年来,语音对话系统已广泛应用于人们日常生活中,极大方便和丰富了人们的生活,比如智能导航、智能音箱、智能家居等等。从应用上区分,语音对话系统主要分为两类,一类是任务导向的闭域对话系统,这类对话系统只接收限定领域的任务语句,完成用户特定的任务,比如导航、播放音乐、查询天气等;另一类是闲聊型的开域对话系统,这类对话系统不限定用户对话主题,接收用户的任何闲聊语句,能够让用户在口语环境中与系统自由对话。闭域对话系统主要通过规则+数据方式生成回复内容,比如,用户:导航去[北京],机器人:现在为您导航去[北京]。开域对话系统一般采用基于匹配的QA问答或者回复生成神经网络实现。本专利的关注点集中在回复生成神经网络的优化。
在实际应用中,语音交互系统的回复生成模块接收到的输入语句往往带有大量噪声,如表1。这些噪声产生的原因主要为背景噪音、VAD切分错误、ASR识别错误,以及用户口语输入口误等。经过分析发现,系统中带噪音的语句占所有输入语句的30%以上。
表1噪声输入与当前系统回复
输入语句 | 系统回复 |
书山有路违纪 | 书山有路违纪 |
讲个小妖 | 小可爱想听什么都可以哦 |
我想有颗珍珠是能给我 | 那就去努力珍珠吧 |
我现在有多少幽闭 | 哈哈,你想幽闭的话可以自己数一数呀 |
我是要乘 | 好吧,那我就不说话了 |
近年来,深度学习算法在自然语言处理领域广泛应用,对话生成系统的研究也逐步转移到神经网络算法上来。seq2seq模型2015年被提出,它是编码-解码(Encode-Decode)框架,使用两个LSTMs结构,一个用于将输入语句编码为固定维度的向量,另一个用于将这个固定维度的向量解码为可变长度的文本序列。这是一个端到端的生成模型框架,解决了输入语句和目标语句特征向量维度必须一致的问题。
随后有人指出了编码-解码框架中将输入语句编码为一个固定维度向量导致信息损失的问题,并提出了注意力机制(attention mechanism),即seq2seq-attention使得解码过程中动态地“注意”输入语句的不同部分,即在生成当前时刻的词语时,只“注意”与当前时刻相关的信息。注意力机制的应用大幅提升了生成语句的质量。
Transformer模型2017年被提出,它放弃了基于LSTMs的链式结构,将注意力机制扩展为多头自注意力机制,并以此搭建整体网络。通过注意力机制,Transformer将任意位置的两个单词的距离转换为1,有效解决了自然语言处理(NLP)中棘手的长时依赖问题,是当前回复生成领域最优模型。
在实际应用中,语音对话系统的输入语句中包含大量噪声,噪声产生的主要原因为:背景噪音、VAD切分错误、ASR识别错误,以及用户口语输入口误。大量噪声导致输入语句分布和训练数据分布偏差扩大,使得主流回复生成系统seq2seq-attention和Transformer面对噪声语句时表现不尽人意。
发明内容
本发明提出了一种提升回复生成模型抗噪能力的方法及系统。在实际应用中,语音对话系统的输入语句中包含大量噪声,噪声产生的主要原因为:背景噪音、VAD切分错误、ASR识别错误,以及用户口语输入口误。大量噪声导致输入语句分布和训练数据分布偏差扩大,使得主流回复生成系统面对噪声语句时表现不尽人意。为了解决上述问题,本发明基于编码-解码框架,提升编码端对噪声特征的表示能力:(1)训练过程中在输入序列中随机加入噪声;(2)编码端输出层训练噪声字符识别,提升模型对噪声特征的编码能力。
本发明实施例提供一种提升回复生成模型抗噪能力的方法及系统,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种提升回复生成模型抗噪能力的方法,所述回复生成模型采用编码-解码架构,所述方法包括:
对训练样本进行加噪处理,以得到混合训练样本;
将所述混合训练样本输入至所述回复生成模型;
至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练。
第二方面,本发明实施例提供一种终端设备,其配置有采用本发明任一项所述的提升回复生成模型抗噪能力的方法得到的回复生成模型。
第三方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项提升回复生成模型抗噪能力的方法。
第四方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明上述任一项提升回复生成模型抗噪能力的方法。
第五方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项提升回复生成模型抗噪能力的方法。
本发明实施例的有益效果在于:通过训练过程中在训练样本中加入模拟现实情况的噪声,并通过训练学习噪声的语义特征,提升回复生成模型对噪声特征的编码能力,从而提升回复生成模型的抗噪能力。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的提升回复生成模型抗噪能力的方法的一实施例的流程图;
图2为本发明的提升回复生成模型抗噪能力的系统的一实施例的原理框图;
图3为本发明的电子设备的一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
如图1所示,本发明的实施例提供一种提升回复生成模型抗噪能力的方法,所述回复生成模型采用编码-解码架构,所述方法包括:
S10、对训练样本进行加噪处理,以得到混合训练样本。
示例性地,训练样本包括多个时刻的多个输入字符,对训练样本进行加噪处理,以得到混合训练样本包括:按照预设概率在多个时刻中的至少一个时刻对多个输入字符进行加噪处理,以得到混合输入序列。
S20、将所述混合训练样本输入至所述回复生成模型。
示例性地,根据混合输入序列生成编码端输入状态,并输入至回复生成模型。
S30、至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练。
示例性地,采用多任务训练的方式,在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练,同时对所述回复生成模型做回复生成训练。
本发明实施例通过在训练过程中在训练样本中加入噪声,来模拟由于实际环境中的各种噪声导致出现的带噪声输入语句,并通过训练学习噪声的语义特征,提升回复生成模型对噪声特征的编码能力,从而提升回复生成模型的抗噪能力。
示例性地,按照预设概率在所述多个时刻中的至少一个时刻对所述多个输入字符进行加噪处理包括:按照预设概率在所述多个时刻中的至少一个时刻增加噪声字符,和/或按照预设概率将所述多个时刻中的至少一个时刻所对应的输入字符替换为噪声字符,和/或按照预设概率删除所述多个时刻中的至少一个时刻所对应的输入字符。
本发明还提供一种终端设备,其配置有采用本发明前述实施例中任一项所述的提升回复生成模型抗噪能力的方法得到的回复生成模型。
本发明公开的提升回复生成模型抗噪能力的方法大体步骤如下:
1、模拟噪声输入
我们训练模型所使用的训练集都是语句完整顺通、语义简明的句子,使用这个训练集并不能让模型获得处理噪声的经验,我们的做法是输入语句在进入模型训练之前自动添加模拟噪声。
假设编码层输入序列为EncodeInput=[w1,w2,…,wN],其中N为输入序列长度。我们模拟噪声的方法是,在输入序列的t时刻,以概率pnoise随机增加或替换字符,并且每个输入序列添加噪声字符的个数最多不超过K个,并记录每个噪声字符在序列中的位置。显然整句不带噪声的概率为(1-pnoise)N。假设训练数据中所有输入语句的平均句长为τ,那么pnoise的计算用公式(1)表示:
其中,λ的含义是:整体训练过程中,不带噪声的语句数量与带噪声的语句数量的比例为λ:1。增加噪声后的输入序列用公式(2)表示:
EncodeInputnoise=[w1,w2,…,wM] (2)
其中M为增加噪声后的序列长度,噪声的训练目标用公式(3)表示:
Targetnoise=[tgt1,tgt2,…,tgtM], (3)
其中tgtt是标识噪声的二维向量,t∈[1,M],当输入序列中t时刻字符为噪声字符时,tgtt=1,反之tgtt=0。
例如,原始输入语句为:
EncodeInput=[祝,你,有,个,好,梦],
随机添加噪声后为:
EncodeInputnoise=[祝,你,午,有,个,年,梦],
其中,第三个字符“午”是增加方法产生的噪声字符,第六个字符“年”是替换方法产生的噪声字符。噪声训练目标为
Targetnoise=[0,0,1,0,0,1,0]。
2、噪声训练
网络中对噪声训练方法是,编码端输出的状态在每个时刻的特征向量上接入softmax二分类判别器,用于预测当前时刻的字符是否为噪声字符。编码端输入状态用公式(4)表示:
S=[s1,s2,…,sM], (4)
其中,st表示h维的字符编码特征。噪声预测函数用公式(5)表示:
其中,Wnoise和bnoise为仿射变换参数。在计算噪声损失函数前,先对噪声优化目标Targetnoise做平滑归一化,改变标签分布,降低训练难度,用公式(6)表示:
SmoothTargetnoise=[f(tgt1),f(tgt2),…,f(tgtM)]=[stgt1,stgt2,…,stgtM](6)
其中,
这里ε为平滑超参数,0<ε<1。损失函数为交叉熵与KL散度的和,用公式(7)表示:
训练过程中,噪声预测训练和回复生成训练同时进行,共用相同的学习率。这个网络使得Transformer编码层除了正常的学习语言特征表示外,同时强化编码层对噪声字符的表示能力。最终,输入序列在经过编码端的特征表示后,参与解码,使得解码模型逐渐学习到处理噪声的能力,在解码中表现为或者只关注非噪声内容,或者通过上下文猜测噪声内容。
3、实验效果举例
我们这里为了使举例更形象,使用Transformer作为编码-解码框架,然后使用上述抗噪机制进行训练。然后在相同训练数据上训练不加抗噪机制的Transformer作为对比。对比结果显示,加入抗噪机制的模型在通顺语句测试上与Transformer效果几乎一致,但在噪声语句测试集上,加入噪声机制的Transformer人工评测指标相比与原始Transformer效果提升60%。实验回复举例见表2。
表2 Transformer+抗噪VS.Transformer
如图2所示,为本发明的提升回复生成模型抗噪能力的系统的一实施例的原理框图,回复生成模型采用编码-解码架构,该系统200包括:
样本加噪模块210,用于对训练样本进行加噪处理,以得到混合训练样本;
样本输入模块220,用于将所述混合训练样本输入至所述回复生成模型;
模型训练模块230,用于至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练。
在一些实施例中,至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练包括:
采用多任务训练的方式,在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练,同时对所述回复生成模型做回复生成训练。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项提升回复生成模型抗噪能力的方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项提升回复生成模型抗噪能力的方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行提升回复生成模型抗噪能力的方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现提升回复生成模型抗噪能力的方法。
图3是本申请另一实施例提供的执行提升回复生成模型抗噪能力的方法的电子设备的硬件结构示意图,如图3所示,该设备包括:
一个或多个处理器310以及存储器320,图3中以一个处理器310为例。
执行提升回复生成模型抗噪能力的方法的设备还可以包括:输入装置330和输出装置340。
处理器310、存储器320、输入装置330和输出装置340可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器320作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的提升回复生成模型抗噪能力的方法对应的程序指令/模块。处理器310通过运行存储在存储器320中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例提升回复生成模型抗噪能力的方法。
存储器320可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据提升回复生成模型抗噪能力的装置的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器320可选包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至提升回复生成模型抗噪能力的装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330可接收输入的数字或字符信息,以及产生与提升回复生成模型抗噪能力的装置的用户设置以及功能控制有关的信号。输出装置340可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器320中,当被所述一个或者多个处理器310执行时,执行上述任意方法实施例中的提升回复生成模型抗噪能力的方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种提升回复生成模型抗噪能力的方法,所述回复生成模型采用编码-解码架构,所述方法包括:
对训练样本进行加噪处理,以得到混合训练样本;
将所述混合训练样本输入至所述回复生成模型;
至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练。
2.根据权利要求1所述的方法,其中,所述至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练包括:
采用多任务训练的方式,在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练,同时对所述回复生成模型做回复生成训练。
3.根据权利要求1所述的方法,其中,所述训练样本包括多个时刻的多个输入字符,所述对训练样本进行加噪处理,以得到混合训练样本包括:
按照预设概率在所述多个时刻中的至少一个时刻对所述多个输入字符进行加噪处理,以得到混合输入序列。
4.根据权利要求3所述的方法,其中,所述按照预设概率在所述多个时刻中的至少一个时刻对所述多个输入字符进行加噪处理包括:
按照预设概率在所述多个时刻中的至少一个时刻增加噪声字符,和/或
按照预设概率将所述多个时刻中的至少一个时刻所对应的输入字符替换为噪声字符,和/或
按照预设概率删除所述多个时刻中的至少一个时刻所对应的输入字符。
5.根据权利要求3或4所述的方法,其中,将所述混合训练样本输入至所述回复生成模型包括:根据所述混合输入序列生成编码端输入状态,并输入至所述回复生成模型。
6.一种提升回复生成模型抗噪能力的系统,所述回复生成模型采用编码-解码架构,所述系统包括:
样本加噪模块,用于对训练样本进行加噪处理,以得到混合训练样本;
样本输入模块,用于将所述混合训练样本输入至所述回复生成模型;
模型训练模块,用于至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练。
7.根据权利要求6所述的系统,其中,所述至少在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练包括:
采用多任务训练的方式,在所述回复生成模型的编码端输出层通过对每个字符做二分类识别噪声字符进行噪声字符识别训练,同时对所述回复生成模型做回复生成训练。
8.一种终端设备,其配置有采用权利要求1-5中任一项所述的方法得到的回复生成模型。
9.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任意一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-5中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010664792.8A CN111783434B (zh) | 2020-07-10 | 2020-07-10 | 提升回复生成模型抗噪能力的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010664792.8A CN111783434B (zh) | 2020-07-10 | 2020-07-10 | 提升回复生成模型抗噪能力的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783434A true CN111783434A (zh) | 2020-10-16 |
CN111783434B CN111783434B (zh) | 2023-06-23 |
Family
ID=72767319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010664792.8A Active CN111783434B (zh) | 2020-07-10 | 2020-07-10 | 提升回复生成模型抗噪能力的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783434B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114333851A (zh) * | 2021-12-31 | 2022-04-12 | 思必驰科技股份有限公司 | 提升回复生成模型抗噪性能的方法及回复生成方法 |
WO2022142041A1 (zh) * | 2020-12-29 | 2022-07-07 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008148321A1 (fr) * | 2007-06-05 | 2008-12-11 | Huawei Technologies Co., Ltd. | Appareil de codage et de décodage et procédé de traitement du bruit de fond et dispositif de communication utilisant cet appareil |
US20180075859A1 (en) * | 2016-09-09 | 2018-03-15 | Continental Automotive Systems, Inc. | Robust noise estimation for speech enhancement in variable noise conditions |
US20180137855A1 (en) * | 2016-11-16 | 2018-05-17 | Samsung Electronics Co., Ltd. | Method and apparatus for processing natural language, method and apparatus for training natural language processing model |
CN110782008A (zh) * | 2019-10-16 | 2020-02-11 | 北京百分点信息科技有限公司 | 深度学习模型的训练方法、预测方法和装置 |
CN111324736A (zh) * | 2020-03-19 | 2020-06-23 | 苏州思必驰信息科技有限公司 | 人机对话模型训练方法、人机对话方法及系统 |
-
2020
- 2020-07-10 CN CN202010664792.8A patent/CN111783434B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008148321A1 (fr) * | 2007-06-05 | 2008-12-11 | Huawei Technologies Co., Ltd. | Appareil de codage et de décodage et procédé de traitement du bruit de fond et dispositif de communication utilisant cet appareil |
US20180075859A1 (en) * | 2016-09-09 | 2018-03-15 | Continental Automotive Systems, Inc. | Robust noise estimation for speech enhancement in variable noise conditions |
US20180137855A1 (en) * | 2016-11-16 | 2018-05-17 | Samsung Electronics Co., Ltd. | Method and apparatus for processing natural language, method and apparatus for training natural language processing model |
CN110782008A (zh) * | 2019-10-16 | 2020-02-11 | 北京百分点信息科技有限公司 | 深度学习模型的训练方法、预测方法和装置 |
CN111324736A (zh) * | 2020-03-19 | 2020-06-23 | 苏州思必驰信息科技有限公司 | 人机对话模型训练方法、人机对话方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022142041A1 (zh) * | 2020-12-29 | 2022-07-07 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
CN114333851A (zh) * | 2021-12-31 | 2022-04-12 | 思必驰科技股份有限公司 | 提升回复生成模型抗噪性能的方法及回复生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111783434B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109637546B (zh) | 知识蒸馏方法和装置 | |
Chen et al. | Gunrock: Building a human-like social bot by leveraging large scale real user data | |
CN110246487B (zh) | 用于单通道的语音识别模型的优化方法及系统 | |
US20180329884A1 (en) | Neural contextual conversation learning | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
CN106875940B (zh) | 一种基于神经网络的机器自学习构建知识图谱训练方法 | |
US11947920B2 (en) | Man-machine dialogue method and system, computer device and medium | |
US20060206333A1 (en) | Speaker-dependent dialog adaptation | |
CN111324736B (zh) | 人机对话模型训练方法、人机对话方法及系统 | |
CN111753076B (zh) | 对话方法、装置、电子设备及可读存储介质 | |
CN108595436A (zh) | 情感对话内容的生成方法和系统、存储介质 | |
CN111782787B (zh) | 问题生成模型训练方法、问题生成方法 | |
CN108962221B (zh) | 在线对话状态跟踪模型的优化方法及系统 | |
CN111667728B (zh) | 语音后处理模块训练方法和装置 | |
CN113421551B (zh) | 语音识别方法、装置、计算机可读介质及电子设备 | |
Zhou et al. | ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge | |
He et al. | Intelligent learning model of financial spoken English teaching based on BPTT algorithm and LSTM network model | |
CN111783434A (zh) | 提升回复生成模型抗噪能力的方法及系统 | |
CN118378148A (zh) | 多标签分类模型的训练方法、多标签分类方法及相关装置 | |
CN115116443A (zh) | 语音识别模型的训练方法、装置、电子设备及存储介质 | |
CN111723185B (zh) | 问题生成方法 | |
Yang | [Retracted] Design of Service Robot Based on User Emotion Recognition and Environmental Monitoring | |
Ressmeyer et al. | “Deep faking” political twitter using transfe r learning and GPT-2 | |
CN115762557A (zh) | 用于语音分离的自监督训练预测器的训练方法及系统 | |
CN113314107B (zh) | 训练语音增广模型的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |