CN111079450A - 基于顺句驱动的语言转换方法和装置 - Google Patents
基于顺句驱动的语言转换方法和装置 Download PDFInfo
- Publication number
- CN111079450A CN111079450A CN201911324032.6A CN201911324032A CN111079450A CN 111079450 A CN111079450 A CN 111079450A CN 201911324032 A CN201911324032 A CN 201911324032A CN 111079450 A CN111079450 A CN 111079450A
- Authority
- CN
- China
- Prior art keywords
- vector
- source
- sentence
- character
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Abstract
本申请公开了基于顺句驱动的语言转换方法和装置,涉及NLP领域。具体实现方案为:利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量;依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正;根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量;利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。该方法在解码器的注意力层引入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
Description
技术领域
本申请涉及计算机技术领域,具体涉及自然语言处理(Natural LanguageProcessing,NLP)技术领域,尤其涉及一种基于顺句驱动的语言转换方法和装置。
背景技术
目前翻译模型中,为了提高翻译结果的准确性,通常在翻译过程中,产生多个翻译结果,之后根据每个翻译结果对应的对齐信息,从多个翻译结果中筛选出对齐信息最接近正向对角线的结果,作为最终的翻译结果输出。
但是,由于翻译模型的训练语料大多是带有倒装句式的翻译数据,因此即使通过扩大翻译候选的方法获取的翻译结果,在出现倒装句、被动语态等句子时,也通常是以倒装的方式进行翻译,从而不仅造成了句子翻译的延时,而且由于是非顺句驱动型翻译,影响了用户体验。
发明内容
本申请提出一种基于顺句驱动的语言转换方法和装置,用于解决相关技术中,翻译模型存在翻译延时和非顺句驱动翻译的问题。
本申请一方面实施例提出了一种基于顺句驱动的语言转换方法,包括:
利用预设的编码器,将待转换的源语句进行编码处理,确定所述源语句对应的第一向量及第二向量;
依据预设的规则,确定当前的掩码向量,其中,所述掩码向量用于对所述编码器输出的向量进行修正;
根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符;
利用预设的解码器,将所述第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与所述第一源字符对应的目标字符。
本申请实施例的基于顺句驱动的语言转换方法,通过利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量,依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正,根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符,然后利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。由此,在解码器的注意力层加入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
本申请另一方面实施例提出了一种基于顺句驱动的语言转换装置,包括:
第一确定模块,用于利用预设的编码器,将待转换的源语句进行编码处理,确定所述源语句对应的第一向量及第二向量;
第二确定模块,用于依据预设的规则,确定当前的掩码向量,其中,所述掩码向量用于对所述编码器输出的向量进行修正;
第三确定模块,用于根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符;
生成模块,用于利用预设的解码器,将所述第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与所述第一源字符对应的目标字符。
本申请实施例的基于顺句驱动的语言转换装置,通过利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量,依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正,根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符,然后利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。由此,在解码器的注意力层加入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
本申请另一方面实施例提出了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的基于顺句驱动的语言转换方法。
本申请另一方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机指令用于使所述计算机执行上述一方面实施例所述的基于顺句驱动的语言转换方法。
上述申请中的实施例具有如下有益效果:上述通过在解码器的注意力层加入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,从而获得顺句翻译结果,降低了翻译延时。因为采用在解码器的注意力层加入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力的技术手段,所以克服了相关技术中的翻译模型存在翻译延时和非顺句驱动翻译的技术问题,进而达到获得顺句翻译结果,降低了翻译延时的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例提供的一种基于顺句驱动的语言转换方法的流程示意图;
图2为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图;
图3为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图;
图4为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图;
图5为本申请实施例提供的一种基于顺句驱动的语言转换装置的结构示意图;
图6为根据本申请实施例的基于顺句驱动的语言转换方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的基于顺句驱动的语言转换方法和装置。
在一些应用场景中,需要进行顺句驱动翻译,比如同声翻译,同声翻译旨在高质量、低延时地将源语言翻译为目标语言句子,其具备一个基本原则:顺句驱动,即依照源语语言的词序和语序进行翻译。但是,目前机器翻译中无法保证顺句驱动的翻译结果。
本申请实施例,针对相关技术中在出现倒装句、被动语态等句子时,翻译模型通常是以倒装的方式进行翻译,不仅造成了句子翻译的延时,而且由于是非顺句驱动型翻译的问题,提出一种基于顺句驱动的语言转换方法。
本申请实施例的基于顺句驱动的语言转换方法,通过在解码器的注意力层加入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
图1为本申请实施例提供的一种基于顺句驱动的语言转换方法的流程示意图。
本申请实施例的基于顺句驱动的语言转换方法,可由本申请实施例提供的基于顺句驱动的语言转换装置执行,该装置可配置于电子设备中,以实现顺句驱动翻译。
如图1所示,该基于顺句驱动的语言转换方法包括:
步骤101,利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量。
本实施例中,预设的编码器可包括多头注意力层和前馈反向网络,利用多头注意层和前馈反向网络对源语句进行编码处理,得到与源语句对应的第一向量和第二向量。
其中,第一向量可以为键向量,第二向量为值向量,或者第一向量可以为值向量,第二向量为键向量。
步骤102,依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正。
本实施例中,每次翻译源字符时,确定当前待翻译源字符对应的掩码向量,利用掩码向量对编码器输出的向量第一向量和第二向量进行修正,以控制翻译模型中的注意力。
其中,掩码向量的长度与源语句中的字符的数量相等。
比如,长度为L的掩码向量表示为[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c],其中,c为整数,C的取值是预先设定的经验值。可见,该掩码向量包括三部分,一部分是元素0前面的数量为L1个-c元素,第二部分是数量为L2个连续为0的元素,第三部分为数量为L3个-c元素。当待翻译字符的位置不同时,L1、L2、L3的值可以改变。
步骤103,根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量。
其中,第一源字符为当前待翻译的源字符。
在翻译时,为了提高翻译效果,可根据已翻译出的目标语言的字符,翻译下一个字符。本实施例中,可对位于第一源字符前的各源字符分别对应的目标语言字符进行向量表示,得到第三向量。也就是说,根据对源语句进行翻译已得到的目标语言的字符,确定第三向量。
具体地,可对每个已翻译得到的目标语言的字符进行向量映射得到词向量,然后对所有词向量进行融合,得到第三向量。
步骤104,利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。
本实施例中,
预设的解码器可包括多头注意力层,将第一向量、第二向量、掩码向量及第三向量作为多头注意力层的输入,利用解码器进行解码,得到第一源字符对应的目标语言的目标字符,即将源语言的第一源字符由转换为目标语言的目标字符。由此,在注意力中加入掩码向量,可以控制翻译模型的注意力,从而可以保证翻译结果具有正向对角线的对齐信息,从而获得顺句翻译结果。
本实施例中,掩码向量用于对编码器输出的向量进行修正,在翻译过程中,利用掩码向量,遮住源语句中当前待翻译的源字符后的字符,以避免倒装式翻译,使得翻译模型按照源语句的语言的词序和语序进行翻译,从而获得顺句驱动翻译。
本申请实施例的基于顺句驱动的语言转换方法,通过在解码器的注意力层引入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,从而获得顺句翻译结果,降低了翻译延时。
在上述确定当前的掩码向量时,在本申请的一个实施例中,可以预先规定不同位置的源字符对应不同的各取值元素的数量,那么可以根据第一源字符在源语句中的位置和源语句中包括的字符数量,确定当前掩码向量中各取值元素的数量。
具体地,可根据源语句中包括的字符数量,确定当前掩码向量的长度,根据预先规定的不同位置的源字符,与掩码向量中各取值元素的数量的对应关系,确定第一源字符的位置对应的掩码向量中各取值元素的数量,从而根据掩码向量中各取值元素的数量,可以确定当前的掩码向量。
比如,源语句包括L个字符,那么掩码向量的长度为L,掩码向量表示为[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c],该掩码向量中,元素0前面-c的数量为L1,连续为0的元素的数量为L2,元素0后面的-c的数量为L3,其中,L1+L2+L3=L。那么,根据预先规定的不同位置的源字符,对应的L1、L2、L3的取值,可以确定待翻译的源字符的位置对应的L1、L2、L3的取值,由此,根据L1、L2、L3的取值确定待翻译的源字符对应的掩码向量。
也就是说,可以直接规定不同位置的源字符,对应不同的L1、L2、L3等的取值,即L1、L2、L3的取值是直接规定的,根据第一源字符的位置即可获取L1、L2、L3的取值,从而可以减少计算量。
需要说明的是,上述掩码向量包括L1、L2、L3三部分仅是示例,不可能看作是对本申请实施例的限制。
本申请实施例中,通过根据第一源字符在源语句中的位置及源语句中包括的字符数量,确定当前的掩码向量中各取值元素的数量,根据各取值元素的数量,确定掩码向量。
在本申请的一个实施例中,掩码向量中各取值元素的数量,还可以随已翻译生成的目标字符的数量动态更新。
具体地,根据第一源字符在源语句中的位置、源语句中包括的字符数量及已经生成的目标语言字符的数量,确定当前的掩码向量中各取值元素的数量。
举例而言,掩码向量表示为[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c],该掩码向量中,元素0前面-c的数量为L1,连续为0的元素的数量为L2,元素0后面的-c的数量为L3,L1、L2、L3的取值可按照如下方法确定:
源语句开头:L1=0,L2=4+length(dec),L3=length(source);
源语句中间:L1=length(dec)-5,L2=7,L3=length(source)-L1-L2;
源语句末尾:L1=length(source)-5,L2=5,L3=0。
其中,length(source)表示源语句中包括的字符数量,length(dec)表示已经生成的目标语言字符的数量。可见,可以根据第一字符在源语句中的位置,比如是源语句的开头、中间、末尾,确定对应的L1、L2、L3的取值方式,具体的取值根据源语句中包括的字符数量,及已经生成的目标语言字符的数量确定。
需要说明的是,上述仅是确定L1、L2、L3的一种方法,还可以根据需要调整L1、L2、L3的计算方式。
本申请实施例中,在确定当前的掩码向量时,可以根据第一源字符在源语句中的位置、源语句中包括的字符数量及已经生成的目标语言字符的数量,确定当前的掩码向量中各取值元素的数量,由此,在解码过程中,根据已经生成的目标语言字符的数量,确定掩码向量,使得掩码向量可以随解码的进行动态变化,提高了掩码向量的准确率。
为了提高顺句驱动翻译结果的准确性,在本申请的一个实施例中,可以获取多个掩码向量,根据多个掩码向量,获取多个翻译结果,进而从中选取最终的翻译结果。下面结合图2进行说明,图2为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图。
如图2所示,该基于顺句驱动的语言转换方法包括:
步骤201,利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量。
本实施例中,步骤201与上述步骤101类似,故在此不再赘述。
步骤202,依据预设的规则,确定当前的至少两组掩码向量。
本实施例中,可以通过两种以上的方式,确定掩码向量中各取值元素的数量,进而得到两组以上的掩码向量。
比如,根据预先规定的不同位置的源字符对应不同各取值元素的数量的方式,确定一组掩码向量,以及根据第一源字符在源语句中的位置及源语句中包括的字符数量的方式,确定另一组掩码向量,由此,得到两组掩码向量。
步骤203,根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量。
本实施例中,步骤203与上述步骤103类似,故在此不再赘述。
步骤204,利用预设的解码器,将至少两组掩码向量,分别与第一向量、第二向量、及第三向量进行解码处理,生成与第一源字符对应的至少两个候选目标语言字符。
本实施例中,获取了至少两组掩码向量,可利用预设的解码器,将每组掩码向量与第一向量、第二向量、及第三向量进行解码处理,生成对应的候选目标语言字符。由此,根据至少两组掩码向量,可生成对应的至少两个候选目标语言字符。
步骤205,从至少两个候选目标语言字符中选取注意力值最大的字符,作为第一源字符对应的目标字符。
由于上述获取了至少两个候选目标语言字符,则需要从中选取最终的字符作为第一字符对应的翻译结果。
由于目标语言的字符对应的注意力值越大,说明待翻译的源字符与目标语言的字符对齐程度越好,那么是顺句驱动翻译的可能性越大,因此,本实施例中,可从至少两个候选目标语言字符中选取注意力值最大的字符,作为第一源字符对应的目标字符。
具体地,可以根据以下公式计算注意力值:
其中,Attention(q,k,v)为注意力值,k表示键向量、v表示值向量、q表示已经生成的目标语言字符的向量,即第三向量、mask表示掩码向量、d表示翻译模型隐层的维度。若k表示第一向量,那么v便是第二向量。
本申请实施例的基于顺句驱动的语言转换方法,通过确定至少两组掩码向量,将所述至少两组掩码向量,分别与第一向量、第二向量、及第三向量进行解码处理,生成与第一源字符对应的至少两个候选目标语言字符,并根据注意力值从至少两个候选目标语言字符中,选取注意力值最大的字符,作为所述第一源字符对应的目标字符。由此,从根据多组掩码向量生成多个候选目标语言字符中,选取与待翻译的源字符对齐程度最好的字符作为目标字符,从而提高了顺句驱动翻译的准确性。
在本申请的一个实施例中,在将第一向量、第二向量、掩码向量及第三向量输入预设的解码器进行解码处理时,可以通过图3所示的方式实现。图3为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图。
如图3所示,上述将第一向量、第二向量、掩码向量及第三向量输入预设的解码器进行解码处理,生成与第一源字符对应的目标字符,包括:
步骤301,将第一向量与第三向量的转置向量进行叉乘,生成叉乘向量。
本实施例中,可先将第三向量进行转置,得到第三向量的转置向量,然后将第一向量与第三向量的转置向量进行叉乘,叉乘得到的向量称为叉乘向量。其中,叉乘向量与掩码向量的维数相同。
步骤302,将掩码向量与叉乘向量求和,生成第四向量。
在获取叉乘向量后,将掩码向量与叉向量相加,即将两向量中对应位置的元素求和,得到第四向量。
步骤303,对第四向量及第二向量进行多头注意力计算,生成与第一源字符对应的注意力值。
在获取第四向量后,可根据第四向量、第二向量以及模型隐层的维度,计算得到第一源字符对应的注意力值。
步骤304,将注意力值进行解码处理,确定第一源字符对应的目标字符。
在获取注意力值后,对注意力值进行解码处理,解码得到的字符作为第一源字符对应的目标字符。具体可采用现有的解码方法,在此不再赘述。
本申请实施例的基于顺句驱动的语言转换方法,通过利用掩码向量对编码器输出的向量进行修正,在注意力计算中引入了掩码向量,通过掩码向量把源语句中当前待翻译的源字符后面的字符掩盖,使得解码器根据当前待翻译的源字符之前的字符以及已生成的目标语言的字符,生成当前待翻译的源字符对应的目标语言字符,获得顺句驱动翻译结果,降低了翻译延时。
在本申请的一个实施例中,在利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量时,可通过图4的方法获取第一向量和第二向量,图4为本申请实施例提供的另一种基于顺句驱动的语言转换方法的流程示意图。
如图4所示,上述利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量,包括:
步骤401,将待转换的源语句进行向量映射,确定源语句对应的源向量。
本实施例中,可对待转换的源语句进行向量映射,得到源语句对应的词向量和位置向量,然后将词向量和位置向量相加,得到源语句对应的源向量。
步骤402,对源向量进行多头注意力计算及线性变换处理,生成源向量对应的第一向量及第二向量。
在获取源语句对应的源向量后,对源向量进行多头注意力计算得到一个向量,然后对该向量分别经过不同参数的线性变换,生成源向量对应的第一向量及第二向量。
本申请实施例中,通过将待转换的源语句进行向量映射,确定源语句对应的源向量,对源向量进行多头注意力计算及线性变换处理,生成源向量对应的第一向量及第二向量,由此,可以得到源语句对应的第一向量和第二向量。
为了实现上述实施例,本申请实施例还提出一种基于顺句驱动的语言转换装置。图5为本申请实施例提供的一种基于顺句驱动的语言转换装置的结构示意图。
如图5所示,该基于顺句驱动的语言转换装置500包括:第一确定模块510、第二确定模块520、第三确定模块530、生成模块540。
第一确定模块510,用于利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量;
第二确定模块520,用于依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正;
第三确定模块530,用于根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符;
生成模块540,用于利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。
在本申请实施例一种可能的实现方式中,上述第二确定模块520,具体用于:
根据第一源字符在源语句中的位置及源语句中包括的字符数量,确定当前的掩码向量中各取值元素的数量。
在本申请实施例一种可能的实现方式中,上述第二确定模块520,具体用于:
根据第一源字符在源语句中的位置、源语句中包括的字符数量及已经生成的目标语言字符的数量,确定当前的掩码向量中各取值元素的数量。
在本申请实施例一种可能的实现方式中,上述第二确定模块520,具体用于:
依据预设的规则,确定当前的至少两组掩码向量;
上述生成模块540,具体用于:
利用预设的解码器,将至少两组掩码向量,分别与第一向量、第二向量、及第三向量进行解码处理,生成与第一源字符对应的至少两个候选目标语言字符;
从至少两个候选目标语言字符中选取注意力值最大的字符,作为第一源字符对应的目标字符。
在本申请实施例一种可能的实现方式中,上述生成模块540,具体用于:
将第一向量与第三向量的转置向量进行叉乘,生成叉乘向量;
将掩码向量与叉乘向量求和,生成第四向量;
对第四向量及第二向量进行多头注意力计算,生成与第一源字符对应的注意力值;
将注意力值进行解码处理,确定第一源字符对应的目标字符。
在本申请实施例一种可能的实现方式中,上述第一确定模块510,具体用于:
将待转换的源语句进行向量映射,确定源语句对应的源向量;
对源向量进行多头注意力计算及线性变换处理,生成源向量对应的第一向量及第二向量。
需要说明的是,前述基于顺句驱动的语言转换方法实施例的解释说明,也适用于该实施例的基于顺句驱动的语言转换装置,故在此不再赘述。
本申请实施例的基于顺句驱动的语言转换装置,通过利用预设的编码器,将待转换的源语句进行编码处理,确定源语句对应的第一向量及第二向量,依据预设的规则,确定当前的掩码向量,其中,掩码向量用于对编码器输出的向量进行修正,根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符,然后利用预设的解码器,将第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与第一源字符对应的目标字符。由此,在解码器的注意力层引入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的基于顺句驱动的语言转换方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GU I的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的基于顺句驱动的语言转换方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的基于顺句驱动的语言转换方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的基于顺句驱动的语言转换方法对应的程序指令/模块(例如,附图5所示的第一确定模块510、第二确定模块520、第三确定模块530、生成模块540)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于顺句驱动的语言转换方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于顺句驱动的语言转换电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至基于顺句驱动的语言转换方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于顺句驱动的语言转换方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与基于顺句驱动的语言转换方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过在解码器的注意力层引入掩码向量,通过掩码向量对编码器输出的向量进行修正,从而控制翻译模型中的注意力,可以保证翻译结果具有正向对角线的对齐信息,进而获得顺句翻译结果,降低了翻译延时。
在本说明书的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种基于顺句驱动的语言转换方法,其特征在于,包括:
利用预设的编码器,将待转换的源语句进行编码处理,确定所述源语句对应的第一向量及第二向量;
依据预设的规则,确定当前的掩码向量,其中,所述掩码向量用于对所述编码器输出的向量进行修正;
根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符;
利用预设的解码器,将所述第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与所述第一源字符对应的目标字符。
2.如权利要求1所述的方法,其特征在于,所述依据预设的规则,确定当前的掩码向量,包括:
根据所述第一源字符在所述源语句中的位置及所述源语句中包括的字符数量,确定当前的掩码向量中各取值元素的数量。
3.如权利要求1所述的方法,其特征在于,所述依据预设的规则,确定当前的掩码向量,包括:
根据所述第一源字符在所述源语句中的位置、所述源语句中包括的字符数量及已经生成的目标语言字符的数量,确定当前的掩码向量中各取值元素的数量。
4.如权利要求1所述的方法,其特征在于,所述依据预设的规则,确定当前的掩码向量,包括:
依据预设的规则,确定当前的至少两组掩码向量;
所述利用预设的解码器,将所述第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与所述第一源字符对应的目标字符,包括:
利用预设的解码器,将所述至少两组掩码向量,分别与所述第一向量、第二向量、及第三向量进行解码处理,生成与所述第一源字符对应的至少两个候选目标语言字符;
从所述至少两个候选目标语言字符中选取注意力值最大的字符,作为所述第一源字符对应的目标字符。
5.如权利要求1所述的方法,其特征在于,所述将所述第一向量、第二向量、掩码向量及第三向量输入预设的解码器进行解码处理,生成与所述第一源字符对应的目标字符,包括:
将所述第一向量与所述第三向量的转置向量进行叉乘,生成叉乘向量;
将所述掩码向量与所述叉乘向量求和,生成第四向量;
对所述第四向量及所述第二向量进行多头注意力计算,生成与所述第一源字符对应的注意力值;
将所述注意力值进行解码处理,确定所述第一源字符对应的目标字符。
6.如权利要求1-5任一所述的方法,其特征在于,所述将待转换的源语句进行编码处理,确定所述源语句对应的第一向量及第二向量,包括:
将所述待转换的源语句进行向量映射,确定所述源语句对应的源向量;
对所述源向量进行多头注意力计算及线性变换处理,生成所述源向量对应的第一向量及第二向量。
7.一种基于顺句驱动的语言转换装置,其特征在于,包括:
第一确定模块,用于利用预设的编码器,将待转换的源语句进行编码处理,确定所述源语句对应的第一向量及第二向量;
第二确定模块,用于依据预设的规则,确定当前的掩码向量,其中,所述掩码向量用于对所述编码器输出的向量进行修正;
第三确定模块,用于根据位于第一源字符前的各源字符分别对应的目标语言字符,确定第三向量,其中,第一源字符为当前待翻译的源字符;
生成模块,用于利用预设的解码器,将所述第一向量、第二向量、掩码向量及第三向量进行解码处理,生成与所述第一源字符对应的目标字符。
8.如权利要求7所述的装置,其特征在于,所述第二确定模块,具体用于:
根据所述第一源字符在所述源语句中的位置及所述源语句中包括的字符数量,确定当前的掩码向量中各取值元素的数量。
9.如权利要求7所述的装置,其特征在于,所述第二确定模块,具体用于:根据所述第一源字符在所述源语句中的位置、所述源语句中包括的字符数量及已经生成的目标语言字符的数量,确定当前的掩码向量中各取值元素的数量。
10.如权利要求7所述的装置,其特征在于,所述第二确定模块,具体用于:
依据预设的规则,确定当前的至少两组掩码向量;
所述生成模块,具体用于:
利用预设的解码器,将所述至少两组掩码向量,分别与所述第一向量、第二向量、及第三向量进行解码处理,生成与所述第一源字符对应的至少两个候选目标语言字符;
从所述至少两个候选目标语言字符中选取注意力值最大的字符,作为所述第一源字符对应的目标字符。
11.如权利要求7所述的装置,其特征在于,所述生成模块,具体用于:
将所述第一向量与所述第三向量的转置向量进行叉乘,生成叉乘向量;
将所述掩码向量与所述叉乘向量求和,生成第四向量;
对所述第四向量及所述第二向量进行多头注意力计算,生成与所述第一源字符对应的注意力值;
将所述注意力值进行解码处理,确定所述第一源字符对应的目标字符。
12.如权利要求7-11任一所述的装置,其特征在于,所述第一确定模块,具体用于:
将所述待转换的源语句进行向量映射,确定所述源语句对应的源向量;
对所述源向量进行多头注意力计算及线性变换处理,生成所述源向量对应的第一向量及第二向量。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的基于顺句驱动的语言转换方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的基于顺句驱动的语言转换方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324032.6A CN111079450B (zh) | 2019-12-20 | 2019-12-20 | 基于顺句驱动的语言转换方法和装置 |
US16/926,197 US11409968B2 (en) | 2019-12-20 | 2020-07-10 | Language conversion method and apparatus based on syntactic linearity, and non-transitory computer-readable storage medium |
JP2020202351A JP7121106B2 (ja) | 2019-12-20 | 2020-12-07 | 構文線形性に基づく言語変換方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324032.6A CN111079450B (zh) | 2019-12-20 | 2019-12-20 | 基于顺句驱动的语言转换方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111079450A true CN111079450A (zh) | 2020-04-28 |
CN111079450B CN111079450B (zh) | 2021-01-22 |
Family
ID=70316147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911324032.6A Active CN111079450B (zh) | 2019-12-20 | 2019-12-20 | 基于顺句驱动的语言转换方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11409968B2 (zh) |
JP (1) | JP7121106B2 (zh) |
CN (1) | CN111079450B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113553864A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
CN114580445A (zh) * | 2022-03-10 | 2022-06-03 | 昆明理工大学 | 基于领域感知的掩码子结构的多领域自适应神经机器翻译方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159889A (zh) * | 2014-06-16 | 2015-12-16 | 吕海港 | 一种英汉机器翻译的中介汉语语言模型及其翻译方法 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106202059A (zh) * | 2015-05-25 | 2016-12-07 | 松下电器(美国)知识产权公司 | 机器翻译方法以及机器翻译装置 |
KR20180062003A (ko) * | 2016-11-30 | 2018-06-08 | 한국전자통신연구원 | 음성 인식 오류 교정 방법 |
CN108304388A (zh) * | 2017-09-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
CN108363702A (zh) * | 2017-01-26 | 2018-08-03 | 三星电子株式会社 | 翻译方法和设备以及翻译系统 |
US20190057081A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | Method and apparatus for generating natural language |
CN109558597A (zh) * | 2018-12-17 | 2019-04-02 | 北京百度网讯科技有限公司 | 文本翻译方法及装置、设备及存储介质 |
CN110147554A (zh) * | 2018-08-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 同声翻译方法、装置和计算机设备 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110211570A (zh) * | 2019-05-20 | 2019-09-06 | 北京百度网讯科技有限公司 | 同声传译处理方法、装置及设备 |
CN110210043A (zh) * | 2019-06-14 | 2019-09-06 | 科大讯飞股份有限公司 | 文本翻译方法、装置、电子设备及可读存储介质 |
CN110516065A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于多路动态掩码的注意力神经网络的方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565275B1 (ko) | 2016-08-10 | 2023-08-09 | 삼성전자주식회사 | 병렬 처리에 기초한 번역 방법 및 장치 |
US11080591B2 (en) * | 2016-09-06 | 2021-08-03 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
CN110023963B (zh) * | 2016-10-26 | 2023-05-30 | 渊慧科技有限公司 | 使用神经网络处理文本序列 |
EP4156034A1 (en) | 2017-05-23 | 2023-03-29 | Google LLC | Attention-based sequence transduction neural networks |
CN111428516B (zh) * | 2018-11-19 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法以及装置 |
KR20210043995A (ko) * | 2019-10-14 | 2021-04-22 | 삼성전자주식회사 | 모델 학습 방법 및 장치, 및 시퀀스 인식 방법 |
US20210133535A1 (en) * | 2019-11-04 | 2021-05-06 | Oracle International Corporation | Parameter sharing decoder pair for auto composing |
-
2019
- 2019-12-20 CN CN201911324032.6A patent/CN111079450B/zh active Active
-
2020
- 2020-07-10 US US16/926,197 patent/US11409968B2/en active Active
- 2020-12-07 JP JP2020202351A patent/JP7121106B2/ja active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159889A (zh) * | 2014-06-16 | 2015-12-16 | 吕海港 | 一种英汉机器翻译的中介汉语语言模型及其翻译方法 |
CN106202059A (zh) * | 2015-05-25 | 2016-12-07 | 松下电器(美国)知识产权公司 | 机器翻译方法以及机器翻译装置 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
KR20180062003A (ko) * | 2016-11-30 | 2018-06-08 | 한국전자통신연구원 | 음성 인식 오류 교정 방법 |
CN108363702A (zh) * | 2017-01-26 | 2018-08-03 | 三星电子株式会社 | 翻译方法和设备以及翻译系统 |
US20190057081A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | Method and apparatus for generating natural language |
CN108304388A (zh) * | 2017-09-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
CN110147554A (zh) * | 2018-08-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 同声翻译方法、装置和计算机设备 |
CN109558597A (zh) * | 2018-12-17 | 2019-04-02 | 北京百度网讯科技有限公司 | 文本翻译方法及装置、设备及存储介质 |
CN110211570A (zh) * | 2019-05-20 | 2019-09-06 | 北京百度网讯科技有限公司 | 同声传译处理方法、装置及设备 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110210043A (zh) * | 2019-06-14 | 2019-09-06 | 科大讯飞股份有限公司 | 文本翻译方法、装置、电子设备及可读存储介质 |
CN110516065A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于多路动态掩码的注意力神经网络的方法 |
Non-Patent Citations (4)
Title |
---|
PENGCHENG YIN ET AL: "A Syntactic Neural Model for General-Purpose Code Generation", 《HTTPS://ARXIV.ORG/ABS/1704.01696》 * |
WAN HONGYU ET AL: "Types and Rules of Syntactic Linearity in Simultaneous Interpreting", 《CHINESE TRANSLATORS JOURNAL》 * |
杨伟群: "商务合作与洽谈口译实践报告", 《中国优秀硕士学位论文全文数据库哲学与人文科学辑》 * |
马俪心: "顺句驱动原则下英汉定语从句的视译", 《科教导刊》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113553864A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
CN114580445A (zh) * | 2022-03-10 | 2022-06-03 | 昆明理工大学 | 基于领域感知的掩码子结构的多领域自适应神经机器翻译方法 |
CN114580445B (zh) * | 2022-03-10 | 2023-03-10 | 昆明理工大学 | 基于领域感知的掩码子结构的多领域自适应神经机器翻译方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210192150A1 (en) | 2021-06-24 |
JP2021099797A (ja) | 2021-07-01 |
US11409968B2 (en) | 2022-08-09 |
CN111079450B (zh) | 2021-01-22 |
JP7121106B2 (ja) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473516B (zh) | 语音合成方法、装置以及电子设备 | |
JP7079311B2 (ja) | 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
CN111832701B (zh) | 模型的蒸馏方法、装置、电子设备及存储介质 | |
CN110807331B (zh) | 一种多音字读音预测方法、装置和电子设备 | |
JP7149993B2 (ja) | 感情分析モデルの事前トレーニング方法、装置及び電子機器 | |
US20220198137A1 (en) | Text error-correcting method, apparatus, electronic device and readable storage medium | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111709234A (zh) | 文本处理模型的训练方法、装置及电子设备 | |
CN111079450B (zh) | 基于顺句驱动的语言转换方法和装置 | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
CN110704596A (zh) | 基于话题的对话方法、装置和电子设备 | |
CN112861548B (zh) | 自然语言生成及模型的训练方法、装置、设备和存储介质 | |
CN111859997A (zh) | 机器翻译中的模型训练方法、装置、电子设备及存储介质 | |
CN111354370B (zh) | 一种唇形特征预测方法、装置和电子设备 | |
CN112560499B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN111177339A (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN111666387A (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN111539220B (zh) | 语义相似度模型的训练方法、装置、电子设备及存储介质 | |
CN111079449B (zh) | 平行语料数据的获取方法、装置、电子设备和存储介质 | |
CN110767212B (zh) | 一种语音处理方法、装置和电子设备 | |
CN112528669A (zh) | 多语言模型的训练方法、装置、电子设备和可读存储介质 | |
EP3855339A1 (en) | Method and apparatus for generating text based on semantic representation | |
CN110648293A (zh) | 图像修复方法、装置及电子设备 | |
CN110674281B (zh) | 人机对话及人机对话模型获取方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |