CN111241830B - 对语词向量生成方法、对语生成模型训练方法 - Google Patents
对语词向量生成方法、对语生成模型训练方法 Download PDFInfo
- Publication number
- CN111241830B CN111241830B CN202010038403.0A CN202010038403A CN111241830B CN 111241830 B CN111241830 B CN 111241830B CN 202010038403 A CN202010038403 A CN 202010038403A CN 111241830 B CN111241830 B CN 111241830B
- Authority
- CN
- China
- Prior art keywords
- word
- sentence
- sample
- words
- aligned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开一种对语词向量生成方法,所述对语包括第一语句和第二语句,所述方法包括:确定所述第一语句中的需要生成词向量的待对词;确定所述第二语句中与所述待对词在所述第一语句中的位置相对应的对词;根据所述第一语句中的对应于所述待对词的邻接词和所述第二语句中的所述对词的邻接词确定所述待对词的词向量。本发明不仅考虑词语与其所在训练序列中的前后词语之间的关系,还考虑上下联中对应位置的词语之间的联系。从而使得训练得到的词向量更符合对联对于韵律以及平仄等特征的要求的同时,还能兼顾句子前后文之间的联系,使得在用于生成对联时得到的上联或者下联整个句子更加的协调,不会显得生硬。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对语词向量生成方法、对语生成模型训练方法及对语生成方法。
背景技术
对联,又叫做对子或者楹联,是中国的传统文化之一。对联讲究平仄要协调,对仗要工整,上下联字数相同,结构也保持一致,是中华语言的一种独特的艺术形式,具有非常浓厚的美感,受到了人们的广泛喜爱。
现有的对对联辅助系统通常基于统计信息,使用计算机根据数据库里面收集的历代律诗统计出的对偶结果,为常见的对语(字数一般局限与1~2个字)建立对语库。在用户输入求对的字词、词组后,系统在对语库中查询对应的候选对语,一旦对语库中不存在用户输入求对的字词、词组,则会查询失败。
发明内容
本发明实施例提供一种对语词向量生成方法、对语生成模型训练方法及对语生成方法,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种对语词向量生成方法,所述对语包括第一语句和第二语句,所述方法包括:
确定所述第一语句中的需要生成词向量的待对词;
确定所述第二语句中与所述待对词在所述第一语句中的位置相对应的对词;
根据所述第一语句中的对应于所述待对词的邻接词和所述第二语句中的所述对词的邻接词确定所述待对词的词向量。
在一些实施例中,当所述待对词为所述第一语句中的第一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的后续词;
当所述待对词为所述第一语句中的最后一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的前置词;
当所述待对词为所述第一语句中的中间词时,所述待对词的邻接词包括所述第一语句中的所述待对词的前置词和后续词。
在一些实施例中,所述对语为对联;所述第一语句为所述对联的上联,所述第二语句为所述对联的下联;或者,所述第一语句为所述对联的下联,所述第二语句为所述对联的上联。
第二方面,本发明还提供一种对语生成模型训练方法,包括:
获取样本对语,所述样本对语包括第一样本语句和第二样本语句;
采用前述任一实施例所述的对语词向量生成方法生成所述第一样本语句的多个词的多个词向量;
将所述第一样本语句的多个词的多个词向量输入至编码器,以得到对应于所述第一样本语句的语义向量;
至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率;
根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
在一些实施例中,所述对语生成模型训练方法还包括:
确定所述第二样本语句中的当前待确定条件概率的词;
获取所述第一样本语句中与所述当前待确定条件概率的词相对应的词的词向量;
所述至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率包括:
将所述第一样本语句的语义向量和所述相对应的词的词向量输入至解码器,以确定所述当前待确定条件概率的词的条件概率。
第三方面,本发明实施例提供一种对语生成方法,包括:
接收用户输入的待对语句;
将所述待对语句输入至对语生成模型,以得到相匹配的语句,所述对语生成模型采用前述实施例所述的对语生成模型训练方法预先训练得到。
第四方面,本发明实施例提供一种对语生成系统,包括:
对语获取模块,用于获取样本对语,所述样本对语包括第一样本语句和第二样本语句;
词向量生成模块,用于采用前述任一实施例所述的对语词向量生成方法生成所述第一样本语句的多个词的多个词向量;
编码器模块,用于对所述第一样本语句的多个词的多个词向量进行编码,以得到对应于所述第一样本语句的语义向量;
解码器模块,用于至少对所述第一样本语句的语义向量进行解码,以确定对应于所述第二样本语句中的多个词的条件概率;
参数优化模块,用于根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
第五方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项对语生成方法。
第六方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明上述任一项对语生成方法。
第七方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项对语生成方法。
本发明实施例的有益效果在于:本发明实施例根据上联(或者下联)中的相关词以及下联(或者上联)中的待确定词的邻接词的来训练下联(或者上联)中的待确定词的词向量。不仅考虑词语与其所在训练序列中的前后词语之间的关系,还考虑上下联中对应位置的词语之间的联系。从而使得训练得到的词向量更符合对联对于韵律以及平仄等特征的要求的同时,还能兼顾句子前后文之间的联系,使得在用于生成对联时得到的上联或者下联整个句子更加的协调,不会显得生硬。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的对语词向量生成方法的一实施例的流程图;
图2为本发明的对语生成模型训练方法的一实施例的流程图;
图3为本发明中训练词向量所采用的改进型的CBOW的一实施例的示意图;
图4为本发明所采用的编解码器的一实施例的示意图;
图5为本发明的对语生成系统的一实施例的原理图;
图6为本发明的电子设备的一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
如图1所示,本发明的实施例提供一种对语词向量生成方法,所述对语包括第一语句和第二语句,示例性地,所述对语为对联;其中,所述第一语句为所述对联的上联,所述第二语句为所述对联的下联;或者,所述第一语句为所述对联的下联,所述第二语句为所述对联的上联。
如图1所示,对语词向量生成方法包括:
S10、确定所述第一语句中的需要生成词向量的待对词。
示例性地,对于“上联:风高秋月白;下联:雨霁晚霞红”,确定下联为第一语句,上联为第二语句。其中,确定第一语句中的“晚”字为需要生成词向量的待对词。
S11、确定所述第二语句中与所述待对词在所述第一语句中的位置相对应的对词。
示例性地,第二语句“风高秋月白”中与第一语句中的“晚”字位置相对应的字是“秋”,即确定“秋”字为对词。
S12、根据所述第一语句中的对应于所述待对词的邻接词和所述第二语句中的所述对词的邻接词确定所述待对词的词向量。
示例性地,对于“晚”字,其邻接词为“雨霁”和“晚霞”;对于对词“秋”字,其邻接词可以为“高”和“月”。
示例性地,当所述待对词为所述第一语句中的第一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的后续词;
当所述待对词为所述第一语句中的最后一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的前置词;
当所述待对词为所述第一语句中的中间词时,所述待对词的邻接词包括所述第一语句中的所述待对词的前置词和后续词。
本发明实施例根据上联(或者下联)中的相关词以及下联(或者上联)中的待确定词的邻接词的来训练下联(或者上联)中的待确定词的词向量。不仅考虑词语与其所在训练序列中的前后词语之间的关系,还考虑上下联中对应位置的词语之间的联系。从而使得训练得到的词向量更符合对联对于韵律以及平仄等特征的要求的同时,还能兼顾句子前后文之间的联系,使得在用于生成对联时得到的上联或者下联整个句子更加的协调,不会显得生硬。
如图2所示,为本发明的对语生成模型训练方法的一实施例的流程图,该方法包括:
S20、获取样本对语,所述样本对语包括第一样本语句和第二样本语句。示例性地,对于“上联:风高秋月白;下联:雨霁晚霞红”,确定下联为第一样本语句,上联为第二样本语句。
S21、采用前述任一实施例所述的对语词向量生成方法生成所述第一样本语句的多个词的多个词向量。
S22、将所述第一样本语句的多个词的多个词向量输入至编码器,以得到对应于所述第一样本语句的语义向量;
S23、至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率;
S24、根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
基于本发明实施的方法训练得到了对于生成模型,能够使得用于对联生成时从根本上解决了传统基于统计的方法,是否能够得到相应的对语依赖于对语库的局限性,并且还能生成更加自然、韵律更加优美的上联或者下联。
在一些实施例中,本发明的对语生成模型训练方法还包括:
确定所述第二样本语句中的当前待确定条件概率的词;
获取所述第一样本语句中与所述当前待确定条件概率的词相对应的词的词向量;
所述至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率包括:
将所述第一样本语句的语义向量和所述相对应的词的词向量输入至解码器,以确定所述当前待确定条件概率的词的条件概率。
本发明实施例中,使用Transformer作为解码器对获得的语义向量C进行解码。在解码过程中,根据这个语义向量C,进一步计算分析出输入句子的语义信息,并结合已经生成的序列来一步一步生成目标序列。由于上联中对应位置的字对当前字生成的影响较大,其他位置的字对当前字生成的影响较小,因此我们在生成t位置的字时,不仅使用语义向量C,同时增加了上联对应t位置的词向量wt。
在一些实施例中,本发明还提供一种对语生成方法,该方法包括:接收用户输入的待对语句,其中,所述待对语句为对联中的上联或者下联;将所述待对语句输入至对语生成模型,以得到相匹配的语句,所述对语生成模型采用前述任一实施例中的对语生成模型训练方法预先训练得到。
基于本发明的对于生成方法,通过生成式方法来生成用户输入求对的字词、词组的对语,模型训练完成后,不需要对语库,因此不存在查询失败的问题。
在一些实施例中,在得到相匹配的语句之后,并为所述相匹配的语句进行打分,以及将所述相匹配的语句和相应的打分呈现给用户。
在本发明实施例中,模型在给出用户输入求对的字词、词组的对语的同时,还会提供其对应的得分,并由用户选择得分最高或者得分较高,并且是自己较为喜欢的对语。
示例性地,本发明的生成对联的方法主要包括以下准备及执行过程:
(1)数据收集:
1)收集、爬取各个对联网站、论坛的对联数据,对语库等;
2)收集、爬取各个古诗词网站、论坛的诗词数据,抽取对偶部分。
本发明不仅收集了目前常用的对语库数据来训练模型,同时收集古往今来大量的对联数据以及《笠翁对韵》、《声律启蒙》、《训蒙骈句》等古文来训练模型,因此对任意长度的字词,短语,短句都可生成对语,从根本上解决了上述缺陷。
(2)数据处理:模型的训练数据对应的输入和输出分别包含字级、词级、短语、短句和整句五个级别。
例如:
字级:天 ==》地;雨 ==》风;
词级:大陆 ==》长空;山花 ==》海树;
短语:雷隐隐 ==》雾蒙蒙;
短句:风高秋月白 ==》雨霁晚霞红;庄周梦化蝶 ==》吕望兆飞熊;
整句:十月塞边,飒飒寒霜惊戍旅 ==》三冬江上,漫漫朔雪冷鱼翁。
(3)模型训练
第一步:将序列中词语(这里是实际上是汉字)转化为一个向量,就是所谓的词向量。我们使用CBOW(Continuous Bag-of-Words Model,是一种常用的Word2Vec词嵌入算法,用上下文预测中间的词)模型预训练的词向量,该词向量在训练时不仅考虑词语与其所在训练序列中的前后词语之间的关系,还考虑上下联中对应位置的词语之间的联系。
如图3所示,为本发明中训练词向量所采用的改进型的CBOW的一实施例的示意图。其中,对应于“晚”字的上联中相应位置的字应该是“秋”,本发明在进行词向量训练时并未直接使用“秋”字,而是采用了“秋”字的上下文“高”和“月”呢,这是因为直接采用“秋”字特征太明显,生成的词向量会只关注“秋”对偶的字,而忽视上下文信息。
第二步:如图4所示,为本发明所采用的编解码器的一实施例的示意图,本发明使用Transformer作为编码器对第一步获得词向量进行编码。输出整个输入序列的语义向量C=f(e1,e2,...,em),这个语义向量C包含了输入句子的全部信息。
第三步:同样的,我们使用Transformer作为解码器对第二步获得的语义向量C进行解码。在解码过程中,根据这个语义向量C,进一步计算分析出输入句子的语义信息,并结合已经生成的序列来一步一步生成目标序列。由于上联中对应位置的字对当前字生成的影响较大,其他位置的字对当前字生成的影响较小,因此我们在生成t位置的字时,不仅使用语义向量C,同时增加了上联对应t位置的词向量wt。
示例性地:
在解码时,我们根据上一步的到的上联语义向量C来逐字生成下联。
Yt=f(C+Xt,y(t-1)),其中f为Transformer解码器。
生成Y1=雨时,Y0=<s>(起始符),X0=雨;
生成Y2=霁时,Y1=雨,X1=高;
……
直到Y6=</s>(结束符)生成时,模型运行结束,输出:雨霁晚霞红。
第四步:由第三步Transformer解码器计算得到目标序列中各个词的条件概率后,我们使用交叉熵作为损失函数,并进行反向传播,梯度下降训练模型参数。
(4)模型预测
模型训练完成之后,当用户输入求对的字、词、短语、短句或整句后,模型会输出对应的对语及序列中各个词的条件概率,我们将序列中各个词的条件概率乘积作为该对语对应的得分。
不同于训练阶段,其在解码时直接选取每个时刻概率最大的词。预测时我们使用集束搜索(beam search)来选取最终的输出序列。集束搜索(beam search)是一种启发式的图搜索算法,一般在图的解空间比较大的情况下使用,它在每一步深度扩展的时候会减掉一些质量比较差的节点,保留部分高质量的节点,这样可以减少搜索所占用的空间消耗,并提高时间效率。
例子:
输入:月下
输出:花前 0.81
云中 0.78
风前 0.73
花间 0.71
霜前 0.68
灯前 0.66
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
如图5所示,为本发明的对语生成系统的一实施例的原理图,该系统500包括:
对语获取模块510,用于获取样本对语,所述样本对语包括第一样本语句和第二样本语句;
词向量生成模块520,用于采用前述任一实施例所述的对语词向量生成方法生成所述第一样本语句的多个词的多个词向量;
编码器模块530,用于对所述第一样本语句的多个词的多个词向量进行编码,以得到对应于所述第一样本语句的语义向量;
解码器模块540,用于至少对所述第一样本语句的语义向量进行解码,以确定对应于所述第二样本语句中的多个词的条件概率;
参数优化模块550,用于根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项对语生成方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项对语生成方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行对语生成方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现对语生成方法。
上述本发明实施例的对语生成系统可用于执行本发明实施例的对语生成方法,并相应的达到上述本发明实施例的实现对语生成方法所达到的技术效果,这里不再赘述。本发明实施例中可以通过硬件处理器(hardware processor)来实现相关功能模块。
图6是本申请另一实施例提供的执行对语生成方法的电子设备的硬件结构示意图,如图6所示,该设备包括:
一个或多个处理器610以及存储器620,图6中以一个处理器610为例。
执行对语生成方法的设备还可以包括:输入装置630和输出装置640。
处理器610、存储器620、输入装置630和输出装置640可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器620作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的对语生成方法对应的程序指令/模块。处理器610通过运行存储在存储器620中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例对语生成方法。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据对语生成装置的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器620可选包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至对语生成装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可接收输入的数字或字符信息,以及产生与对语生成装置的用户设置以及功能控制有关的信号。输出装置640可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器620中,当被所述一个或者多个处理器610执行时,执行上述任意方法实施例中的对语生成方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (9)
1.一种对语词向量生成方法,所述对语包括第一语句和第二语句,所述对语为对联;所述第一语句为所述对联的上联,所述第二语句为所述对联的下联;或者,所述第一语句为所述对联的下联,所述第二语句为所述对联的上联,所述方法包括:
确定所述第一语句中的需要生成词向量的待对词;
确定所述第二语句中与所述待对词在所述第一语句中的位置相对应的对词;
根据所述第一语句中的对应于所述待对词的邻接词和所述第二语句中的所述对词的邻接词确定所述待对词的词向量;
所述待对词的邻接词为所述待对词的后续词和/或所述待对词的前置词。
2.根据权利要求1所述的方法,其中,
当所述待对词为所述第一语句中的第一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的后续词;
当所述待对词为所述第一语句中的最后一个词时,所述待对词的邻接词为所述第一语句中的所述待对词的前置词;
当所述待对词为所述第一语句中的中间词时,所述待对词的邻接词包括所述第一语句中的所述待对词的前置词和后续词。
3.一种对语生成模型训练方法,包括:
获取样本对语,所述样本对语包括第一样本语句和第二样本语句;
采用权利要求1-2中任一项所述的方法生成所述第一样本语句的多个词的多个词向量;
将所述第一样本语句的多个词的多个词向量输入至编码器,以得到对应于所述第一样本语句的语义向量;
至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率;
根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
4.根据权利要求3所述的方法,其中,所述方法还包括:
确定所述第二样本语句中的当前待确定条件概率的词;
获取所述第一样本语句中与所述当前待确定条件概率的词相对应的词的词向量;
所述至少将所述第一样本语句的语义向量输入至解码器,以确定对应于所述第二样本语句中的多个词的条件概率包括:
将所述第一样本语句的语义向量和所述相对应的词的词向量输入至解码器,以确定所述当前待确定条件概率的词的条件概率。
5.一种对语生成方法,包括:
接收用户输入的待对语句;
将所述待对语句输入至对语生成模型,以得到相匹配的语句,所述对语生成模型采用权利要求3或4所述的方法预先训练得到。
6.根据权利要求5所述的方法,其中,所述待对语句为对联中的上联或者下联。
7.一种对语生成系统,包括:
对语获取模块,用于获取样本对语,所述样本对语包括第一样本语句和第二样本语句;
词向量生成模块,用于采用权利要求1-2中任一项所述的方法生成所述第一样本语句的多个词的多个词向量;
编码器模块,用于对所述第一样本语句的多个词的多个词向量进行编码,以得到对应于所述第一样本语句的语义向量;
解码器模块,用于至少对所述第一样本语句的语义向量进行解码,以确定对应于所述第二样本语句中的多个词的条件概率;
参数优化模块,用于根据所述第二样本语句中的多个词的条件概率,基于最小交叉熵算法对所述编码器和所述解码器进行参数优化。
8.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求5或6所述方法的步骤。
9.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求5或6所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010038403.0A CN111241830B (zh) | 2020-01-14 | 2020-01-14 | 对语词向量生成方法、对语生成模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010038403.0A CN111241830B (zh) | 2020-01-14 | 2020-01-14 | 对语词向量生成方法、对语生成模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111241830A CN111241830A (zh) | 2020-06-05 |
CN111241830B true CN111241830B (zh) | 2023-09-01 |
Family
ID=70876511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010038403.0A Active CN111241830B (zh) | 2020-01-14 | 2020-01-14 | 对语词向量生成方法、对语生成模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111241830B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111984783B (zh) * | 2020-08-28 | 2024-04-02 | 达闼机器人股份有限公司 | 文本生成模型的训练方法、文本生成方法及相关设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363697A (zh) * | 2018-03-08 | 2018-08-03 | 腾讯科技(深圳)有限公司 | 文本信息生成方法、装置、存储介质及设备 |
CN108763504A (zh) * | 2018-05-30 | 2018-11-06 | 浙江大学 | 一种基于强化双通道序列学习的对话回复生成方法及系统 |
-
2020
- 2020-01-14 CN CN202010038403.0A patent/CN111241830B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363697A (zh) * | 2018-03-08 | 2018-08-03 | 腾讯科技(深圳)有限公司 | 文本信息生成方法、装置、存储介质及设备 |
CN108763504A (zh) * | 2018-05-30 | 2018-11-06 | 浙江大学 | 一种基于强化双通道序列学习的对话回复生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111241830A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102382499B1 (ko) | 번역 방법, 타깃 정보 결정 방법, 관련 장치 및 저장 매체 | |
CN108153913B (zh) | 回复信息生成模型的训练方法、回复信息生成方法及装置 | |
CN109346064B (zh) | 用于端到端语音识别模型的训练方法及系统 | |
CN110705284B (zh) | 基于神经网络生成模型的诗词生成质量的优化方法及系统 | |
CN113657399A (zh) | 文字识别模型的训练方法、文字识别方法及装置 | |
CN110427629B (zh) | 半监督文本简化模型训练方法和系统 | |
CN109933809B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN110930980B (zh) | 一种中英文混合语音的声学识别方法及系统 | |
CN110457661B (zh) | 自然语言生成方法、装置、设备及存储介质 | |
CN112017645B (zh) | 一种语音识别方法及装置 | |
WO2018082569A1 (zh) | 序列转换方法及装置 | |
WO2022134164A1 (zh) | 翻译方法、装置、设备及存储介质 | |
CN115309877A (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN111507070B (zh) | 自然语言生成方法和装置 | |
CN109933773A (zh) | 一种多重语义语句解析系统及方法 | |
CN113641807A (zh) | 对话推荐模型的训练方法、装置、设备和存储介质 | |
CN112861548A (zh) | 自然语言生成及模型的训练方法、装置、设备和存储介质 | |
CN117633707A (zh) | 一种细粒度多模态中文大语言模型构建方法及计算机存储介质 | |
CN111241830B (zh) | 对语词向量生成方法、对语生成模型训练方法 | |
CN114036282B (zh) | 用于端到端任务型对话的语言模型预训练方法及系统 | |
CN113177393B (zh) | 改进针对网页结构理解的预训练语言模型的方法和装置 | |
CN113129869B (zh) | 语音识别模型的训练与语音识别的方法、装置 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN111178097B (zh) | 基于多级翻译模型生成中泰双语语料的方法及装置 | |
CN117725432A (zh) | 文本语义相似度对比方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |