CN111767694B - 文本生成方法、装置和计算机可读存储介质 - Google Patents

文本生成方法、装置和计算机可读存储介质 Download PDF

Info

Publication number
CN111767694B
CN111767694B CN201910231478.8A CN201910231478A CN111767694B CN 111767694 B CN111767694 B CN 111767694B CN 201910231478 A CN201910231478 A CN 201910231478A CN 111767694 B CN111767694 B CN 111767694B
Authority
CN
China
Prior art keywords
text
generating
hidden state
sequence
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910231478.8A
Other languages
English (en)
Other versions
CN111767694A (zh
Inventor
刘瑞雪
陈佩佩
陈蒙
刘晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201910231478.8A priority Critical patent/CN111767694B/zh
Publication of CN111767694A publication Critical patent/CN111767694A/zh
Application granted granted Critical
Publication of CN111767694B publication Critical patent/CN111767694B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种文本生成方法、装置和计算机可读存储介质,涉及自然语言处理领域。文本生成方法包括:将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;将隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;将更新后的参考序列输入到文本生成模型中。

Description

文本生成方法、装置和计算机可读存储介质
技术领域
本发明涉及自然语言处理领域,特别涉及一种文本生成方法、装置和计算机可读存储介质。
背景技术
随着人工智能技术的发展,基于文本生成(Natural Language Generation)的项目越来越多,从而节省了很多人力资源成本和经济成本。相关技术采用机器学习的方法生成文本。传统的基于机器学习的模型主要包括基于概率统计的机器翻译模型,其本质是在已知源语言的条件下,用概率统计的方式,计算出与源语言的共现概率最高的目标语言的组合。深度学习的方法则是通过模拟人脑的神经元,设计和使用深度神经网络(NeuralNetwork)来建立不同复杂程度和深度的非线性学习模型。通过使用大量训练数据,模型能够学习到自然语言中的语义信息。通过分析源语言的特点以及源语言与目标语言的关系,模型能够对特定题材或者主题的文本进行预测。
发明内容
发明人对相关技术进行分析后发现,相关技术生成的文本存在文本结构不合理、内容单一的问题,从而导致生成的文本可读性很差。
本发明实施例所要解决的一个技术问题是:如何提高自动生成的文本的可读性。
根据本发明一些实施例的第一个方面,提供一种文本生成方法,包括:将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;将隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;将更新后的参考序列输入到文本生成模型中。
在一些实施例中,文本生成方法还包括:获取用于生成当前文本的输入文本;将输入文本进行反向处理,以生成反向输入文本;以及,生成输入文本对应的正向序列、以及反向输入文本对应的反向序列,作为用于生成当前文本的参考序列;将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出确定的隐藏状态序列包括:将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得正向隐藏状态序列和反向隐藏状态序列;以及,将正向隐藏状态序列和反向隐藏状态序列中位于相同位置的隐藏状态进行拼接,获得隐藏状态序列。
在一些实施例中,根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词包括:将隐藏状态序列中的最后一个隐藏状态和预先获取的关键词矩阵的乘积与预设的偏置向量之和输入到激活函数中,获得词库中每个词对应的概率值,其中,关键词矩阵包括词库中每个词对应的预设的向量;将概率值最大的预设数量个词确定为用于生成下一个文本的关键词。
在一些实施例中,基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本包括:获取待生成的当前文本的第i个位置对应的、预设数量个不同的候选序列,其中,每个候选序列中包括待生成的当前文本的前i-1个位置中每个位置所对应的词语,每个词语具有在相应的位置上出现的概率值,其中,i为大于1的整数;根据待生成的当前文本的第i个位置对应的词语概率分布,确定词库中的词语在第i个位置出现的概率值;将词库中的词语与第i个位置对应的所有候选序列进行组合,并根据每种组合中的词语的概率值,确定每个组合的备选值;采用备选值最大的预设数量个组合更新候选序列,获得待生成的当前文本的第i+1个位置对应的、预设数量个不同的候选序列,以便采用待生成的当前文本的最后一个位置对应的、备选值最大的候选序列生成当前文本。
在一些实施例中,根据每种组合中的词语的概率值,确定每个组合的备选值包括:将组合中的每个词对应的概率值的对数值的总和与组合中词的数量的比值,确定为组合的备选值。
在一些实施例中,文本生成方法还包括:获取用户输入的文本、音频、图像中的至少一种,作为用户输入信息;将用户输入信息映射为包括一个或多个向量的序列,作为用于生成首个文本的参考序列。
在一些实施例中,在用户输入信息为文本的情况下,在将用户输入信息映射为包括多个向量的序列之前,文本生成方法还包括:在用户输入信息中的词语数量大于预设值的情况下,将用户输入信息截取为预设的长度;在用户输入信息中的词语数量小于预设值的情况下,将用户输入信息填充为预设的长度。
在一些实施例中,文本生成模型的编码器和解码器为循环神经网络或者卷积神经网络。
在一些实施例中,文本生成方法还包括:获取训练文本,其中,训练文本中的关键词被预先进行标记;将用于训练的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的、训练文本的隐藏状态序列;将训练文本的隐藏状态序列输入到文本生成模型的解码器中,获得训练文本中的每个位置所对应的词语概率分布;基于训练文本中的每个位置所对应的词语概率分布生成预测文本;根据训练文本的隐藏状态序列和关键词矩阵,确定下一个文本对应的预测关键词;根据预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距,对文本生成模型和关键词矩阵的参数进行调整,直到预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距小于预设值。
根据本发明一些实施例的第二个方面,提供一种文本生成装置,包括:隐藏状态序列确定模块,被配置为将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;词语概率分布确定模块,被配置为将隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;文本生成模块,被配置为基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;关键词确定模块,被配置为根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;参考信息更新模块,被配置为采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;输入模块,被配置为将更新后的参考序列输入到隐藏状态序列确定模块。
根据本发明一些实施例的第三个方面,提供一种文本生成装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器中的指令,执行前述任意一种文本生成方法。
根据本发明一些实施例的第四个方面,提供一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意一种文本生成方法。
上述发明中的一些实施例具有如下优点或有益效果:本发明的实施例能够通过编码器的隐藏状态序列并行地预测当前的文本和下一个文本的关键词,并且在生成下一个文本时利用这些信息进行预测。这种将源语言的规划和文本的生成过程同时进行的方式,能够使得生成的多个连续文本具有连贯的信息。从而,提高了自动生成的文本的可读性,提高了文本生成的效率。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为根据本发明一些实施例的文本生成方法的流程示意图。
图2为根据本发明一些实施例的隐藏状态确定方法的流程示意图。
图3为根据本发明一些实施例的关键词生成方法的流程示意图。
图4为根据本发明一些实施例的根据词语概率分布生成文本的方法的流程示意图。
图5为根据本发明一些实施例的文本生成模型的训练方法的流程示意图。
图6为根据本发明一些实施例的端到端文本生成方法的流程示意图。
图7为根据本发明一些实施例的文本生成装置的结构示意图。
图8为根据本发明另一些实施例的文本生成装置的结构示意图。
图9为根据本发明又一些实施例的文本生成装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
发明人经过分析后发现,在相关技术的文本生成框架中,源语言的规划方式有多种。例如,可以通过概率统计的方法,根据语言模型统计出与用户定义的主题词的关联性最高的首句文字;又例如,可以基于语义相似度模型或者共享知识图谱扩展出与用户定义的主题词相似的关键词序列,并通过对关键词序列的规划与限定,扩展出相对应的文本。然后,在确定源语言的基础上,再进一步地对首句文字或者相关的关键词序列进行学习,从而生成多句文字。
然而,将生成的首个语句作为源语言以生成后文的方式,既无法保证首个语句对全文的影响力,也无法保证生成的文本与主题词的关联性。而且如果第一句话的生成与用户定义的主题词有偏差,那么这种偏差也会随着后面几句文本的生成而更加明显。
而基于主题词进行关键词序列的扩展的方式,对关键词的生成具有较高的质量要求。因为只有合理、高质量的关键词才能保证其扩展出的目标文本具有较强的可读性。相关技术所采用的方式会产生堆积相似词语的后果,例如,从“冬天”扩展到“冷”、“雪花”等,从而不能保证扩展的关键词的语义丰富度。
发明人认识到,相关技术将源语言的规划过程和文本的生成过程分别进行,二者的相关性较小,从而无法保证生成的文本的质量和连贯性。因此,发明人经过进一步研究,提出了将源语言规划和文本生成过程同时进行的方式,以提高生成的文本的质量。下面参考图1描述本发明文本生成方法的实施例。
图1为根据本发明一些实施例的文本生成方法的流程示意图。如图1所示,该实施例的文本生成方法包括步骤S102~S112。
在步骤S102中,将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列。例如,可以直接将编码器的输出结果作为隐藏状态序列。
参考序列为用于生成文本的信息所对应的序列。用于生成文本的信息例如可以包括关键词、前文文本等文本类信息,也可以是音频、图像等其他类型的信息。在一些实施例中,可以通过预设的映射关系将用于生成文本的信息映射为多维向量,由这些向量构成参考序列。
例如,用于生成文本的信息包括“举头望明月故乡”,其中,“举头望明月”为前文文本,“故乡”为待生成的当前文本的关键词。则参考序列可以为{V,V,V,V明月,V故乡},其中,V、V、V、V明月、V故乡分别为“举”、“头”、“望”、“明月”、“故乡”所对应的词向量。
文本生成模型包括编码器和解码器。编码器用于将输入的向量转换为隐藏状态,解码器用于基于编码器的输出来确定生成的文本中各个位置对应的词语概率分布。编码器的编码过程例如可以如公式(1)所示。
hm=Encoder(hm-1,[xm]) (1)
其中,m表示参考序列中的各个元素所在的位置的标识;hm表示位置m所对应的隐藏状态;Encoder(·)表示编码器;xm表示参考序列中的第m个元素所对应的向量。当m=1时,可以令编码器的输入为0,以确定参考序列的首个位置所对应的隐藏状态h1
在一些实施例中,文本生成模型的编码器和解码器为循环神经网络或者卷积神经网络(Convolutional Neural Networks,简称:CNN)。循环神经网络例如可以包括长短记忆网络(Long Short-Term Memory,简称:LSTM)、门控循环单元(Gated Recurrent Unit,简称:GRU)等等。
在步骤S104中,将隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布。
解码器在解码过程中也会产生隐藏状态。设编码器所产生的隐藏状态为第一隐藏状态,解码器所产生的隐藏状态为第二隐藏状态。则在一些实施例中,可以将基于多个第一隐藏状态生成的、待生成的当前文本中的每个位置所对应的上下文向量输入到解码器中,获得待生成的当前文本中的每个位置所对应的第二隐藏状态;然后根据每个第二隐藏状态以及预设的权重向量矩阵,确定待生成文本中的每个位置所对应的词语概率分布。
在一些实施例中,可以采用公式(2)确定解码器所产生的第二隐藏状态。
sn=Decoder(sn-1,[cn;e(yn-1)]) (2)
在公式(2)中,n表示待生成的当前文本中的各个词所在的位置;sn表示待生成的当前文本中的第n个位置所对应的第二隐藏状态;Decoder(·)表示解码器;cn表示待生成文本中的第n个位置所对应的上下文向量;yn-1表示待生成的当前文本中的第n-1个位置上所对应的词语概率分布;e(yn-1)表示基于yn-1确定的相应词语的词向量;[·]表示将中括号中的多个项进行合并后的结果。当n=1时,可以令解码器输入为0,以确定输入信息的首个位置所对应的第二隐藏状态s1
此外,可以采用公式(3)~(5)计算上下文向量cn
αmn=f(sn-1,hm) (3)
α′mn=softmax(αmn) (4)
在公式(3)中,m表示参考序列中的各个元素所在的位置;n表示待生成的当前文本中的各个词所在的位置;αmn和α′mn为中间变量,用于反映输入的内容中各个位置所对应的得分信息;f(·)为预设的激活函数,用于表示函数中的两个项的匹配程度,本领域技术人员可以根据需要来进行设置;sn-1表示待生成的当前文本中的第n-1个位置所对应的第二隐藏状态;hm表示参考序列中第m个位置所对应的第一隐藏状态;cn表示待生成的当前文本中的第n个位置所对应的上下文向量,其作用是基于注意力机制将输出与输入进行关联;M表示表示参考序列中的元素总数。
在确定了解码器产生的第二隐藏状态后,可以计算位置n所对应的词语概率分布yn。yn中包括了词库中每个词所对应的概率。yn的计算方式例如可以参考公式(6)。
yn=P(yn|y1,y2,y3,...,yn-1,cn)=softmax(Wsn) (6)
在公式(6)中,P(yn|y1,y2,y3,...,yn-1,cn)表示在待生成的当前文本中的前n-1个位置分别对应词语概率分布y1、y2、y3、...、yn-1并且上下文向量为cn的情况下,第n个位置的词语概率分布为yn的概率;W表示预设的权重向量;sn表示待生成的当前文本中的第n个位置所对应的第二隐藏状态。
在步骤S106中,基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本。例如,可以将概率分布中最大概率值所对应的词语确定为相应位置上的词语。在确定了每个位置上的词语后,则可以获得生成的文本。
在步骤S108中,根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词。例如,可以根据隐藏状态序列和预设的关键词矩阵的乘积确定对关键词的解析结果。
在步骤S110中,采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本。
由于隐藏状态序列能够反映参考序列的信息以及生成的当前文本的信息,因此通过根据隐藏状态序列来生成用于生成下一个文本的关键词,能够使得根据生成的下一个文本的关键词与当前文本的信息更连贯。
在步骤S112中,将更新后的参考序列输入到文本生成模型中,以重复执行步骤S102~S112的过程。本发明实施例的方法可以根据需要循环进行一次或多次,从而可以生成由多个连续的文本构成的一段文本。
通过上述实施例的方法,能够通过编码器的隐藏状态序列并行地预测当前的文本和下一个文本的关键词,并且在生成下一个文本时利用这些信息进行预测。这种将源语言的规划和文本的生成过程同时进行的方式,能够使得生成的多个连续文本具有连贯的信息。从而,提高了自动生成的文本的可读性,提高了文本生成的效率。
本发明的实施例可以应用于多种场景。例如,自动生成网络中的产品的描述文本、自动生成对来自网络用户的问题的应答文本等等。例如,用户输入“礼服”以生成一段描述礼服的文本。文本生成模型首先生成文本“这款时髦简约的礼物裁自白色绉纱”,并预测出下一个文本的关键词为“荷叶边”;然后,根据“荷叶边”和前一个文本“这款时髦简约的礼物裁自白色绉纱”,生成文本“衣袖上优雅垂坠的荷叶边饰更是品牌的标志性特色”,并预测出下一个文本的关键词为“亲肤”;根据“亲肤”和前一个文本“衣袖上优雅垂坠的荷叶边饰更是品牌的标志性特色”,生成文本“全衬里设计令穿着更为顺滑”,并预测出下一个文本的关键词为“宴会”;以及,根据“宴会”和前一个文本“全衬里设计令穿着更为顺滑”,生成文本“正面的开衩让你以轻松翩然的姿态演绎婚礼派对上的第一支舞”。从而,根据用户一次性输入的信息,即可以预测出语义丰富的一个文本段落。
由于本发明的实施例生成的文本具备更好的可读性,用户可以快速地理解自动生成的文本所表达的内容,降低了用户由于不清楚文本内容而与文本的提供方进行反复沟通、确认的次数,节约了网络资源。
在生成诗歌等特定体裁的文本时,需要满足语言的平仄变化规则、押韵等问题。本发明的一些实施例可以借助Bi-LSTM等双向循环神经网络生成隐藏状态序列,更好地适应此类场景。下面参考图2描述本发明隐藏状态序列确定方法的实施例。
图2为根据本发明一些实施例的隐藏状态确定方法的流程示意图。如图2所示,该实施例的隐藏状态确定方法包括步骤S202~S210。
在步骤S202中,获取用于生成当前文本的输入文本。
在步骤S204中,将输入文本进行反向处理,以生成反向输入文本。
例如,输入文本为“好雨知时节”,则反向输入文本为“节时知雨好”。
在步骤S206中,生成输入文本对应的正向序列、以及反向输入文本对应的反向序列,作为用于生成当前文本的参考序列。
在步骤S208中,将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得正向隐藏状态序列和反向隐藏状态序列。
在步骤S210中,将正向隐藏状态序列和反向隐藏状态序列中位于相同位置的隐藏状态进行拼接,获得隐藏状态序列。
例如,设参考序列为{w1,w2,...,wn-1,wn},基于参考序列获得的正向隐藏状态序列为{h1,h2,...,hn-1,hn},反向序列为{wn,wn-1,...,w2,w1},基于反向序列获得的反向隐藏状态序列为{h′1,h′2,...,h′n-1,h′n}。则隐藏状态序列片={H1,H2,...,Hn-1,Hn}={[h1;h′1],[h2;h′2],...,[hn-1;h′n-1],[hn;h′n]}。“[]”表示将中括号内的向量进行拼接,例如,设h1=[a1,a2,...,am],h′1=[a′1,a′2,...,a′m],则[h1;h′1]=[a1,a2,...,am,a′1,a′2,...,a′m]。在上述示例中,m和n为正整数。
正向隐藏状态序列还原了原始的输入文本的信息,而反向隐藏状态序列是通过从原始输入文本的最后一个词开始处理而得到的。通过上述实施例的方法,隐藏状态序列可以在不破坏输入文本的上下文关系的基础上,反映文本的原始信息和韵律信息,使得生成的文本可读性更好。
下面参考图3示例性地描述一种生成关键词的方法。
图3为根据本发明一些实施例的关键词生成方法的流程示意图。如图3所示,该实施例的关键词生成方法包括步骤S302~S304。
在步骤S302中,将隐藏状态序列中的最后一个隐藏状态和预先获取的关键词矩阵的乘积与预设的偏置向量之和输入到激活函数中,获得词库中每个词对应的概率值,其中,关键词矩阵包括词库中每个词对应的预设的向量。
在一些实施例中,可以根据公式(7)的计算结果确定关键词。
P=softmax(W*hn+b) (7)
其中,P表示关键词的概率分布,概率分布中包括了词库中每个词对应的概率值;softmax表示冲激函数;W表示关键词矩阵;hn表示隐藏状态序列中的最后一个隐藏状态;b表示预设的偏置参数。W和b的值可以根据预先训练的结果确定。
在步骤S304中,将概率值最大的预设数量个词确定为用于生成下一个文本的关键词。例如,可以将概率值最大的一个词确定为用于生成下一个文本的关键词。
隐藏状态序列中的每一个状态是根据前一个状态确定的。隐藏状态序列中的最后一个隐藏状态能够不仅能够反映输入序列中最后一个元素及其之前的元素的信息。因此,通过根据最后一个隐藏状态生成关键词,可以使得生成的关键词能够涵盖前文文本的信息,进而使得生成的下一个文本具备更好的可读性。
为了提升生成的文本的多样性,本发明可以采用集束搜索(Beam_Search)的方式生成文本。在一些实施例中,在确定当前文本的第一个位置所对应的词语时,可以根据第一个位置所对应的词语概率分布,将概率值最高的预设数量个词语中的每一个确定为一个候选序列。此后,确定当前文本的第二个及之后位置的词语时,可以采用以下方法。下面参考图4描述本发明根据词语概率分布生成文本的方法的实施例。
图4为根据本发明一些实施例的根据词语概率分布生成文本的方法的流程示意图。如图4所示,该实施例的根据词语概率分布生成文本的方法包括步骤S402~S414。
在步骤S402中,将i的值初始化为2,其中,i为生成的当前文本中词语所在的位置的标识。
在步骤S404中,获取待生成的当前文本的第i个位置对应的、预设数量个不同的候选序列,其中,每个候选序列中包括待生成的当前文本的前i-1个位置中每个位置所对应的词语,每个词语具有在相应的位置上出现的概率值,其中,i为大于1的整数。
在步骤S406中,根据待生成的当前文本的第i个位置对应的词语概率分布,确定词库中的词语在第i个位置出现的概率值。
在步骤S408中,将词库中的词语与第i个位置对应的所有候选序列进行组合,并根据每种组合中的词语的概率值,确定每个组合的备选值。
在一些实施例中,可以将组合中的每个词对应的概率值的对数值的总和与组合中词的数量的比值,确定为组合的备选值。备选值的一个示例性的确定方法可以参考公式(8)。
在公式(8)中,OVi表示第i个位置所对应的组合的备选值,其中,i为大于1的整数;pn表示组合中第n个词语的概率值。通过这种标准化处理,组合或备选序列的备选值不会受到词的数量的影响。从而,可以根据语句本身的语义而非语句长短的限制来生成文本。根据需要,本领域技术人员还可以选择其他的确定备选值的方法,这里不再赘述。
在步骤S410中,采用备选值最大的预设数量个组合更新候选序列,获得待生成的当前文本的第i+1个位置对应的、预设数量个不同的候选序列。
例如,在确定待生成的当前文本的第3个位置对应的词语时,候选序列例如可以包括:{春天,带走}、{春风,拂过}。将词库中的词语与第i个位置对应的所有候选序列进行组合后,发现{春天,带走,冬天}的备选值以及{春风,拂过,柳树}的备选值要高于其他的组合,则可以将候选序列更新为{春天,带走,冬天}、{春风,拂过,柳树}。
在步骤S412中,将i的值加1,并回到步骤S404,直到达到结束条件。结束条件例如可以为生成的词语为结束符时,结束当前文本的生成过程。
在步骤S414中,采用待生成的当前文本的最后一个位置对应的、备选值最大的候选序列生成当前文本。
通过上述实施例的方法,可以根据多个候选序列依次生成当前文本的每个词语,并不断更新候选序列,使得文本的生成结果具有多样性,提高了生成的文本的可读性。
本发明可以预先训练文本生成模型。下面参考图5描述本发明文本生成模型的训练方法的实施例。
图5为根据本发明一些实施例的文本生成模型的训练方法的流程示意图。如图5所示,该实施例的训练方法包括步骤S502~S512。
在步骤S502中,获取训练文本,其中,训练文本中的关键词被预先进行标记。
例如,可以预先获取包括多个训练文本的训练集。训练集中可以包括一个或多个段落,每个段落中可以包括一个或多个文本。从而,属于一个段落的多个文本具有上下文的关系。
在一些实施例中,可以采用以下方法确定训练文本的关键词:首先,对训练文本进行分词处理;然后,根据基于得分、词性、长度中的任意一个或多个的条件筛选关键词,其中,得分的确定方法可以通过词频-逆文档频率指数(Term Frequency-Inverse DocumentFrequency,简称:TF-IDF)或者文本排序算法(TextRank)等方法。
在步骤S504中,将用于训练的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的、训练文本的隐藏状态序列。
在步骤S506中,将训练文本的隐藏状态序列输入到文本生成模型的解码器中,获得训练文本中的每个位置所对应的词语概率分布。
在步骤S508中,基于训练文本中的每个位置所对应的词语概率分布生成预测文本。
在步骤S510中,根据训练文本的隐藏状态序列和关键词矩阵,确定下一个文本对应的预测关键词。
在步骤S512中,根据预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距,对文本生成模型和关键词矩阵的参数进行调整,直到预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距小于预设值。
通过上述训练过程,可以基于训练文本的已有的上下文关系以及关键词标记结果,对文本生成模型和关键词矩阵的参数进行训练,从而提高了生成的文本的可读性。
本发明的一些实施例可以为用户提供端到端的文本生成方式。用户可以根据需要输入多种格式的用于生成文本的信息,也可以输入任意数量的关键词。下面参考图6和图7描述本发明文本生成方法的实施例。
图6为根据本发明一些实施例的端到端文本生成方法的流程示意图。如图6所示,该实施例的端到端文本生成方法包括步骤S602~S606。
在步骤S602中,获取用户输入的文本、音频、图像中的至少一种,作为用户输入信息。
在一些实施例中,如果用户输入信息为文本,在用户输入信息中的词语数量大于预设值的情况下,将用户输入信息截取为预设的长度;在用户输入信息中的词语数量小于预设值的情况下,将用户输入信息填充为预设的长度。从而,用户可以根据需要输入任意长度的文本,提高了用户体验。并且,针对不同长度的文本,本发明的实施例可以处理为相同长度的用户输入信息,从而适用性更广。
在步骤S602中,将用户输入信息映射为包括一个或多个向量的序列,作为用于生成首个文本的参考序列。
在一些实施例中,对于每种类型的用户输入信息,可以采用相应的映射模型或者映射矩阵将其转换为参考序列。映射模型、映射矩阵的参数可以通过预先训练获得。
在步骤S606中,采用文本生成模型,根据参考序列生成下一个文本和用于生成下一个文本的关键词。
通过上述实施例的方法,用户可以根据需要选择输入信息的类型,从而可以适用于多种应用场景。
下面参考图7描述本发明文本生成装置的实施例。
图7为根据本发明一些实施例的文本生成装置的结构示意图。如图7所示,该实施例的文本生成装置70包括:隐藏状态序列确定模块710,被配置为将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;词语概率分布确定模块720,被配置为将隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;文本生成模块730,被配置为基于待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;关键词确定模块740,被配置为根据隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;参考信息更新模块750,被配置为采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;输入模块760,被配置为将更新后的参考序列输入到隐藏状态序列确定模块。
在一些实施例中,文本生成装置70还包括:反向处理模块770,被配置为获取用于生成当前文本的输入文本;将输入文本进行反向处理,以生成反向输入文本;以及,生成输入文本对应的正向序列、以及反向输入文本对应的反向序列,作为用于生成当前文本的参考序列。
在一些实施例中,隐藏状态序列确定模块710进一步被配置为将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得正向隐藏状态序列和反向隐藏状态序列;以及,将正向隐藏状态序列和反向隐藏状态序列中位于相同位置的隐藏状态进行拼接,获得隐藏状态序列。
在一些实施例中,关键词确定模块740进一步被配置为将隐藏状态序列中的最后一个隐藏状态和预先获取的关键词矩阵的乘积与预设的偏置向量之和输入到激活函数中,获得词库中每个词对应的概率值,其中,关键词矩阵包括词库中每个词对应的预设的向量;将概率值最大的预设数量个词确定为用于生成下一个文本的关键词。
在一些实施例中,文本生成模块730进一步被配置为获取待生成的当前文本的第i个位置对应的、预设数量个不同的候选序列,其中,每个候选序列中包括待生成的当前文本的前i-1个位置中每个位置所对应的词语,每个词语具有在相应的位置上出现的概率值,其中,i为大于1的整数;根据待生成的当前文本的第i个位置对应的词语概率分布,确定词库中的词语在第i个位置出现的概率值;将词库中的词语与第i个位置对应的所有候选序列进行组合,并根据每种组合中的词语的概率值,确定每个组合的备选值;采用备选值最大的预设数量个组合更新候选序列,获得待生成的当前文本的第i+1个位置对应的、预设数量个不同的候选序列,以便采用待生成的当前文本的最后一个位置对应的、备选值最大的候选序列生成当前文本。
在一些实施例中,文本生成模块730进一步被配置为将组合中的每个词对应的概率值的对数值的总和与组合中词的数量的比值,确定为组合的备选值。
在一些实施例中,文本生成装置70还包括:用户输入模块780,被配置为获取用户输入的文本、音频、图像中的至少一种,作为用户输入信息;将用户输入信息映射为包括一个或多个向量的序列,作为用于生成首个文本的参考序列。
在一些实施例中,用户输入模块780进一步被配置为在用户输入信息为文本的情况下,在将用户输入信息映射为包括多个向量的序列之前,文本生成方法还包括:在用户输入信息中的词语数量大于预设值的情况下,将用户输入信息截取为预设的长度;在用户输入信息中的词语数量小于预设值的情况下,将用户输入信息填充为预设的长度。
在一些实施例中,文本生成模型的编码器和解码器为循环神经网络或者卷积神经网络。
在一些实施例中,文本生成装置70还包括:训练模块790,被配置为获取训练文本,其中,训练文本中的关键词被预先进行标记;将用于训练的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的、训练文本的隐藏状态序列;将训练文本的隐藏状态序列输入到文本生成模型的解码器中,获得训练文本中的每个位置所对应的词语概率分布;基于训练文本中的每个位置所对应的词语概率分布生成预测文本;根据训练文本的隐藏状态序列和关键词矩阵,确定下一个文本对应的预测关键词;根据预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距,对文本生成模型和关键词矩阵的参数进行调整,直到预测文本与训练文本的差距、以及预测关键词与训练文本的下一个文本的关键词的差距小于预设值。
图8为根据本发明另一些实施例的文本生成装置的结构示意图。如图8所示,该实施例的文本生成装置80包括:存储器810以及耦接至该存储器810的处理器820,处理器820被配置为基于存储在存储器810中的指令,执行前述任意一个实施例中的文本生成方法。
其中,存储器810例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)以及其他程序等。
图9为根据本发明又一些实施例的文本生成装置的结构示意图。如图9所示,该实施例的文本生成装置90包括:存储器910以及处理器920,还可以包括输入输出接口930、网络接口940、存储接口950等。这些接口930,940,950以及存储器910和处理器920之间例如可以通过总线960连接。其中,输入输出接口930为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口940为各种联网设备提供连接接口。存储接口950为SD卡、U盘等外置存储设备提供连接接口。
本发明的实施例还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现前述任意一种文本生成方法。
本领域内的技术人员应当明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种文本生成方法,包括:
将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;
将所述隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;
基于所述待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;
根据所述隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;
采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;
将更新后的参考序列输入到文本生成模型中。
2.根据权利要求1所述的文本生成方法,
还包括:
获取用于生成当前文本的输入文本;
将所述输入文本进行反向处理,以生成反向输入文本;以及,
生成输入文本对应的正向序列、以及反向输入文本对应的反向序列,作为用于生成当前文本的参考序列;
所述将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出确定的隐藏状态序列包括:
将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得正向隐藏状态序列和反向隐藏状态序列;以及,
将正向隐藏状态序列和反向隐藏状态序列中位于相同位置的隐藏状态进行拼接,获得隐藏状态序列。
3.根据权利要求1或2所述的文本生成方法,其中,所述根据所述隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词包括:
将隐藏状态序列中的最后一个隐藏状态和预先获取的关键词矩阵的乘积与预设的偏置向量之和输入到激活函数中,获得词库中每个词对应的概率值,其中,关键词矩阵包括词库中每个词对应的预设的向量;
将概率值最大的预设数量个词确定为用于生成下一个文本的关键词。
4.根据权利要求1所述的文本生成方法,其中,所述基于所述待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本包括:
获取待生成的当前文本的第i个位置对应的、预设数量个不同的候选序列,其中,每个候选序列中包括待生成的当前文本的前i-1个位置中每个位置所对应的词语,每个词语具有在相应的位置上出现的概率值,其中,i为大于1的整数;
根据待生成的当前文本的第i个位置对应的词语概率分布,确定词库中的词语在第i个位置出现的概率值;
将词库中的词语与第i个位置对应的所有候选序列进行组合,并根据每种组合中的词语的概率值,确定每个组合的备选值;
采用备选值最大的预设数量个组合更新候选序列,获得待生成的当前文本的第i+1个位置对应的、预设数量个不同的候选序列,以便采用待生成的当前文本的最后一个位置对应的、备选值最大的候选序列生成当前文本。
5.根据权利要求4所述的文本生成方法,所述根据每种组合中的词语的概率值,确定每个组合的备选值包括:
将组合中的每个词对应的概率值的对数值的总和与所述组合中词的数量的比值,确定为所述组合的备选值。
6.根据权利要求1所述的文本生成方法,还包括:
获取用户输入的文本、音频、图像中的至少一种,作为用户输入信息;
将用户输入信息映射为包括一个或多个向量的序列,作为用于生成首个文本的参考序列。
7.根据权利要求6所述的文本生成方法,其中,在用户输入信息为文本的情况下,在所述将用户输入信息映射为包括多个向量的序列之前,所述文本生成方法还包括:
在用户输入信息中的词语数量大于预设值的情况下,将用户输入信息截取为预设的长度;
在用户输入信息中的词语数量小于预设值的情况下,将用户输入信息填充为预设的长度。
8.根据权利要求1所述的文本生成方法,其中,所述文本生成模型的编码器和解码器为循环神经网络或者卷积神经网络。
9.根据权利要求1所述的文本生成方法,还包括:
获取训练文本,其中,所述训练文本中的关键词被预先进行标记;
将用于训练的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的、训练文本的隐藏状态序列;
将所述训练文本的隐藏状态序列输入到文本生成模型的解码器中,获得训练文本中的每个位置所对应的词语概率分布;
基于所述训练文本中的每个位置所对应的词语概率分布生成预测文本;
根据所述训练文本的隐藏状态序列和关键词矩阵,确定下一个文本对应的预测关键词;
根据预测文本与训练文本的差距、以及预测关键词与所述训练文本的下一个文本的关键词的差距,对文本生成模型和关键词矩阵的参数进行调整,直到预测文本与训练文本的差距、以及预测关键词与所述训练文本的下一个文本的关键词的差距小于预设值。
10.一种文本生成装置,包括:
隐藏状态序列确定模块,被配置为将用于生成当前文本的参考序列输入到文本生成模型的编码器中,获得基于编码器的输出而确定的隐藏状态序列;
词语概率分布确定模块,被配置为将所述隐藏状态序列输入到文本生成模型的解码器中,获得待生成的当前文本中的每个位置所对应的词语概率分布;
文本生成模块,被配置为基于所述待生成的当前文本中的每个位置所对应的词语概率分布生成当前文本;
关键词确定模块,被配置为根据所述隐藏状态序列和预设的关键词矩阵,确定用于生成下一个文本的关键词;
参考信息更新模块,被配置为采用用于生成下一个文本的关键词和生成的当前文本更新参考序列,其中,更新后的参考序列用于生成下一个文本;
输入模块,被配置为将更新后的参考序列输入到隐藏状态序列确定模块。
11.一种文本生成装置,包括:
存储器;以及
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1~9中任一项所述的文本生成方法。
12.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1~9中任一项所述的文本生成方法。
CN201910231478.8A 2019-03-26 2019-03-26 文本生成方法、装置和计算机可读存储介质 Active CN111767694B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910231478.8A CN111767694B (zh) 2019-03-26 2019-03-26 文本生成方法、装置和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910231478.8A CN111767694B (zh) 2019-03-26 2019-03-26 文本生成方法、装置和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111767694A CN111767694A (zh) 2020-10-13
CN111767694B true CN111767694B (zh) 2024-04-16

Family

ID=72717950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910231478.8A Active CN111767694B (zh) 2019-03-26 2019-03-26 文本生成方法、装置和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111767694B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115552843A (zh) * 2020-05-11 2022-12-30 贝宝公司 使用机器学习技术确定地理坐标
CN113408780B (zh) * 2021-04-29 2023-06-16 西安交通大学 汽车未来保值率预测方法、系统、设备及可读存储介质
CN113642296A (zh) * 2021-08-27 2021-11-12 杭州网易智企科技有限公司 文本生成方法、介质、装置和电子设备
CN114173188B (zh) * 2021-10-18 2023-06-02 深圳追一科技有限公司 视频生成方法、电子设备、存储介质和数字人服务器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN106776540A (zh) * 2016-11-23 2017-05-31 清华大学 一种自由化文本生成方法
CN108427771A (zh) * 2018-04-09 2018-08-21 腾讯科技(深圳)有限公司 摘要文本生成方法、装置和计算机设备
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN109508462A (zh) * 2018-10-25 2019-03-22 内蒙古工业大学 一种基于编码器-解码器的神经网络蒙汉机器翻译方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858524B2 (en) * 2014-11-14 2018-01-02 Google Inc. Generating natural language descriptions of images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776540A (zh) * 2016-11-23 2017-05-31 清华大学 一种自由化文本生成方法
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN108427771A (zh) * 2018-04-09 2018-08-21 腾讯科技(深圳)有限公司 摘要文本生成方法、装置和计算机设备
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN109508462A (zh) * 2018-10-25 2019-03-22 内蒙古工业大学 一种基于编码器-解码器的神经网络蒙汉机器翻译方法

Also Published As

Publication number Publication date
CN111767694A (zh) 2020-10-13

Similar Documents

Publication Publication Date Title
KR102577514B1 (ko) 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체
US11501182B2 (en) Method and apparatus for generating model
US11423233B2 (en) On-device projection neural networks for natural language understanding
CN111767694B (zh) 文本生成方法、装置和计算机可读存储介质
CN108415977B (zh) 一个基于深度神经网络及强化学习的生成式机器阅读理解方法
US11729120B2 (en) Generating responses in automated chatting
JP2022153441A (ja) モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN110717017A (zh) 一种处理语料的方法
CN110929030A (zh) 一种文本摘要和情感分类联合训练方法
US11995409B2 (en) Content generation using target content derived modeling and unsupervised language modeling
KR20210081309A (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
US20200279079A1 (en) Predicting probability of occurrence of a string using sequence of vectors
CN111666376B (zh) 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置
KR20200087977A (ko) 멀티모달 문서 요약 시스템 및 방법
CN111967267B (zh) 一种基于XLNet的新闻文本地域提取的方法及系统
CN112528654A (zh) 自然语言处理方法、装置及电子设备
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
CN114444515A (zh) 一种基于实体语义融合的关系抽取方法
WO2021159803A1 (zh) 文本摘要生成方法、装置、计算机设备及可读存储介质
CN117290515A (zh) 文本标注模型的训练方法、文生图方法及装置
CN109117471A (zh) 一种词语相关度的计算方法及终端
CN116932736A (zh) 一种基于用户需求结合倒排表的专利推荐方法
CN116757195A (zh) 一种基于提示学习的隐性情感识别方法
CN116821324A (zh) 模型训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant