CN108874789B - 语句的生成方法、装置、存储介质和电子装置 - Google Patents

语句的生成方法、装置、存储介质和电子装置 Download PDF

Info

Publication number
CN108874789B
CN108874789B CN201810654922.2A CN201810654922A CN108874789B CN 108874789 B CN108874789 B CN 108874789B CN 201810654922 A CN201810654922 A CN 201810654922A CN 108874789 B CN108874789 B CN 108874789B
Authority
CN
China
Prior art keywords
sentence
text
word
similar
meaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810654922.2A
Other languages
English (en)
Other versions
CN108874789A (zh
Inventor
张海松
宋彦
史树明
黎婷
洪成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810654922.2A priority Critical patent/CN108874789B/zh
Priority to CN202010209182.9A priority patent/CN111444725B/zh
Publication of CN108874789A publication Critical patent/CN108874789A/zh
Application granted granted Critical
Publication of CN108874789B publication Critical patent/CN108874789B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种语句的生成方法、装置、存储介质和电子装置。其中,该方法包括:获取目标文本;从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。本发明解决了无法自动生成对联的技术问题。

Description

语句的生成方法、装置、存储介质和电子装置
技术领域
本发明涉及数据处理领域,具体而言,涉及一种语句的生成方法、装置、存储介质和电子装置。
背景技术
现有的比较主流的对联产品主要就是指某公司开发的电脑对联,简称为“电脑对联”。从产品角度来看,电脑对联采用的产品方式比较简单,需要用户手动输入上联,然后点击“对下联”按钮,那么系统就会对应的生成多个候选下联,用户从多个候选下联中选择一个,选好之后接着点击“题横批”按钮,然后用户需要根据给出的横批里面选一个,这样完整的一副带有横批的对联就算完成了。
从技术角度来看,电脑对联的下联生成任务可以理解为一个统计机器翻译(SMT)的过程。其采用了一个基于短语的统计机器翻译方法来产生第二句。首先,该系统需要用户输入第一句话,之后系统会基于短语的SMT解码器,给出生成结果,输出了N个最好的第二个句子的候选集合。然后,使用一组过滤器来消除那些违反语言限制的候选。最后,使用一个排序支持向量机来排序余下的候选集合。
但是,目前这种生成对联的方式需要用户多次参与,无法实现自动生成对联。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种语句的生成方法、装置、存储介质和电子装置,以至少解决无法自动生成对联的技术问题。
根据本发明实施例的一个方面,提供了一种语句的生成方法,包括:获取目标文本;从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
根据本发明实施例的另一方面,还提供了一种语句的生成装置,包括:获取单元,用于获取目标文本;选择单元,用于从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;第一生成单元,用于根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;第二生成单元,用于根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
根据本发明实施例的一方面,提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述的方法。
根据本发明实施例的一方面,提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行上述的方法。
本实施例从目标文本中选择第一文本和第二文本,根据第一文本生成第一语句,根据第一语句和第二文本生成第二语句,使得生成的第一语句和第二语句字数相同且结构对称,在生成第一语句和第二语句的过程中,无需用户干预,解决无法自动生成对联的技术问题,达到了自动生成对联的技术效果。并且,现有技术生成对联需要用户输入上联才能得到下联,本申请只要输入用户想要的词汇就能自动生成上下联,丰富了对联的多样性。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的硬件环境的示意图;
图2是根据本发明实施例的语句的生成方法的流程图;
图3是根据本发明实施例的生成对联的首页的示意图;
图4是根据本发明实施例的生成对联的动画的示意图;
图5是根据本发明实施例的生成对联的样例的示意图;
图6是根据本发明实施例的生成对联的输入关键词的示意图;
图7是根据本发明实施例的显示生成的对联的示意图;
图8是根据本发明实施例的分享对联的界面的示意图;
图9是根据本发明实施例的根据字生成语句的示意图;
图10是根据本发明实施例的生成模型的示意图;
图11是根据本发明实施例的生成对联逻辑的流程图;
图12是根据本发明实施例的服务器架构的示意图;
图13是根据本发明实施例的服务器流程图;
图14是根据本发明实施例的语句的生成装置的示意图;
图15是根据本发明实施例的电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
术语定义:
对联:中国的传统文化之一,又称春联、对子、门对、楹联等,是写在纸、布上或刻在竹子、木头、柱子上的对偶语句。言简意深,对仗工整,平仄协调,字数相同,结构相同,是中文语言的独特的艺术形式。
藏头对联:对联的一种特殊表现形式,用户输入的两个关键字分别藏在上下联的开头位置,上下联的第一个字连起来读,可以传达作者的某种特有的思想,形成个性化的藏头对联。其形式又可分为一般藏头对联、祝福藏头对联、姓名藏头对联等。
智能藏头对联:借助AI学习人类进行对联写作的技巧,从而自动创作出来的藏头对联。又可称为人工智能(AI)藏头对联、智能藏头春联、AI藏头春联等,本文统一使用“智能藏头对联”。
根据本发明实施例的一个方面,提供了一种语句的生成方法。在本实施例中,上述语句的生成方法可以应用于如图1所示的终端101、终端102和服务器103所构成的硬件环境中。如图1所示,终端101、终端102通过网络与服务器103进行连接,上述网络包括但不限于:广域网、城域网或局域网,终端101可以是手机终端,终端102可以是PC终端、笔记本终端或平板电脑终端。服务器103可以根据终端的指令生成语句,并返回给终端。
图2是根据本发明实施例的语句的生成方法的流程图。如图2所示,该语句的生成方法包括:
S202,获取目标文本。目标文本可以是用户输入的汉字或者英文字符,用户输入的汉字或者英文字符的数量不限,一般情况下可以输入2到4个汉字或者英文字符。目标文本可以是纯汉字、纯英文或者汉字和英文的组合。目标文本可以是一个词语或者多个词语的组合,一个词语可以是一个字或者多个字。例如,“赞”为一个字的词语,“漂亮”和“非常好”是多个字的词语。
S204,从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字。
在目标文本为两个字的词语时,第一文本和第二文本分别为一个字。在目标文本在3个字以上时,第一文本和第二文本可以分别是目标文本中的任意的两个字或者多个字。第一文本和第二文本中的字数可以相同或者不同。例如,目标文本为“四海八方”,第一文本和第二文本可以分别是“八”和“方”,也可以分别是“四海”和“八方”。在目标文本为“非常好”时,第一文本和第二文本可以分别为“非常”和“好”。此处对第一文本和第二文本的个数不做限定,一般情况下第一文本和第二文本的字数相同。
在目标文本为英文词语“good day”时,第一文本和第二文本可以分别是“good”和“day”,生成的第一语句和第二语句分别为“good good study”和“day day up”。
S206,根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本。
可选地,根据所述第一文本生成第一语句包括:设置所述第一文本在所述第一语句中的位置;将所述第一文本输入到神经网络语言模型中,其中,所述神经网络语言模型根据对联样本和/或诗词样本训练得到;获取所述神经网络语言模型输出的所述第一语句,其中,所述第一文本位于所述第一语句中所述位置上。
预先对系统进行设置,已确定第一文本在第一语句中的位置。设置所述第一文本在所述第一语句中的位置包括:设置所述第一文本在所述第一语句的位置为以下任意一个位置:所述第一语句的起始文本所在的位置、中间文本所在的位置和结束文本所在的位置,其中,所述起始文本为所述第一语句的第一个词,所述结束文本为所述第一语句的最后一个词,所述中间文本为位于所述起始文本和所述结束文本之间的词。
第一文本在第一语句中的位置可以为起始文本所在的位置、中间文本所在的位置和结束文本所在的位置。第二文本的位置与第一文本的位置是相同的,在确定了第一文本在第一语句中的位置后,就确定了第二文本在第二语句中的位置。即,第一文本是第一语句的起始文本时,第二文本是第二语句的起始文本;第一文本是第一语句的中间文本时,第二文本是第二语句的中间文本;第一文本是第一语句的结束文本时,第二文本是第二语句的结束文本。并且,在第一文本和第二文本都是中间文本时,第二文本在第二语句中的位置与第一文本在第一语句中的位置相同。比如,第一文本在第一语句中第4个字的位置,第二文本在第二语句中第4个字的位置。需要说明的是,第一文本在第一语句中的位置与第二文本在第二语句中的位置还可以是不同的位置,比如,第一文本在第一语句的句首,第二文本在第二语句的句尾,或者,第一文本为第一语句中第2个字,第二文本为第二语句中第3个字,本实施例并不限定第一文本和第二文本的位置。
在确定了第一文本的位置之后,将所述第一文本输入到神经网络语言模型中,神经网络语言模型输出第一语句。生成的第一语句中,第一文本位于预先设置好的位置上。神经网络语言模型是根据对联样本和/或诗词样本训练得到的。
本实施例在训练神经网络语言模型时,在互联网全网的对联数据爬虫工作,收集语料。但是,收集的语料往往会有标点、特殊符号等杂质,且格式也不一致,需要将采集到的各种格式对联数据进行数据清洗、格式一致性处理、去除敏感词、特殊繁体字转简体字、去重等一系列数据操作,最终整理符合对联形式的训练数据。
将大量古诗词和对联作为样本进行学习,从最基本的规则开始,逐渐学会了对仗、平仄韵律、从上联到下联的承合转化等。本实施例从对联语料库里专门筛出一大批“对联”,进行专门的“小样本”学习,学习在春节这种特定环境下,常用的正面字词、意象、表达。本实施例通过学习庞大的字库、比如高频使用词库等,可以自动判断一个字后面接什么内容会使得语句更加通顺,语义更加流畅。
本实施例可以针对不同的应用场景生成符合不同情境的对联,例如,春节生成春联,端午节生成的对联表达祝福安康的意义,中秋节生成的对联可以表达中秋团圆的寓意等。对于不同场景和节日的对联可以采用不同的神经网络语言模型来生成,在训练的过程中,不同的神经网络语言模型可以在利用“小样本”进行训练的过程有所区别,针对不同的场景选择不同的小样本进行训练。
S208,根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
在生成第一语句之后,根据第二文本和第一语句生成第二语句,生成的第二语句和第一语句的字数相同且结构对称。结构对称包括相同位置的词语的词性相同,韵律协调。
在一个实施例中,第一语句和第二语句构成一幅对联的上联和下联。在第一文本作为第一语句的起始文本,第二文本作为第二语句的起始文本的情况下,第一语句和第二语句构成的对联为藏头对联。也就是说,生成的藏头对联的上联和下联的首个字可以形成一个词组。用户也可以设置目标文本在对联中显示的位置,得出有个性的定制化对联。
可选地,根据所述第二文本和所述第一语句生成第二语句包括:将所述第二文本和所述第一语句输入到生成模型中,其中,所述生成模型用于生成与所述第一语句字数相同、且结构对称的第二语句,所述第二文本在所述第二语句中的位置与所述第一文本在所述第一语句中的位置相同;获取所述生成模型输出的所述第二语句。
第一语句是根据一个词生成的,第二语句是根据词和已经生成的语句一起生成的,第二语句的生成可以采用生成模型来生成。该生成模型可以是带有注意力机制的序列到序列的生成模型,或者是通过内存机制的序列到序列的模型。
本实施例从目标文本中选择第一文本和第二文本,根据第一文本生成第一语句,根据第一语句和第二文本生成第二语句,使得生成的第一语句和第二语句字数相同且结构对称,在生成第一语句和第二语句的过程中,无需用户干预,解决无法自动生成对联的技术问题,达到了自动生成对联的技术效果。并且,现有技术生成对联需要用户输入上联才能得到下联,本申请只要输入用户想要的词汇就能自动生成上下联,丰富了对联的多样性。
以下结合图3至图8以及图11对本实施例的语句的生成方法进行说明。
1、用户打开AI春联H5页面。H5页面即移动端的web页面。如图3所示。用户可以通过即时通讯应用或者浏览器打开H5应用页面,用户首先看到的是图3大写的“福”字。
2、显示中国风动画元素。用户点击图3的“点击进入”跳转到图4所示的动画页面(该动画页面显示中国风动画元素。可以跳过,不播放动画)。如果不进行跳过操作,那么动画页面播放开场动画。
3、显示样例对联。如果选择“跳过”或者动画播放完毕之后,页面上显示藏头的对联样例,如图5所示。
4、用户输入关键字。当用户点击图5上的“为我写春联”之后,会跳转到一张等待用户输入关键字的页面,如图6所示。用户可以在图6所示的页面上输入2~4个关键字,比如姓名、公司名、祝福语等。
5、生成一副藏头对联。点击图6所示的“下一步“按钮,那么就能够根据用户输入的关键字生成对应的带有横批的藏头对联,如图7所示。图7所示的页面展示了两个按钮,如果用户不满意,那么可以点击“换一换”,更新对联,生成一幅新的对联。如果显示的对联是用户满意的春联,那么用户可以点击图7所示的页面上的“就它了”,跳转到一个新页面图8。
6、发送藏头对联。用户可以点击图8页面上的“长按保存送祝福”,就可以将图8的页面保存到手机或者直接通过应用程序发送给好友,如果还想给好友写一副,可以点击图8页面上的“再写一副赠亲友”,再跳转到图6所示的等待用户输入关键字的页面。重复上面流程再次生成一副新的对联。
本实施例中根据第一文本生成第一语句可以采用神经网络语言模型得到,图9是根据本发明实施例的根据字生成语句的示意图。如图9所示,在获取“未”字之后,向神经网络语言模型输入“未”字,神经网络语言模型根据“未”字确定出下一个字的概率,最大概率为“知”,则输出第二个为“知”;然后将“未知”两个字作为神经网络语言模型的输入,确定出下一个字的概率,最大概率为“天”,输出“天”字,依次类推,直到得出“事”,完成一句话。
在得到第一语句之后了,采用序列到序列的生成模型生成第二语句。图10是根据本发明实施例的生成模型的示意图。如图10所示,输入序列为“未知天下事”,输出序列为“望待古今人”。
本实施例的藏头对联可以将关键字藏在对联的内部,也可以将关键词的含义藏在对联内部,也可以多者集合的方式将关键字结合在对联里面。将关键词的含义藏在对联内部时,可以根据选择的词生成含义相近的其他词,将含义相近的词显示在对联之中,用来表达选择的词的含义。
可选地,在根据所述第二文本和所述第一语句生成第二语句之后,所述方法还包括:根据所述第一语句和所述第二语句生成第三语句,其中,所述第三语句根据所述第一语句和所述第二语句的语义相匹配。
在生成对联的上下联之后,还可以自动生成横批。结合已经生成的藏头上下联并采用检索和语义相似度计算选择匹配的横批,生成的横批与藏头上下联相呼应。根据上联和下联所表达的语义,查找与上下联表达的语义相匹配的横批。
可选地,在根据所述第二文本和所述第一语句生成第二语句之后,所述方法还包括:接收用于指示更新所述第一语句和所述第二语句的更新指令;根据所述更新指令显示第四语句和第五语句,其中,所述第四语句与所述第五语句的字数相同、且结构对称。即,第四语句和第五语句是更新后的对联。如果第一语句和第二语句构成的对联是藏头对联,那么第四语句和第五语句形成的对联也是藏头对联,且第四语句和第五语句所采用的第一文本和第二文本与生成第一语句和第二语句所采用的第一文本和第二文本相同。需要说明的是,在更新第四语句和第五语句时还会更新第三语句,即更新对联的同时也会更新横批。
本实施例的语句的生成方法主要包括以下功能:
1、本发明实施例主要是自动生成个性化对联,以用户输入两个字生成藏头对联为例,其中第一个汉字需要藏在上联开头,因此上联开头已经固定,系统会根据神经网络语言模型进行第一个汉字藏头上联的生成。因为上联的质量好坏直接影响到下联生成的质量,进而影响到整副对联的质量。因此本发明实施例不需要用户手动输入完整的上联,而是根据首字自动进行生成藏头上联,确保上联生成的质量。除此之外,本发明实施例的藏头上联长度是灵活配置的,对联的长度为5~11个汉字,丰富了上联生成结果的多样性。进一步需要说明的是:对联本身是从右到左的顺序,但是为了考虑现代人从左到右的阅读习惯,因此采用现代的阅读习惯顺序进行排版。当然,将从左到右的排版更改成从右到左的排版也是可以的。
2、藏头上联确定之后,系统将会根据藏头上联以及下联的首个汉字,采用带有注意力机制的序列到序列的生成模型,进行藏头下联的生成。通过这个生成模型不断的训练,生成模型学习到上下联所需的对仗工整、韵律协调、长度一致、平仄规律等对联特有的表现形式,给定同一句藏头上联,并不是仅仅给出同样的一句藏头下联,而是可以生成多句不同的藏头下联,极大的丰富了对联的多样性。
3、完成上联和下联之后,结合已经生成的藏头上下联并采用检索和语义相似度计算选择匹配的横批,形成横批与藏头上下联相呼应。在生成上联、下联和横批的功能是一个整体,在用户输入关键字进行对联生成之后,会直接显示出一副完整的带有横批的藏头对联。
4、如果用户对已经生成的对联不满意,可以通过“换一换”功能来获得不同的对联。因为生成模型中每生成一个汉字都有多个候选列表,因此系统最终能够生成多个不重复的完整藏头对联,多样性因此得到保障,能够符合不同用户的喜好。需要说明的是,在接收到用户要换一副对联的指令后,会利用神经网络语言模型和生成模型再次生成一副对联,也可以一次生成多幅对联,在接胡搜到用户要换一副对联的指令后,随机选择一副对联进行显示。
本实施例的服务器架构如图12所示。用户通过CDN(内容分发网络,contentdelivery network)与前端H5页面进行交互。再通过负载均衡来增强网络数据处理能力,提高网络的灵活性和可用性,扩展服务器的带宽。用户通过前端H5页面与后台服务器进行通信。前端H5模块主要是负责对联服务的页面展示,用户体验相关逻辑的设计,考虑到并发访问量比较大,还会涉及到前端服务进行内容分发网络(简称CDN)加速,能加快用户访问的速度。在后端服务部署方面,为了增大后端对联服务的整体并发访问量,本实施例采用了负载均衡技术,并且对负载均衡服务器进行双机热备,保证后端服务的高可用性。
在服务器中设置有输入预处理模块、敏感信息监测模块、对联生成模块和敏感信息监测模块。输入预处理模块可以去除输入的文字中标点和特殊符号等内容。对联生成模块是最核心的模块,主要采用了神经网络语言模型和序列到序列的生成模型,使得生成的对联具有显著的对仗、平仄韵律等特点。敏感信息检测模块主要是检测用户输入的内容和对联生成模块生成的对联是否具有敏感问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
根据本发明实施例的另一个方面,还提供了一种用于实施上述语句的生成方法的语句的生成装置,如图14所示,该装置包括:
获取单元92,用于获取目标文本;目标文本可以是用户输入的汉字或者英文字符,用户输入的汉字或者英文字符的数量不限,一般情况下可以输入2到4个汉字或者英文字符。目标文本可以是纯汉字、纯英文或者汉字和英文的组合。目标文本可以是一个词语或者多个词语的组合,一个词语可以是一个字或者多个字。例如,“赞”为一个字的词语,“漂亮”和“非常好”是多个字的词语。
选择单元94,用于从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;
在目标文本为两个字的词语时,第一文本和第二文本分别为一个字。在目标文本在3个字以上时,第一文本和第二文本可以分别是目标文本中的任意的两个字或者多个字。第一文本和第二文本中的字数可以相同或者不同。例如,目标文本为“四海八方”,第一文本和第二文本可以分别是“八”和“方”,也可以分别是“四海”和“八方”。在目标文本为“非常好”时,第一文本和第二文本可以分别为“非常”和“好”。此处对第一文本和第二文本的个数不做限定,一般情况下第一文本和第二文本的字数相同。
在目标文本为英文词语“good day”时,第一文本和第二文本可以分别是“good”和“day”,生成的第一语句和第二语句分别为“good good study”和“day day up”。
第一生成单元96,用于根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;
预先对系统进行设置,已确定第一文本在第一语句中的位置。设置所述第一文本在所述第一语句中的位置包括:设置所述第一文本在所述第一语句的位置为以下任意一个位置:所述第一语句的起始文本所在的位置、中间文本所在的位置和结束文本所在的位置,其中,所述起始文本为所述第一语句的第一个词,所述结束文本为所述第一语句的最后一个词,所述中间文本为位于所述起始文本和所述结束文本之间的词。
第一文本在第一语句中的位置可以为起始文本所在的位置、中间文本所在的位置和结束文本所在的位置。第二文本的位置与第一文本的位置是相同的,在确定了第一文本在第一语句中的位置后,就确定了第二文本在第二语句中的位置。即,第一文本是第一语句的起始文本时,第二文本是第二语句的起始文本;第一文本是第一语句的中间文本时,第二文本是第二语句的中间文本;第一文本是第一语句的结束文本时,第二文本是第二语句的结束文本。并且,在第一文本和第二文本都是中间文本时,第二文本在第二语句中的位置与第一文本在第一语句中的位置相同。比如,第一文本在第一语句中第4个字的位置,第二文本在第二语句中第4个字的位置。需要说明的是,第一文本在第一语句中的位置与第二文本在第二语句中的位置还可以是不同的位置,比如,第一文本在第一语句的句首,第二文本在第二语句的句尾,或者,第一文本为第一语句中第2个字,第二文本为第二语句中第3个字,本实施例并不限定第一文本和第二文本的位置。
在确定了第一文本的位置之后,将所述第一文本输入到神经网络语言模型中,神经网络语言模型输出第一语句。生成的第一语句中,第一文本位于预先设置好的位置上。神经网络语言模型是根据对联样本和/或诗词样本训练得到的。
本实施例在训练神经网络语言模型时,在互联网全网的对联数据爬虫工作,收集语料。但是,收集的语料往往会有标点、特殊符号等杂质,且格式也不一致,需要将采集到的各种格式对联数据进行数据清洗、格式一致性处理、去除敏感词、特殊繁体字转简体字、去重等一系列数据操作,最终整理符合对联形式的训练数据。
将大量古诗词和对联作为样本进行学习,从最基本的规则开始,逐渐学会了对仗、平仄韵律、从上联到下联的承合转化等。本实施例从对联语料库里专门筛出一大批“对联”,进行专门的“小样本”学习,学习在春节这种特定环境下,常用的正面字词、意象、表达。本实施例通过学习庞大的字库、比如高频使用词库等,可以自动判断一个字后面接什么内容会使得语句更加通顺,语义更加流畅。
本实施例可以针对不同的应用场景生成符合不同情境的对联,例如,春节生成春联,端午节生成的对联表达祝福安康的意义,中秋节生成的对联可以表达中秋团圆的寓意等。对于不同场景和节日的对联可以采用不同的神经网络语言模型来生成,在训练的过程中,不同的神经网络语言模型可以在利用“小样本”进行训练的过程有所区别,针对不同的场景选择不同的小样本进行训练。
第二生成单元98,用于根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
在生成第一语句之后,根据第二文本和第一语句生成第二语句,生成的第二语句和第一语句的字数相同且结构对称。结构对称包括相同位置的词语的词性相同,韵律协调。
在一个实施例中,第一语句和第二语句构成一幅对联的上联和下联。在第一文本作为第一语句的起始文本,第二文本作为第二语句的起始文本的情况下,第一语句和第二语句构成的对联为藏头对联。也就是说,生成的藏头对联的上联和下联的首个字可以形成一个词组。用户也可以设置目标文本在对联中显示的位置,得出有个性的定制化对联。
可选地,所述第二生成单元包括:第二输入模块,用于将所述第二文本和所述第一语句输入到生成模型中,其中,所述生成模型用于生成与所述第一语句字数相同、且结构对称的第二语句,所述第二文本在所述第二语句中的位置与所述第一文本在所述第一语句中的位置相同;第二获取模块,用于获取所述生成模型输出的所述第二语句。
第一语句是根据一个词生成的,第二语句是根据词和已经生成的语句一起生成的,第二语句的生成可以采用生成模型来生成。该生成模型可以是带有注意力机制的序列到序列的生成模型,或者是通过内存机制的序列到序列的模型。
本实施例从目标文本中选择第一文本和第二文本,根据第一文本生成第一语句,根据第一语句和第二文本生成第二语句,使得生成的第一语句和第二语句字数相同且结构对称,在生成第一语句和第二语句的过程中,无需用户干预,解决无法自动生成对联的技术问题,达到了自动生成对联的技术效果。并且,现有技术生成对联需要用户输入上联才能得到下联,本申请只要输入用户想要的词汇就能自动生成上下联,丰富了对联的多样性。
本实施例的藏头对联可以将关键字藏在对联的内部,也可以将关键词的含义藏在对联内部,也可以多者集合的方式将关键字结合在对联里面。将关键词的含义藏在对联内部时,可以根据选择的词生成含义相近的其他词,将含义相近的词显示在对联之中,用来表达选择的词的含义。
可选地,所述第一生成单元包括:设置模块,用于设置所述第一文本在所述第一语句中的位置;第一输入模块,用于将所述第一文本输入到神经网络语言模型中,其中,所述神经网络语言模型根据对联样本和/或诗词样本训练得到;第一获取模块,用于获取所述神经网络语言模型输出的所述第一语句,其中,所述第一文本位于所述第一语句中所述位置上。
可选地,所述设置模块包括:设置子模块,用于设置所述第一文本在所述第一语句的位置为以下任意一个位置:所述第一语句的起始文本所在的位置、中间文本所在的位置和结束文本所在的位置,其中,所述起始文本为所述第一语句的第一个词,所述结束文本为所述第一语句的最后一个词,所述中间文本为位于所述起始文本和所述结束文本之间的词。
可选地,所述装置还包括:第三生成单元,用于在根据所述第二文本和所述第一语句生成第二语句之后,根据所述第一语句和所述第二语句生成第三语句,其中,所述第三语句根据所述第一语句和所述第二语句的语义相匹配。
在生成对联的上下联之后,还可以自动生成横批。结合已经生成的藏头上下联并采用检索和语义相似度计算选择匹配的横批,生成的横批与藏头上下联相呼应。根据上联和下联所表达的语义,查找与上下联表达的语义相匹配的横批。
可选地,所述装置还包括:接收单元,用于在根据所述第二文本和所述第一语句生成第二语句之后,接收用于指示更新所述第一语句和所述第二语句的更新指令;显示单元,用于根据所述更新指令显示第四语句和第五语句,其中,所述第四语句与所述第五语句的字数相同、且结构对称。
第四语句和第五语句是更新后的对联。如果第一语句和第二语句构成的对联是藏头对联,那么第四语句和第五语句形成的对联也是藏头对联,且第四语句和第五语句所采用的第一文本和第二文本与生成第一语句和第二语句所采用的第一文本和第二文本相同。需要说明的是,在更新第四语句和第五语句时还会更新第三语句,即更新对联的同时也会更新横批。
根据本发明实施例的又一个方面,还提供了一种用于实施上述语句的生成方法的电子装置,如图15所示,该电子装置包括,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,图15是根据本发明实施例的一种电子装置的结构框图。如图15所示,该电子装置可以包括:一个或多个(图中仅示出一个)处理器1001、至少一个通信总线1002、用户接口1003、至少一个传输装置1004和存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示器1006和键盘1007。传输装置1004可选的可以包括标准的有线接口和无线接口。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取目标文本;
S2,从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;
S3,根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;
S4,根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
可选地,本领域普通技术人员可以理解,图15所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图15其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图15中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图15所示不同的配置。
其中,存储器1005可用于存储软件程序以及模块,如本发明实施例中的语句的生成方法和装置对应的程序指令/模块,处理器1001通过运行存储在存储器1005内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的语句的生成方法。存储器1005可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1005可进一步包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置1004用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1004包括一个网络适配器(NetworkInterface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1004为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器1005用于存储神经网络语言模型和生成模型。
本实施例从目标文本中选择第一文本和第二文本,根据第一文本生成第一语句,根据第一语句和第二文本生成第二语句,使得生成的第一语句和第二语句字数相同且结构对称,在生成第一语句和第二语句的过程中,无需用户干预,解决无法自动生成对联的技术问题,达到了自动生成对联的技术效果。并且,现有技术生成对联需要用户输入上联才能得到下联,本申请只要输入用户想要的词汇就能自动生成上下联,丰富了对联的多样性。
本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取目标文本;
S2,从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;
S3,根据所述第一文本生成第一语句,其中,生成的所述第一语句包括所述第一文本;
S4,根据所述第二文本和所述第一语句生成第二语句,其中,生成的所述第二语句包括所述第二文本,所述第二语句与所述第一语句的字数相同、且结构对称。
可选地,存储介质还被设置为存储用于执行以下步骤的计算机程序:根据所述第一文本生成第一语句包括:设置所述第一文本在所述第一语句中的位置;将所述第一文本输入到神经网络语言模型中,其中,所述神经网络语言模型根据对联样本和/或诗词样本训练得到;获取所述神经网络语言模型输出的所述第一语句,其中,所述第一文本位于所述第一语句中所述位置上。
可选地,存储介质还被设置为存储用于执行以下步骤的计算机程序:设置所述第一文本在所述第一语句中的位置包括:设置所述第一文本在所述第一语句的位置为以下任意一个位置:所述第一语句的起始文本所在的位置、中间文本所在的位置和结束文本所在的位置,其中,所述起始文本为所述第一语句的第一个词,所述结束文本为所述第一语句的最后一个词,所述中间文本为位于所述起始文本和所述结束文本之间的词。
可选地,存储介质还被设置为存储用于执行以下步骤的计算机程序:根据所述第二文本和所述第一语句生成第二语句包括:将所述第二文本和所述第一语句输入到生成模型中,其中,所述生成模型用于生成与所述第一语句字数相同、且结构对称的第二语句,所述第二文本在所述第二语句中的位置与所述第一文本在所述第一语句中的位置相同;获取所述生成模型输出的所述第二语句。
可选地,存储介质还被设置为存储用于执行以下步骤的计算机程序:在根据所述第二文本和所述第一语句生成第二语句之后,所述方法还包括:根据所述第一语句和所述第二语句生成第三语句,其中,所述第三语句根据所述第一语句和所述第二语句的语义相匹配。
可选地,存储介质还被设置为存储用于执行以下步骤的计算机程序:在根据所述第二文本和所述第一语句生成第二语句之后,所述方法还包括:接收用于指示更新所述第一语句和所述第二语句的更新指令;根据所述更新指令显示第四语句和第五语句,其中,所述第四语句与所述第五语句的字数相同、且结构对称。
可选地,存储介质还被设置为存储用于执行上述实施例中的方法中所包括的步骤的计算机程序,本实施例中对此不再赘述。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (14)

1.一种语句的生成方法,其特征在于,包括:
获取用户输入的目标文本;
在所述目标文本不具有敏感问题的情况下,从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;
根据所述第一文本生成与所述第一文本含义相近的词,根据所述与所述第一文本含义相近的词和神经网络语言模型生成第一语句,其中,生成的所述第一语句包括所述与所述第一文本含义相近的词;不同的应用场景对应不同的神经网络语言模型;所述不同的应用场景对应的所述不同的神经网络语言模型是由不同的小样本训练得到的;
根据所述第二文本生成与所述第二文本含义相近的词,根据所述与所述第二文本含义相近的词、所述第一语句和序列到序列的生成模型生成第二语句,其中,生成的所述第二语句包括所述与所述第二文本含义相近的词,所述第二语句与所述第一语句的字数相同、且结构对称;
显示所述第一语句和所述第二语句,其中,所述第一语句和所述第二语句不具有敏感问题。
2.根据权利要求1所述的方法,其特征在于,根据所述与所述第一文本含义相近的词和神经网络语言模型生成第一语句包括:
设置所述与所述第一文本含义相近的词在所述第一语句中的位置;
将所述与所述第一文本含义相近的词输入到所述神经网络语言模型中,其中,所述神经网络语言模型用于根据输入词语生成与所述输入词语相关的语句;
获取所述神经网络语言模型输出的所述第一语句,其中,所述与所述第一文本含义相近的词位于所述第一语句中所述位置上。
3.根据权利要求2所述的方法,其特征在于,设置所述与所述第一文本含义相近的词在所述第一语句中的位置包括:
设置所述与所述第一文本含义相近的词在所述第一语句的位置为以下任意一个位置:
所述第一语句的起始词语所在的位置、中间词语所在的位置和结束词语所在的位置,其中,所述起始词语为所述第一语句的第一个词,所述结束词语为所述第一语句的最后一个词,所述中间词语为位于所述起始词语和所述结束词语之间的词语。
4.根据权利要求1至3中任一项所述的方法,其特征在于,根据所述与所述第二文本含义相近的词、所述第一语句和序列到序列的生成模型生成第二语句包括:
将所述与所述第二文本含义相近的词和所述第一语句输入到所述序列到序列的生成模型中,其中,所述序列到序列的生成模型用于生成与所述第一语句字数相同、且结构对称的第二语句,所述与所述第二文本含义相近的词在所述第二语句中的位置和所述与所述第一文本含义相近的词在所述第一语句中的位置相同;
获取所述序列到序列的生成模型输出的所述第二语句。
5.根据权利要求1所述的方法,其特征在于,在根据所述与所述第二文本含义相近的词和所述第一语句生成第二语句之后,所述方法还包括:
根据所述第一语句和所述第二语句生成第三语句,其中,所述第三语句根据所述第一语句和所述第二语句的语义相匹配。
6.根据权利要求1所述的方法,其特征在于,在根据所述与所述第二文本含义相近的词和所述第一语句生成第二语句之后,所述方法还包括:
接收用于指示更新所述第一语句和所述第二语句的更新指令;
根据所述更新指令显示第四语句和第五语句,其中,所述第四语句与所述第五语句的字数相同、且结构对称。
7.一种语句的生成装置,其特征在于,包括:
获取单元,用于获取用户输入的目标文本;
选择单元,用于在所述目标文本不具有敏感问题的情况下,从所述目标文本中选择出第一文本和第二文本,其中,所述第一文本包括所述目标文本中的至少一个字,所述第二文本包括所述目标文本中的至少一个字;
第一生成单元,用于根据所述第一文本生成与所述第一文本含义相近的词,根据所述与所述第一文本含义相近的词和神经网络语言模型生成第一语句,其中,生成的所述第一语句包括所述与所述第一文本含义相近的词;不同的应用场景对应不同的神经网络语言模型;所述不同的应用场景对应的所述不同的神经网络语言模型是由不同的小样本训练得到的;
第二生成单元,用于根据所述第二文本生成与所述第二文本含义相近的词,根据所述与所述第二文本含义相近的词、所述第一语句和序列到序列的生成模型生成第二语句,其中,生成的所述第二语句包括所述与所述第二文本含义相近的词,所述第二语句与所述第一语句的字数相同、且结构对称;
显示单元,用于显示所述第一语句和所述第二语句,其中,所述第一语句和所述第二语句不具有敏感问题。
8.根据权利要求7所述的装置,其特征在于,所述第一生成单元包括:
设置模块,用于设置所述与所述第一文本含义相近的词在所述第一语句中的位置;
第一输入模块,用于将所述与所述第一文本含义相近的词输入到所述神经网络语言模型中,其中,所述神经网络语言模型用于根据输入词语生成与所述输入词语相关的语句;
第一获取模块,用于获取所述神经网络语言模型输出的所述第一语句,其中,所述与所述第一文本含义相近的词位于所述第一语句中所述位置上。
9.根据权利要求8所述的装置,其特征在于,所述设置模块包括:
设置子模块,用于设置所述与所述第一文本含义相近的词在所述第一语句的位置为以下任意一个位置:
所述第一语句的起始词语所在的位置、中间词语所在的位置和结束词语所在的位置,其中,所述起始词语为所述第一语句的第一个词,所述结束词语为所述第一语句的最后一个词,所述中间词语为位于所述起始词语和所述结束词语之间的词。
10.根据权利要求7至9中任一项所述的装置,其特征在于,所述第二生成单元包括:
第二输入模块,用于将所述与所述第二文本含义相近的词和所述第一语句输入到所述序列到序列的生成模型中,其中,所述序列到序列的生成模型用于生成与所述第一语句字数相同、且结构对称的第二语句,所述与所述第二文本含义相近的词在所述第二语句中的位置和所述与所述第一文本含义相近的词在所述第一语句中的位置相同;
第二获取模块,用于获取所述序列到序列的生成模型输出的所述第二语句。
11.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第三生成单元,用于在根据所述与所述第二文本含义相近的词和所述第一语句生成第二语句之后,根据所述第一语句和所述第二语句生成第三语句,其中,所述第三语句根据所述第一语句和所述第二语句的语义相匹配。
12.根据权利要求7所述的装置,其特征在于,所述装置还包括:
接收单元,用于在根据所述与所述第二文本含义相近的词和所述第一语句生成第二语句之后,接收用于指示更新所述第一语句和所述第二语句的更新指令;
显示单元,用于根据所述更新指令显示第四语句和第五语句,其中,所述第四语句与所述第五语句的字数相同、且结构对称。
13.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至6任一项中所述的方法。
14.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至6任一项中所述的方法。
CN201810654922.2A 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置 Active CN108874789B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810654922.2A CN108874789B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置
CN202010209182.9A CN111444725B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810654922.2A CN108874789B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202010209182.9A Division CN111444725B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置

Publications (2)

Publication Number Publication Date
CN108874789A CN108874789A (zh) 2018-11-23
CN108874789B true CN108874789B (zh) 2022-07-01

Family

ID=64294648

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810654922.2A Active CN108874789B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置
CN202010209182.9A Active CN111444725B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202010209182.9A Active CN111444725B (zh) 2018-06-22 2018-06-22 语句的生成方法、装置、存储介质和电子装置

Country Status (1)

Country Link
CN (2) CN108874789B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191439A (zh) * 2019-12-16 2020-05-22 浙江大搜车软件技术有限公司 自然语句生成的方法、装置、计算机设备和存储介质
CN111797611B (zh) * 2020-07-24 2023-07-25 中国平安人寿保险股份有限公司 对联生成模型、对联生成方法、装置、计算机设备及介质
CN111984783B (zh) * 2020-08-28 2024-04-02 达闼机器人股份有限公司 文本生成模型的训练方法、文本生成方法及相关设备
CN116702834B (zh) * 2023-08-04 2023-11-03 深圳市智慧城市科技发展集团有限公司 数据生成方法、数据生成装置及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101253496A (zh) * 2005-07-01 2008-08-27 微软公司 生成汉语对联
CN101568917A (zh) * 2006-12-20 2009-10-28 微软公司 生成汉语横批
CN103336803A (zh) * 2013-06-21 2013-10-02 杭州师范大学 一种嵌名春联的计算机生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092425B2 (en) * 2010-12-08 2015-07-28 At&T Intellectual Property I, L.P. System and method for feature-rich continuous space language models
CN102902362B (zh) * 2011-07-25 2017-10-31 深圳市世纪光速信息技术有限公司 文字输入方法及系统
US9830315B1 (en) * 2016-07-13 2017-11-28 Xerox Corporation Sequence-based structured prediction for semantic parsing
CN106569995B (zh) * 2016-09-26 2019-04-02 天津大学 基于语料库和格律规则的汉语古诗词自动生成方法
KR102630668B1 (ko) * 2016-12-06 2024-01-30 한국전자통신연구원 입력 텍스트를 자동으로 확장하는 시스템 및 방법
CN106776517B (zh) * 2016-12-20 2020-07-14 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN110516244B (zh) * 2019-08-26 2023-03-24 西安艾尔洛曼数字科技有限公司 一种基于bert的句子自动填充方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101253496A (zh) * 2005-07-01 2008-08-27 微软公司 生成汉语对联
CN101568917A (zh) * 2006-12-20 2009-10-28 微软公司 生成汉语横批
CN103336803A (zh) * 2013-06-21 2013-10-02 杭州师范大学 一种嵌名春联的计算机生成方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
EasyCouplet: Automatic Generation of Chinese Traditional Couplets;Zhigeng Pan et al.;《Spinger》;20180313;第117-132页 *
Zhigeng Pan et al..EasyCouplet: Automatic Generation of Chinese Traditional Couplets.《Spinger》.2018, *
厉害了!这个人工智能H5能够定制你的专属春联;顶尖广告;《https://mp.weixin.qq.com/s/kMF3_ksPFPXA6OMXockyvw》;20180213;第1-10页 *
腾讯用户体验AI写春联-人工智能AI与传统文化的完美结合;横竖设计;《https://mp.weixin.qq.com/s/xc0O8wBlMSJz_XeLB8mm2g》;20180213;第1-14页 *

Also Published As

Publication number Publication date
CN111444725B (zh) 2022-07-29
CN111444725A (zh) 2020-07-24
CN108874789A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN110717017B (zh) 一种处理语料的方法
CN108874789B (zh) 语句的生成方法、装置、存储介质和电子装置
Raj et al. Building chatbots with Python
CN108363697B (zh) 文本信息生成方法、装置、存储介质及设备
McCulloch Because internet: Understanding how language is changing
WO2019000326A1 (en) GENERATION OF ANSWERS IN AN AUTOMATED ONLINE CONVERSATION SERVICE
CN110462730A (zh) 促进以多种语言与自动化助理的端到端沟通
CN105869446B (zh) 一种电子阅读装置和语音阅读加载方法
CN107767871B (zh) 文本显示方法、终端及服务器
CN109657204A (zh) 使用非对称度量学习的自动配对字体
JP6529761B2 (ja) 話題提供システム、及び会話制御端末装置
CN104008091A (zh) 一种基于情感值的网络文本情感分析方法
CN115082602B (zh) 生成数字人的方法、模型的训练方法、装置、设备和介质
KR20200009117A (ko) 텍스트 데이터 수집 및 분석을 위한 시스템
CN110427614A (zh) 段落层级的构建方法、装置、电子设备及存储介质
CN109508448A (zh) 基于长篇文章生成短资讯方法、介质、装置和计算设备
CN108153831A (zh) 音乐添加方法及装置
CN112084305A (zh) 应用于聊天应用的搜索处理方法、装置、终端及存储介质
KR20210046594A (ko) 정보 푸시 방법 및 장치
CN111737961B (zh) 一种故事生成的方法、装置、计算机设备和介质
KR102146433B1 (ko) 연상기억법을 이용한 문맥 기반 언어 학습 서비스 제공 방법
CN113204624B (zh) 一种多特征融合的文本情感分析模型及装置
Waszink Neologisms in an online portal: The Dutch Neologismenwoordenboek (NW)
CN110287413A (zh) 电子书描述信息的显示方法及电子设备
CN117436414A (zh) 演示文稿生成方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant