CN110837546A - 基于人工智能的藏头对联生成方法、装置、设备及介质 - Google Patents
基于人工智能的藏头对联生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN110837546A CN110837546A CN201910907644.1A CN201910907644A CN110837546A CN 110837546 A CN110837546 A CN 110837546A CN 201910907644 A CN201910907644 A CN 201910907644A CN 110837546 A CN110837546 A CN 110837546A
- Authority
- CN
- China
- Prior art keywords
- couplet
- sentence
- head
- text
- tibetan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 56
- 238000003062 neural network model Methods 0.000 claims abstract description 33
- 238000005070 sampling Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000010845 search algorithm Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 230000033764 rhythmic process Effects 0.000 claims description 4
- 210000001503 joint Anatomy 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种基于人工智能的藏头对联生成方法、装置、设备及介质,涉及计算机数据处理技术领域。该方法包括:接收藏头字集;从藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首;将上联句首输入神经网络模型,获取候选上联集;调用seq2seq模型并输入候选上联集和下联句首,为每一条上联生成至少一条匹配的下联;将上联和下联组合成对联输出,若上联与下联组合为多副对联,便对多副对联进行质量评分后,输出质量评分最高的一副对联。所述方法根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对联进行质量评分后输出,能够较大程度的保证对联的生成质量,提升用户的使用体验。
Description
技术领域
本申请涉及计算机数据处理技术领域,特别是一种基于人工智能的藏头对联生成方法、装置、设备及介质。
背景技术
在春节,中国的每个家庭都会将春联贴在门前,表达着对未来的期望和祝福。除此之外,春联更能用于赠送友人、亲人等。春联是最常用的对联形式之一,对联是中国源远流长的一种传统文化载体。研究对联系统能帮助客户生成一些有趣的春联,有极大的文化价值和一定的经济价值。
然而,目前市面上大多数的人工智能对联系统,有些需要让用户输入上联然后返回相应的下联,这些系统要求用户具有一定的文学素养,能写出一幅不错的上联;有些直接根据用户输入的关键词生成对联时,无法很好地控制对联的生成,且生成的结果差强人意,多样性不足,程序的反应时间较慢。
发明内容
本申请实施例所要解决的技术问题是,提供一种基于人工智能的藏头对联生成方法、装置、设备及介质,能有效保证对联的生成质量,并提升生成的对联的多样性。
为了解决上述技术问题,本申请实施例所述的一种基于人工智能的藏头对联生成方法,采用了如下所述的技术方案:
一种基于人工智能的藏头对联生成方法,包括:
接收目标用户输入的包括若干个关键字的藏头字集;
从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本之间关键字的数量差小于等于1;
调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集;
调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联;
将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
本申请实施例所述的基于人工智能的藏头对联生成方法,根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对生成的多副对联进行质量评分后输出其中质量最高的一副对联,能够较大程度的保证对联的生成质量,提升用户利用智能对联系统生成藏头对联时的使用体验。
进一步的,所述的基于人工智能的藏头对联生成方法,所述从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首的步骤包括:
基于待调用的神经网络模型的对联训练数据,计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率,以获取关于所述关键字的首字概率的概率集合;
在所述概率集合中对所述关键字执行随机采样,将采样出的第一个关键字和第二个关键字分别作为上联首字和下联首字;若采样取得的第一个关键字与第二个关键字相同,则对第二个关键字重新执行随机采样直至不相同。
进一步的,所述的基于人工智能的藏头对联生成方法,所述计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率的步骤之后,所述方法还包括步骤:
比较所述藏头字集中各关键字对应的首字概率与预设的概率阈值的大小;
提取大于等于概率阈值的关键字对应的首字概率,生成关于所述关键字的首字概率的概率集合。
进一步的,所述的基于人工智能的藏头对联生成方法,所述基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联的步骤包括:
通过所述seq2seq模型中的编码器将所述候选上联集中的每一条上联分别编码为一个语义向量;
通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联。
进一步的,所述的基于人工智能的藏头对联生成方法,所述通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联的步骤包括:
读取预设的集束搜索算法中的集束宽度;
采用集束搜索算法基于所述语义向量和所述下联句首,为所述候选上联集中的每一条上联均生成数量对应于所述集束宽度的下联。
进一步的,所述的基于人工智能的藏头对联生成方法,所述基于预设的评分规则对组合后的对联进行质量评分的步骤之前,所述方法还包括步骤:
从预设的因子库中选取若干个用于评价对联质量的评分因子,所述评分因子至少包括:上下联字数是否相同、上下联中是否出现重复字、上下联对应位置处的字是否相同、上下联词性是否相同和上下联韵律是否协调;
为选取的评分因子分配权重以配置为评分公式,将所述评分公式作为预设的评分规则。
进一步的,上述任意一项技术方案中所述的基于人工智能的藏头对联生成方法,所述输出其中所述质量评分最高的一副对联的步骤之后,所述方法还包括步骤:
将已输出的所述质量评分最高的一副对联记为首选对联,将未输出的若干副对联记为候选对联;
计算每副候选对联与所述首选对联之间的相似度;
当接收到用于更换对联的用户指令后,响应于所述用户指令输出与所述首选对联相似度最低的一副候选对联。
为了解决上述技术问题,本申请实施例还提供一种基于人工智能的藏头对联生成装置,采用了如下所述的技术方案:
一种基于人工智能的藏头对联生成装置,包括:
数据接收模块,用于接收目标用户输入的包括若干个关键字的藏头字集;
文本提取模块,用于从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本中关键字的数量差小于等于1;
上联生成模块,用于调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集;
下联生成模块,用于调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少1条匹配的下联;
对联输出模块,用于将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
本申请实施例所述的基于人工智能的藏头对联生成装置,根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对生成的多副对联进行质量评分后输出其中质量最高的一副对联,能够较大程度的保证对联的生成质量,提升用户利用智能对联系统生成藏头对联时的使用体验。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如上述任意一项技术方案所述的基于人工智能的藏头对联生成方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任意一项技术方案所述的基于人工智能的藏头对联生成方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请实施例公开了一种基于人工智能的藏头对联生成方法、装置、设备及介质,本申请实施例所述的基于人工智能的藏头对联生成方法,接收目标用户输入的包括若干个关键字的藏头字集后;从藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首;再调用预设的神经网络模型,将上联句首输入神经网络模型,获取由神经网络模型输出的包括至少一条上联的候选上联集;然后调用seq2seq模型并输入候选上联集和下联句首,基于候选上联集和下联句首为每一条上联生成至少一条匹配的下联;最后将上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中质量评分最高的一副对联。所述方法根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对生成的多副对联进行质量评分后输出其中质量最高的一副对联,能够较大程度的保证对联的生成质量,提升用户利用智能对联系统生成藏头对联时的使用体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例可以应用于其中的示例性系统架构图;
图2为本申请实施例中所述基于人工智能的藏头对联生成方法的一个实施例的流程图;
图3为本申请实施例中所述基于人工智能的藏头对联生成装置的一个实施例的结构示意图;
图4为本申请实施例中计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“包括”、“包含”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。在本申请的权利要求书、说明书以及说明书附图中的术语,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体/操作/对象与另一个实体/操作/对象区分开来,而不一定要求或者暗示这些实体/操作/对象之间存在任何这种实际的关系或者顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
为了使本技术领域的人员更好地理解本申请的方案,下面将结合本申请实施例中的相关附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于人工智能的藏头对联生成方法一般由服务器/终端设备执行,相应地,基于人工智能的藏头对联生成装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了本申请实施例中所述基于人工智能的藏头对联生成方法的一个实施例的流程图。所述基于人工智能的藏头对联生成方法,包括以下步骤:
步骤201:接收目标用户输入的包括若干个关键字的藏头字集。
藏头对联是在对联的上下联的句首中,隐含了特定的“藏头词”,将上下联的句首拼接后,便可以形成所述藏头词。通过人工智能的方法生成藏头对联时,用户首先需要向服务器中的人工智能对联系统输入包含自己希望作为藏头对联的“藏头词”的特定文字,即自定义的若干个关键字。
在本申请实施例的一种具体实施方式中,人工智能对联系统将所述藏头字集中关键字的个数限定在2至4个字之间,如此能使通过人工智能对联系统中的模型生成的对联的质量相对较好。
在本申请实施例中,所述基于人工智能的藏头对联生成方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收用户输入的藏头字集。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202:从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本之间关键字的数量差小于等于1。
在本申请实施例中,所述藏头字集可以直接作为所述藏头词,也可从中选取部分关键字拼接后作为藏头词。即以从若干个关键字中提取出的第一文本和第二文本,分别作为由藏头词拆分开的上联句首与下联句首。
其中,所述第一文本和所述第二文本中关键字的数量均不限,但第一文本与第二文本之间的关键字的数量差应小于等于1,以使上下联的对仗能相对工整。且在一些具体实施方式中,若干个关键字中,同一个关键字不能同时位于所述第一文本与所述第二文本中,即若所述藏头字集中无重复字,则第一文本与第二文本中无重复字;而若所述藏头字集中有重复字,则藏头字集中该重复字的数量不能小于第一文本中和第二文本中该重复字出现的次数,即理解为藏头字集中的单个关键字不能同时位于第一文本和第二文本中。
在本申请实施例的一种具体实施方式中,所述藏头字集由所述第一文本和所述第二文本按顺序拼接而成。将所述藏头字集直接作为藏头词,并拆分为两部分分别作为上联句首和下联句首的方式,更适应于用户输入一些常用词汇或姓名作为藏头词的需求场景。而对于姓名类的藏头词,人工智能对联系统一般将藏头词的第一个字默认为“姓”设置于上联的句首,将藏头词中除“姓”以外的字默认为“名”设置在下联的句首。
在本申请的一些实施例中,若所述第一文本和所述第二文本均为单个关键字,则将所述上联句首视为上联首字,将所述下联句首视为下联首字,所述步骤202包括:基于待调用的神经网络模型的对联训练数据,计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率,以获取关于所述关键字的首字概率的概率集合;
在所述概率集合中对所述关键字执行随机采样,将采样出的第一个关键字和第二个关键字分别作为上联首字和下联首字;若采样取得的第一个关键字与第二个关键字相同,则对第二个关键字重新执行随机采样直至不相同。
该实施例中,从所述藏头字集中提取出第一文本和第二文本时,第一文本与第二文本均为单个关键字,此时由藏头词作为的上联句首和下联句首便分别为上联首字和下联首字。且其中第一文本和第二文本表示的两个关键字在所述关键字集中的顺序、位置均任意。
待调用的用于生成上联的神经网络模型,其在训练时所使用的对联训练数据在上述步骤的实施过程中再次调用,基于该对联训练数据,通过贝叶斯算法计算每个关键字在其中分别作为上联首字和下联首字的首字概率。如计算某个关键字作为上联首字的首字概率时,首先统计该对联训练数据中上联首字的总个数,再以该关键字在对联训练数据中作为上联首字出现的次数除以总次数,便能得到对应的首字概率。并将所有获得的概率记录下来后,在概率的集合中以随机采样的方式依次采样出两个关键字,然后再将第一个关键字作为上联首字,第二个字作为下联首字,且在随机采样的过程中,当第二个关键字与第一个关键字相同时,保留第一个关键字的同时重新对第二个关键字执行随机采样直至两者不同为止。
所述概率集合中,对于同一个关键字,既包括了其作为上联首字的首字概率,还包括了其作为下联首字的首字概率。
在进一步的一种具体实施方式中,所述计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率的步骤之后,所述基于人工智能的藏头对联生成方法还包括步骤:
比较所述藏头字集中各关键字对应的首字概率与预设的概率阈值的大小;
提取大于等于概率阈值的关键字对应的首字概率,生成关于所述关键字的首字概率的概率集合。
为了保证藏头对联的生成质量,若用户输入的藏头字集中包括非常见字,而计算出的该非常见字对应的首字概率低于一个预设的概率阈值时,则表示由于其在对联训练数据中的样本数太少,容易使根据此非常见字生成的藏头对联的质量过低,因此需将该非常见字排除在待采样的概率合集之外,从而使之后采样出的第一个关键字与第二个关键字相对的样本数较多,使生成的藏头对联的质量得以提升。于是生成概率集合时,只提取大于等于概率阈值的关键字对应的首字概率。
步骤203:调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集。
应用已通过对联训练数据训练后的神经网络模型,用于根据输入的上联句首生成藏头对联的上联。本申请实施例中,生成的上联字数可以通过用户预先设置进行限定,也可以由所述神经网络模型自动生成,一般输出字数为7的上联是最常见的生成方式。
而应用所述神经网络模型生成上联之前,用户还需要设置预需通过神经网络模型生成的上联条数m,m为大于等于一的整数。基于用户设置的特定配置,所述神经网络模型输出m条上联待进一步处理,所述m条上联的集合便记为候选上联集。
步骤204:调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联。
seq2seq模型是一个Encoder-Decoder(编码器-解码器)结构的网络,其利用了两个RNN(Recurrent Neural Network,循环神经网络),一个作为encoder,一个作为decoder,seq2seq模型的输入是一个序列,输出也是一个序列。在编码阶段,encoder负责将一个可变长度的输入序列压缩成指定长度的语义向量,用于表达这个输入序列的语义;在解码阶段,decoder则负责根据所述指定长度的语义向量生成可变长度的输出序列。
通过所述seq2seq模型生成的下联数量也同样可以预先设置,如设置其为每一条对联生成n条下联,则生成的下联数量为m*n条。将生成的下联的集合记为候选下联集,并在其中记录下联与上联之间的关联关系,用以防止最终生成的上下联之间关联度过低,匹配度和质量较差的问题。
在本申请的一些实施例中,步骤204中所述基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联的步骤包括:
通过所述seq2seq模型中的编码器将所述候选上联集中的每一条上联分别编码为一个语义向量;
通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联。
根据候选上联集和下联句首生成下联时,以由一条上联结合下联句首生成下联的举例进行说明:encoder将所述第一条上联进行编码得到一个语义向量,decoder对该语义向量进行解码时,在attention机制下,生成下联的每一步上的字时,第一语义向量均会自动选取出最适配当前步数的语义信息作为语义向量加入计算,该加入计算的语义向量与上联中对应步数位置处的字最相关。如此通过seq2seq2模型配合attention机制能够较大地增强上下联之间的对仗能力。
在进一步的一种具体实施方式中,所述通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联的步骤包括:
读取预设的集束搜索算法中的集束宽度;
采用集束搜索算法基于所述语义向量和所述下联句首,为所述候选上联集中的每一条上联均生成数量对应于所述集束宽度的下联。
解码时可以采用贪心搜索(Greedy Search)算法和集束搜索(Beam Search)算法,解码生成下联时是由句首至句尾逐步生成下联的每一个字。贪心算法在解码时每一步均选择与上一步的语句组合中概率最大的那个字,而集束搜索则在解码时每一步均选择与上一步的语句组合中概率最大的前i个字,i即所述集束算法的集束宽度,最终输出前i个概率最大的序列,每个序列即为一条下联。通过集束搜索算法可以增加生成的下联结果的多样性。
进一步理解:设集束宽度为2,生成下联的第一个字时,需选择计算出的概率最大的2个字,而本申请中直接采用所述下联句首,因此在下联句首之后的第一个字才开始选择概率最大的2个字,此时若下联句首与当前步数上的字具有k种组合,从k种组合中选取其中概率最大的2种组合,依此类推,直至生成2条下联。
步骤205:将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
若前述生成的上联条数m和生成的下联条数n的值均设置为1,即候选上联集中的上联条数和候选下联集中的下联条数均为1,由此生成的对联只包含一种组合,此时无需进一步处理,直接生成该副对联即可。
若m和n的值中至少有一个不为1,则存在多个相匹配的上下联的组合,即生成的对联的数量大于1,此时便需要从生成的多副对联中筛选出质量最好的一副作为最终生成的藏头对联。为此我们对其筛选的规则预设一个评分规则,通过对每副对联进行质量评分和排名,从而能根据所述质量评分判断生成的对联的优劣好坏。
在本申请实施例中,步骤205中所述基于预设的评分规则对组合后的对联进行质量评分的步骤之前,所述基于人工智能的藏头对联生成方法还包括步骤:
从预设的因子库中选取若干个用于评价对联质量的评分因子,所述评分因子至少包括:上下联字数是否相同、上下联中是否出现重复字、上下联对应位置处的字是否相同、上下联词性是否相同和上下联韵律是否协调;
为选取的评分因子分配权重以配置为评分公式,将所述评分公式作为预设的评分规则。
评价对联的质量评分时,基于配置的评分公式作为评分规则进行评分。而评分公式中所选取的评分因子为基于目前历史经验中对对联质量的评判标准所选取的,评分因子包括但不限于以下几点:上下联字数是否相同,上下联中是否出现重复字,上下联对应位置处的字是否相同、词性是否相同、韵律是否协调(其中韵律指对联中的平仄格式和押韵规则)。
在本申请的一些实施例中,所述步骤205之后,所述基于人工智能的藏头对联生成方法还包括步骤:
将已输出的所述质量评分最高的一副对联记为首选对联,将未输出的若干副对联记为候选对联;
计算每副候选对联与所述首选对联之间的相似度;
当接收到用于更换对联的用户指令后,响应于所述用户指令输出与所述首选对联相似度最低的一副候选对联。
步骤205用于优先向用户返回最优的对联,即输出评分质量最高的对联。而若用户对当前输出的对联不满意,希望获取其他的输出结果时,重新执行步骤201-205会消耗更多的系统资源和需要较长的等待时间,且输出的结果容易与第一次输出的结果近似,影响用户的体验。
将步骤205中已输出的第一副对联记为首选对联,未输出的对联统计为候选对联,在输出所述首选对联后对所述候选对联中的每一副对联与所述首选对联之间进行相似度计算,并将其中相似度最低的对联排在最前面,当用户发出更换对联的指令后,系统便将该相似度最低的对联输出给用户作为第一个展示给用户的候选对联,以使用户体验到风格较不同的对联,提高用户的体验。在本申请实施例的一种具体实施方式中,所述候选对联中每输出一副便将输出的对联从其中剔除,并计算当前的候选对联中每一副对联与上一副输出的候选对联之间的相似度,以使用户继续发出更换对联的指令时,再次输出风格较不同的对联。
本申请实施例所述的基于人工智能的藏头对联生成方法,根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对生成的多副对联进行质量评分后输出其中质量最高的一副对联,能够较大程度的保证对联的生成质量,提升用户利用智能对联系统生成藏头对联时的使用体验。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,图3示出了为本申请实施例中所述基于人工智能的藏头对联生成装置的一个实施例的结构示意图。作为对上述图2所示方法的实现,本申请提供了一种基于人工智能的藏头对联生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的基于人工智能的藏头对联生成装置包括:
数据接收模块301;用于接收目标用户输入的包括若干个关键字的藏头字集。
文本提取模块302;用于从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本中关键字的数量差小于等于1。
上联生成模块303;用于调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集。
下联生成模块304;用于调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少1条匹配的下联。
对联输出模块305;用于将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
在本申请的一些实施例中,所述文本提取模块302用于基于待调用的神经网络模型的对联训练数据,计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率,以获取关于所述关键字的首字概率的概率集合;在所述概率集合中对所述关键字执行随机采样,将采样出的第一个关键字和第二个关键字分别作为上联首字和下联首字;若采样取得的第一个关键字与第二个关键字相同,则对第二个关键字重新执行随机采样直至不相同。
在进一步的一种具体实施方式中,所述文本提取模块302还包括:概率集合筛选子模块。所述概率集合筛选子模块用于比较所述藏头字集中各关键字对应的首字概率与预设的概率阈值的大小;提取大于等于概率阈值的关键字对应的首字概率,生成关于所述关键字的首字概率的概率集合。
在本申请的一些实施例中,所述下联生成模块304用于通过所述seq2seq模型中的编码器将所述候选上联集中的每一条上联分别编码为一个语义向量;通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联。
在进一步的一种具体实施方式中,所述下联生成模块304还包括:集束应用生成子模块。所述集束应用生成子模块用于读取预设的集束搜索算法中的集束宽度;采用集束搜索算法基于所述语义向量和所述下联句首,为所述候选上联集中的每一条上联均生成数量对应于所述集束宽度的下联。
在本申请实施例中,所述对联输出模块305还包括:规则配置子模块。在所述对联输出模块305基于预设的评分规则对组合后的对联进行质量评分之前,所述规则配置子模块用于从预设的因子库中选取若干个用于评价对联质量的评分因子,所述评分因子至少包括:上下联字数是否相同、上下联中是否出现重复字、上下联对应位置处的字是否相同、上下联词性是否相同和上下联韵律是否协调;为选取的评分因子分配权重以配置为评分公式,将所述评分公式作为预设的评分规则。
在本申请的一些实施例中,所述基于人工智能的藏头对联生成装置还包括:候选输出模块。在所述对联输出模块305输出其中所述质量评分最高的一副对联之后,所述候选输出模块用于将已输出的所述质量评分最高的一副对联记为首选对联,将未输出的若干副对联记为候选对联;
计算每副候选对联与所述首选对联之间的相似度;
当接收到用于更换对联的用户指令后,响应于所述用户指令输出与所述首选对联相似度最低的一副候选对联。
本申请实施例所述的基于人工智能的藏头对联生成装置,根据概率进行采样取得藏头字以对联的生成质量,并增加了生成的对联的多样性,通过对生成的多副对联进行质量评分后输出其中质量最高的一副对联,能够较大程度的保证对联的生成质量,提升用户利用智能对联系统生成藏头对联时的使用体验。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如基于人工智能的藏头对联生成方法的程序代码等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的程序代码或者处理数据,例如运行所述基于人工智能的藏头对联生成方法的程序代码。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有基于人工智能的藏头对联生成程序,所述基于人工智能的藏头对联生成程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于人工智能的藏头对联生成方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
在本申请所提供的上述实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
所述模块或组件可以是或者也可以不是物理上分开的,作为模块或组件显示的部件可以是或者也可以不是物理模块,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块或组件来实现本实施例方案的目的。
本申请不限于上述实施方式,以上所述是本申请的优选实施方式,该实施例仅用于说明本申请而不用于限制本申请的范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,其依然可以对前述各具体实施方式所记载的技术方案进行若干改进和修饰,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理应视为包括在本申请的保护范围之内。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,以及凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于人工智能的藏头对联生成方法,其特征在于,包括:
接收目标用户输入的包括若干个关键字的藏头字集;
从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本之间关键字的数量差小于等于1;
调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集;
调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联;
将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
2.根据权利要求1所述的基于人工智能的藏头对联生成方法,所述第一文本和所述第二文本均为单个关键字时,所述上联句首为上联首字,所述下联句首为下联首字,其特征在于,所述从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首的步骤包括:
基于待调用的神经网络模型的对联训练数据,计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率,以获取关于所述关键字的首字概率的概率集合;
在所述概率集合中对所述关键字执行随机采样,将采样出的第一个关键字和第二个关键字分别作为上联首字和下联首字;若采样取得的第一个关键字与第二个关键字相同,则对第二个关键字重新执行随机采样直至不相同。
3.根据权利要求2所述的基于人工智能的藏头对联生成方法,其特征在于,所述计算所述藏头字集中每个关键字分别作为藏头对联的上联首字和下联首字的首字概率的步骤之后,所述方法还包括步骤:
比较所述藏头字集中各关键字对应的首字概率与预设的概率阈值的大小;
提取大于等于概率阈值的关键字对应的首字概率,生成关于所述关键字的首字概率的概率集合。
4.根据权利要求1所述的基于人工智能的藏头对联生成方法,其特征在于,所述基于所述候选上联集和所述下联句首为每一条上联生成至少一条匹配的下联的步骤包括:
通过所述seq2seq模型中的编码器将所述候选上联集中的每一条上联分别编码为一个语义向量;
通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联。
5.根据权利要求4所述的基于人工智能的藏头对联生成方法,其特征在于,所述通过所述seq2seq模型中的解码器基于attention机制对所述语义向量进行解码,并结合输入的所述下联句首为所述候选上联集中的每一条上联均生成至少一条匹配的下联的步骤包括:
读取预设的集束搜索算法中的集束宽度;
采用集束搜索算法基于所述语义向量和所述下联句首,为所述候选上联集中的每一条上联均生成数量对应于所述集束宽度的下联。
6.根据权利要求1所述的基于人工智能的藏头对联生成方法,其特征在于,所述基于预设的评分规则对组合后的对联进行质量评分的步骤之前,所述方法还包括步骤:
从预设的因子库中选取若干个用于评价对联质量的评分因子,所述评分因子至少包括:上下联字数是否相同、上下联中是否出现重复字、上下联对应位置处的字是否相同、上下联词性是否相同和上下联韵律是否协调;
为选取的评分因子分配权重以配置为评分公式,将所述评分公式作为预设的评分规则。
7.根据权利要求1至6任意一项所述的基于人工智能的藏头对联生成方法,其特征在于,所述输出其中所述质量评分最高的一副对联的步骤之后,所述方法还包括步骤:
将已输出的所述质量评分最高的一副对联记为首选对联,将未输出的若干副对联记为候选对联;
计算每副候选对联与所述首选对联之间的相似度;
当接收到用于更换对联的用户指令后,响应于所述用户指令输出与所述首选对联相似度最低的一副候选对联。
8.一种基于人工智能的藏头对联生成装置,其特征在于,包括:
数据接收模块,用于接收目标用户输入的包括若干个关键字的藏头字集;
文本提取模块,用于从所述藏头字集中提取出第一文本和第二文本,分别作为藏头对联的上联句首与下联句首,其中,所述第一文本与第二文本中关键字的数量差小于等于1;
上联生成模块,用于调用预设的神经网络模型,将所述上联句首输入所述神经网络模型,获取由所述神经网络模型输出的包括至少一条上联的候选上联集;
下联生成模块,用于调用seq2seq模型并输入所述候选上联集和所述下联句首,基于所述候选上联集和所述下联句首为每一条上联生成至少1条匹配的下联;
对联输出模块,用于将所述上联和下联组合成对联输出,其中,若上联与下联组合为多副对联,便基于预设的评分规则对组合后的多副对联进行质量评分后,输出其中所述质量评分最高的一副对联。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任意一项所述的基于人工智能的藏头对联生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-7中任意一项所述的基于人工智能的藏头对联生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910907644.1A CN110837546A (zh) | 2019-09-24 | 2019-09-24 | 基于人工智能的藏头对联生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910907644.1A CN110837546A (zh) | 2019-09-24 | 2019-09-24 | 基于人工智能的藏头对联生成方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110837546A true CN110837546A (zh) | 2020-02-25 |
Family
ID=69574577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910907644.1A Pending CN110837546A (zh) | 2019-09-24 | 2019-09-24 | 基于人工智能的藏头对联生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110837546A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797611A (zh) * | 2020-07-24 | 2020-10-20 | 中国平安人寿保险股份有限公司 | 对联生成模型、对联生成方法、装置、计算机设备及介质 |
CN111984783A (zh) * | 2020-08-28 | 2020-11-24 | 达闼机器人有限公司 | 文本生成模型的训练方法、文本生成方法及相关设备 |
CN114417893A (zh) * | 2021-12-08 | 2022-04-29 | 成都理工大学 | 一种语言对联信息处理系统、方法及构建方法 |
CN116011430A (zh) * | 2023-03-22 | 2023-04-25 | 暗链科技(深圳)有限公司 | 韵脚去重方法、非易失性可读存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705784A (zh) * | 2017-09-28 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
US20180165288A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Dynamic Tensor Attention for Information Retrieval Scoring |
CN108228571A (zh) * | 2018-02-01 | 2018-06-29 | 北京百度网讯科技有限公司 | 对联的生成方法、装置、存储介质及终端设备 |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
CN109766355A (zh) * | 2018-12-28 | 2019-05-17 | 上海汇付数据服务有限公司 | 一种支持自然语言的数据查询方法和系统 |
-
2019
- 2019-09-24 CN CN201910907644.1A patent/CN110837546A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180165288A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Dynamic Tensor Attention for Information Retrieval Scoring |
CN107705784A (zh) * | 2017-09-28 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
CN108228571A (zh) * | 2018-02-01 | 2018-06-29 | 北京百度网讯科技有限公司 | 对联的生成方法、装置、存储介质及终端设备 |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
CN109766355A (zh) * | 2018-12-28 | 2019-05-17 | 上海汇付数据服务有限公司 | 一种支持自然语言的数据查询方法和系统 |
Non-Patent Citations (1)
Title |
---|
HAOSHEN FAN ET AL: "Automatic Acrostic Couplet Generation with Three-Stage Neural Network Pipelines", 《ARXIV:1906.09321V1[CS.CL]》, pages 1 - 11 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797611A (zh) * | 2020-07-24 | 2020-10-20 | 中国平安人寿保险股份有限公司 | 对联生成模型、对联生成方法、装置、计算机设备及介质 |
CN111797611B (zh) * | 2020-07-24 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 对联生成模型、对联生成方法、装置、计算机设备及介质 |
CN111984783A (zh) * | 2020-08-28 | 2020-11-24 | 达闼机器人有限公司 | 文本生成模型的训练方法、文本生成方法及相关设备 |
CN111984783B (zh) * | 2020-08-28 | 2024-04-02 | 达闼机器人股份有限公司 | 文本生成模型的训练方法、文本生成方法及相关设备 |
CN114417893A (zh) * | 2021-12-08 | 2022-04-29 | 成都理工大学 | 一种语言对联信息处理系统、方法及构建方法 |
CN116011430A (zh) * | 2023-03-22 | 2023-04-25 | 暗链科技(深圳)有限公司 | 韵脚去重方法、非易失性可读存储介质及电子设备 |
CN116011430B (zh) * | 2023-03-22 | 2024-04-02 | 暗链科技(深圳)有限公司 | 韵脚去重方法、非易失性可读存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
US11449678B2 (en) | Deep learning based dialog method, apparatus, and device | |
CN110837546A (zh) | 基于人工智能的藏头对联生成方法、装置、设备及介质 | |
CN107134279B (zh) | 一种语音唤醒方法、装置、终端和存储介质 | |
CN110263150B (zh) | 文本生成方法、装置、计算机设备及存储介质 | |
CN109783655A (zh) | 一种跨模态检索方法、装置、计算机设备和存储介质 | |
CN104735468B (zh) | 一种基于语义分析将图像合成新视频的方法及系统 | |
US11749255B2 (en) | Voice question and answer method and device, computer readable storage medium and electronic device | |
WO2023024975A1 (zh) | 文本处理方法、装置和电子设备 | |
CN112653798A (zh) | 智能客服语音应答方法、装置、计算机设备及存储介质 | |
CN111695338A (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
CN113342968B (zh) | 文本摘要提取方法及装置 | |
CN111159358A (zh) | 多意图识别训练和使用方法及装置 | |
US11036996B2 (en) | Method and apparatus for determining (raw) video materials for news | |
CN110808032A (zh) | 一种语音识别方法、装置、计算机设备及存储介质 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN112417121A (zh) | 客户意图识别方法、装置、计算机设备及存储介质 | |
CN113420212A (zh) | 基于深度特征学习的推荐方法、装置、设备及存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN116980538A (zh) | 一种视频生成方法、装置、设备、介质及程序产品 | |
CN114817478A (zh) | 基于文本的问答方法、装置、计算机设备及存储介质 | |
CN118070072A (zh) | 基于人工智能的问题处理方法、装置、设备及存储介质 | |
CN112100491A (zh) | 基于用户数据的信息推荐方法、装置、设备及存储介质 | |
CN112199954A (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN112417875A (zh) | 配置信息的更新方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |