CN110852086B - 基于人工智能的古诗词生成方法、装置、设备及存储介质 - Google Patents

基于人工智能的古诗词生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110852086B
CN110852086B CN201910881511.1A CN201910881511A CN110852086B CN 110852086 B CN110852086 B CN 110852086B CN 201910881511 A CN201910881511 A CN 201910881511A CN 110852086 B CN110852086 B CN 110852086B
Authority
CN
China
Prior art keywords
poetry
character
characters
predicted
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910881511.1A
Other languages
English (en)
Other versions
CN110852086A (zh
Inventor
邓黎明
庄伯金
王少军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910881511.1A priority Critical patent/CN110852086B/zh
Priority to PCT/CN2019/116923 priority patent/WO2021051516A1/zh
Publication of CN110852086A publication Critical patent/CN110852086A/zh
Application granted granted Critical
Publication of CN110852086B publication Critical patent/CN110852086B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于人工智能的古诗词生成方法、装置、设备及存储介质,所述方法包括:获取古诗词生成请求中包含的关键词,根据关键词,确定生成古诗词的目标类型,将关键词输入到预设的Transformer模型中,并依据目标类型,生成诗词初稿,再使用预训练的语言模型进行遮挡训练,得到临时诗词初稿,将临时诗词初稿中的每个预测文字与对应的遮挡文字对比,若存在预测文字与遮挡文字不同,则继续对临时诗词初稿进行迭代遮挡预测,直到每个预测文字与对应的遮挡文字均相同,将得到的临时诗词初稿作为目标诗词。通过循环迭代地方式和预训练的语言模型,依次对临时诗词初稿中每个文字进行遮挡预测,实现每个文字根据整体语境不断更新,提高了生成古诗词的质量。

Description

基于人工智能的古诗词生成方法、装置、设备及存储介质
技术领域
本发明涉及人工智能领域,尤其涉及一种基于人工智能的古诗词生成方法、装置、设备及存储介质。
背景技术
诗词是中文独有的一种文体,有特殊的格式及韵律。诗按音律分,可分为古体诗和近体诗两类。古体诗和近体诗是唐代形成的概念,是从诗的音律角度来划分的,其在世界文化史上具有重要意义。
中文古诗词自动生成方法经历了由基于模板的生成方法到基于统计机器翻译的方法再到基于神经网络和变分自动编码器等方法的演变过程。现有的中文古诗词自动生成系统,主要是基于循环神经网络和变分自动编码器等方式实现的。循环神经网络在生成诗词的连贯性上比之前的方法有一定的提高,但是其特征提取和长距离表征方面仍然具有较大的局限,使得生成的诗词语义方面较弱,且前后联系不紧密,生成的诗的主题不明确。变分自动编码器在主题一致性上取得一定的效果,但是生成结果不稳定。
目前这些自动诗词生成的生成方式都是单向的,诗句前面字词的生成没有考虑到诗句后面字词的影响,一旦诗句中前面的字生成太差,就没法改正,使得现有的方式自动生成诗词的质量不高。
发明内容
本发明实施例提供一种基于人工智能的古诗词生成方法、装置、计算机设备和存储介质,以提高自动生成古诗词的质量。
一种基于人工智能的古诗词生成方法,包括:
若接收到客户端发送的古诗词生成请求,则获取所述古诗词生成请求中包含的关键词;
根据所述关键词,确定生成古诗词的目标类型;
将所述关键词输入到预设的Transformer模型中,并依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿;
使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对所述遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿;
针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果;
若存在至少一个所述对比结果为预测文字与遮挡文字不同,则继续使用所述预训练的语言模型,对所述临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿;
返回所述针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果的步骤继续执行,直到每个所述对比结果均为所述预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。
一种基于人工智能的古诗词生成装置,包括:
关键字获取模块,用于若接收到客户端发送的古诗词生成请求,则获取所述古诗词生成请求中包含的关键词;
类型确定模块,用于根据所述关键词,确定生成古诗词的目标类型;
初稿生成模块,用于将所述关键词输入到预设的Transformer模型中,并依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿;
文字推敲模块,用于使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对所述遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿;
文字对比模块,用于针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果;
文字更新模块,用于若存在至少一个所述对比结果为预测文字与遮挡文字不同,则继续使用所述预训练的语言模型,对所述临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿;
迭代推敲模块,用于返回所述针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果的步骤继续执行,直到每个所述对比结果均为所述预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于人工智能的古诗词生成方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于人工智能的古诗词生成方法的步骤。
本发明实施例提供的基于人工智能的古诗词生成方法、装置、计算机设备及存储介质,一方面,在接收到客户端发送的古诗词生成请求时,获取古诗词生成请求中包含的关键词,进而根据关键词,确定生成古诗词的目标类型,再将关键词输入到预设的Transformer模型中,并依据目标类型,通过预设的Transformer模型生成诗词初稿,使得根据目标类型和预设的Transformer模型生成的诗词初稿,与关键字的契合程度更高,有利于提高生成的古诗词的质量,另一方面,使用预训练的语言模型,依次对诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿,使用所有未遮挡文字,对遮挡文字进行预测,得到与其他未遮挡文字语境更为契合的预测文字,进而针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果,若存在至少一个对比结果为预测文字与遮挡文字不同,则继续使用预训练的语言模型,对临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿,返回针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果的步骤继续执行,直到每个对比结果均为预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。通过循环迭代地方式和预训练的语言模型,依次对临时诗词初稿中每个文字进行遮挡预测,实现每个文字根据整体语境不断更新,使得得到的目标诗词中每个文字与其他文字均具有较高的契合度提高了生成古诗词的质量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于人工智能的古诗词生成方法的应用环境示意图;
图2是本发明实施例提供的基于人工智能的古诗词生成方法的实现流程图;
图3是本发明实施例提供的基于人工智能的古诗词生成方法中步骤S20的实现流程图;
图4是本发明实施例提供的基于人工智能的古诗词生成方法的另一实现流程图;
图5是本发明实施例提供的基于人工智能的古诗词生成方法中步骤S30的实现流程图;
图6是本发明实施例提供的基于人工智能的古诗词生成方法中步骤S40的实现流程图;
图7是本发明实施例提供的基于人工智能的古诗词生成装置的示意图;
图8是本发明实施例提供的计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1示出本发明实施例提供的基于人工智能的古诗词生成方法的应用环境。该基于人工智能的古诗词生成方法应用在人工智能领域的古诗词生成场景中。该古诗词生成场景包括服务端和客户端,其中,服务端和客户端之间通过网络进行连接,客户端向服务端发送包含关键词的古诗词生成请求,服务端获取该关键词并自动生成古诗词。客户端具体可以但不限于是各种手机、个人计算机、平板电脑和带有网络通讯功能的智能设备,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。
请参阅图2,图2示出本发明实施例提供的一种基于人工智能的古诗词生成方法,以该方法应用在图1中的服务端为例进行说明,详述如下:
S10:若接收到客户端发送的古诗词生成请求,则获取古诗词生成请求中包含的关键词。
具体地,在需要进行诗词生成时,客户端获取用户拟定的关键词,并根据该关键词生成诗词生成请求,将该诗词生成请求通过网络传输协议发送给服务端,服务端接收该诗词生成请求后,获取该关键词。
其中,关键词是指用于表达待生成的诗词主题的词语,关键词具体可以是一个,也可以是多个,例如,在一具体实施方式中,关键词为“月亮”,在另一具体实施方式中,关键词为“惆怅”、“秋”和“菊花”。
S20:根据关键词,确定生成古诗词的目标类型。
具体地,本实施例中的诗词包括不同类型,在进诗词生成之前,根据关键词和预设的类型确定方式,确定生成诗词的目标类型。
其中,生成诗词的类型包括但不限于:五言绝句、五言律诗、七言绝句、七言律诗和宋词等,目标类型为生成诗词的类型中的一种。
其中,预设的类型确定方式,可以根据实际需求进行设定,此处不做限制。例如,步骤S21至步骤S23所示的确定生成古诗词的目标类型的方法。
S30:将关键词输入到预设的Transformer模型中,并依据目标类型,通过预设的Transformer模型生成诗词初稿。
具体地,将关键词输入到预设的Transformer模型中,并依据步骤S20中确定的目标类型,通过预设的Transformer模型生成诗词初稿。
其中,Transformer模型是一款开源的自然语言处理框架,完全抛弃了之前其它模型引入注意力机制后仍然保留的循环与卷积结构,在任务表现、并行能力和易于训练性方面都有大幅提升,因此也成为了后续机器翻译和其它许多文本理解任务的重要基准模型。
Transformer模型为古诗词的生成提供了一种全新的解决方案:注意力模块。注意模块不是逐个地处理表征,而是接收一整段表征,并使用三个可训练的权重矩阵——查询(Query),键(Key)和值(Value)来一次性学习所有输入表征之间的依赖关系。这三个权重矩阵构成了注意力头(Attention Head)。Transformer网络由多个层组成,每个层都有几个注意力头(和附加层),用于学习表征之间的不同关系。具体也可以参考步骤S31至步骤S32的描述。
需要说明的是,在本实施例中,可预先通过诗词语料库对Transformer模型进行训练,得到更适合古诗词生成的Transformer模型,具体过程可参考步骤S81至步骤S84的描述,为避免重复,此处不再赘述。
S40:使用预训练的语言模型,依次对诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿。
具体地,按照诗词从前到后的顺序,依次遮挡每个字,并采用预训练的语言模型对该字进行预测,并使用预测字替换诗词初稿中该位置的字,得到临时诗词初稿。
其中,预训练的语言模型包括但不限于:深度语义表征(Embedding fromLanguage Model,ELMo)算法、OpenAI GPT和预训练双向编码器语义(BidirectionalEncoder Representations from Transformers,BERT)模型。
优选地,在本实施例中采用BERT模型作为预训练模型。
其中,BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即:文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。在本实施例中,主要通过遮挡(MASK)来对诗词初稿中的每个字进行预测并替换,进而使用替换后的字继续预测,得到临时诗词初稿。
其中,NLP(Natural Language Processing)又称自然语言处理,由于理解(understanding)自然语言,需要关于外在世界的广泛知识以及运用操作这些知识的能力,自然语言认知,同时也被视为一个人工智能完备(AI-complete)的问题。NLP任务主要是指涉及到自然语言的语义理解或解析的一些任务,常见的NLP任务包括但不限于:语音识别(Speech recognition)、中文自动分词(Chinese word segmentation)、词性标注(Part-of-speech tagging)、文本分类(Text categorization)、句法分析(Parsing)、自动摘要(Automatic summarization)、问答系统(Question answering)和信息抽取(Informationextraction)等。
表一
Figure BDA0002206052400000081
Figure BDA0002206052400000091
S50:针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果。
具体地,对于临时诗词初稿中的每个预测文字,将该预测文字与对应的遮挡文字进行对比,看两者是否相同,得到对比结果,其中,对比结果包括:预测文字与遮挡文字不同、预测文字与遮挡文字相同。
继续以步骤S40中的示例为例,易理解地,在对比结果中,第二个预测文字和第十个预测文字对应的对比结果为预测文字与遮挡文字不同,其他预测文字对应的对比结果预测文字与遮挡文字相同。
S60:若存在至少一个对比结果为预测文字与遮挡文字不同,则继续使用预训练的语言模型,对临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿。
具体地,在存在至少一个对比结果为预测文字与遮挡文字不同时,确认该临时诗词初稿中的文字还可进一步推敲,继续使用预训练的语言模型,对临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿。
继续以步骤S50中的示例为例,在该示例中,第二个预测文字和第十个预测文字对应的对比结果为预测文字与遮挡文字不同,因而,需要使用预设的语言遮挡模型,对得到的临时诗词初稿再次进行遮挡预测,也即,对“秋色从西来苍凉满关东”进行继续遮挡预测,得到更新后的临时诗词初稿为“秋色从西来凄凉满关中”。
S70:返回针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果的步骤继续执行,直到每个对比结果均为预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。
具体地,返回到步骤S50继续执行比较,在对比结果中存在预测文字与遮挡文字时,继续对文字进行遮挡迭代推敲,直到每个对比结果均为预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。
继续以步骤S60中的示例为例,对“秋色从西来苍凉满关东”与“秋色从西来凄凉满关中”中每个位置的预测文字与遮挡文字进行比较,得到比较结果中,存在预测文字与遮挡文字不同,因而,继续使用预训练的语言模型进行遮挡预测,直到循环到第4次,得到的语句为“秋色从西来苍然满关中”,对该诗句进行遮挡预测,得到的为“秋色从西来苍然满关中”,每个预测文字与该预测文字对应的遮挡文字均相同,将此时得到的临时诗词初稿作为目标诗词,如表二所示。
表二
Figure BDA0002206052400000101
Figure BDA0002206052400000111
在本实施例中,在接收到客户端发送的古诗词生成请求时,获取古诗词生成请求中包含的关键词,进而根据关键词,确定生成古诗词的目标类型,再将关键词输入到预设的Transformer模型中,并依据目标类型,通过预设的Transformer模型生成诗词初稿,使用预训练的语言模型,依次对诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿,针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果,若存在至少一个对比结果为预测文字与遮挡文字不同,则继续使用预训练的语言模型,对临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿,返回针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果的步骤继续执行,直到每个对比结果均为预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。实现对生成的诗词初稿中每个文字,均为针对上下文语义进行反复推敲得到,提高了生成古诗词的质量。
在图2对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S20中所提及的根据关键词,确定生成古诗词的目标类型的具体实现方法进行详细说明。
请参阅图3,图3示出了本发明实施例提供的步骤S20的具体实现流程,详述如下:
S21:对关键词进行词性判断,得到每个关键词对应的词性。
具体地,使用预设的词性标注算法,对关键词进行词性判断,得到每个关键词对应的词性。
其中,预设的词性标注算法包括但不限于:成分似然性自动词性标注系统(Contituent-Likelihood Automatic Word-tagging System,CLAWS)、VOLSUNGA词性标注算法、N-Gram算法等。
S22:获取词性为形容词的关键词,作为判别关键词。
具体地,获取步骤S21中,词性为形容词的关键词,作为用于进行诗词类型确定的判别关键词。
S23:计算判别关键词的数量占所有关键词的数量的比例,并将比例与预设阈值进行比较,根据得到的比较结果,确定生成诗词的目标类型。
具体地,通过设定形容词所占的比例,在所输入的关键词中形容词适中的情况下,生成七言绝句或七言律诗,在所输入的关键词中形容词较多的情况下,生成宋词,以使所生成的诗歌更加内容丰富。其中,形容词所占的比例可根据实际需求进行调整,在完成形容词所占的比例的设定后,将自动根据关键词中形容词所占的比例,对所输入的关键词进行分类,并根据所分类别确定生成的目标类型。
在本实施例中,对关键词进行词性判断,得到每个关键词对应的词性,再获取词性为形容词的关键词,作为判别关键词,进而计算判别关键词的数量占所有关键词的数量的比例,并将比例与预设阈值进行比较,根据得到的比较结果,确定生成诗词的类型。得到与关键字较为匹配的诗词类型,以使后续通过该目标类型进行诗词的生成,有利于提高生成的古诗词的质量。
在一实施例中,在步骤S30之前,该基于人工智能的古诗词生成方法还包括对预设的Transformer模型的训练过程,请参阅图4,图4示出了本发明实施例提供的对预设的Transformer模型的训练过程的具体实现流程,详述如下:
S81:从预设的诗词语料库中获取训练样本,其中,训练样本包括诗词样本以及诗词样本对应的关键词样本。
具体地,服务端存储有预设的诗词语料库,该诗词语料库中包含唐宋元明清时期的大量古诗词,从该预设的诗词语料库中获取训练样本,来对初始Transformer模型进行训练。
其中训练样本包括诗词样本以及诗词样本对应的关键词样本。诗词样本具体是指预设的诗词语料库中的古诗词的诗句或者词句,诗词样本对应的关键词样本是通过对古诗词进行解析后,贴上的对应的关键词标签。
S82:将关键词样本输入到初始Transformer模型中,初始Transformer模型包括编码器、注意力机制和解码器。
具体地,将关键词样本输入到初始Transformer模型中,初始Transformer模型包括编码器、注意力机制和解码器。
其中,本实施例中的编码器是用于将诗句、词句或者关键字,转换为对应的词向量,并将每个词向量转化为Query向量、Key向量和Value向量,以便后续通过注意力机制为这些词向量生成权重,保留对上下文语义影响较大的词向量,过滤掉对上下文语义影响较小的词向量。
其中,注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。
注意力机制包括但不限于:多头注意力、键值对注意力和结构化注意力等,优选地,本实施例采用键值对注意力机制,通过使用键值对(Key-Value pair)格式来表示输入信息,其中“键”用来计算注意力分布,“值”用来生成选择的信息。
S83:通过解码器,对关键词样本进行解码,得到关键词样本对应的数据特征,并采用注意力机制对数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句。
具体地,通过解码器,对关键词样本进行解码,得到关键词样本对应的数据特征,并采用注意力机制对数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句。
S84:采用预设的损失函数计算预测语句与诗词样本的损失,并根据损失,采用梯度下降的方式,更新初始Transformer模型的参数,并继续进行初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为预设的Transformer模型。
具体地,采用预设的损失函数计算预测语句与诗词样本的损失,并根据损失,采用梯度下降的方式,更新初始Transformer模型的参数,并继续进行初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为预设的Transformer模型。
在本实施例中,从预设的诗词语料库中获取训练样本,其中,训练样本包括诗词样本以及诗词样本对应的关键词样本,再将关键词样本输入到初始Transformer模型中,初始Transformer模型包括编码器、注意力机制和解码器,进而通过解码器,对关键词样本进行解码,得到关键词样本对应的数据特征,并采用注意力机制对数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句,最后采用预设的损失函数计算预测语句与诗词样本的损失,并根据损失,采用梯度下降的方式,更新初始Transformer模型的参数,并继续进行初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为预设的Transformer模型。使得后续可通过该预设的Transformer模型进行诗词初稿的生成,节约了后续生成诗词初稿的时间,有利于提高古诗词自动生成的效率。
在图4对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S30中所提及的将关键词输入到预设的Transformer模型中,并依据目标类型,通过预设的Transformer模型生成诗词初稿的具体实现方法进行详细说明。
请参阅图5,图5示出了本发明实施例提供的步骤S30的具体实现流程,详述如下:
S31:获取目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量。
具体地,在服务端预设有每个诗词类型对应的古诗词包含的句子数量,以及,每个句子包含的文字数量,在得到目标类型后,获取目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量。
例如,在一具体实施方式中,获取到的目标类似为五言绝句,从服务端中获取五言绝句对应的句子数量为4句,每句包含的文字数量为5个。
S32:将关键词输入到预设的Transformer模型中,使用解码器,生成与文字数量相同字数的句子,并根据与文字数量相同字数的句子生成下一句诗词,直到生成诗词的句子数量达到目标数量,得到诗词初稿。
具体地,将关键词输入到预设的Transformer模型中,使用解码器,生成与文字数量相同字数的句子,并根据与文字数量相同字数的句子生成下一句诗词,直到生成诗词的句子数量达到目标数量,得到诗词初稿。
在本实施例中,获取目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量,再根据目标数量和每个句子对应的文字数量,使用预设的Transformer模型生成诗词初稿,实现诗词初稿的自动生成。
在图2对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S40中所提及的使用预训练的语言模型,依次对诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿的具体实现方法进行详细说明。
请参阅图5,图5示出了本发明实施例提供的步骤S40的具体实现流程,详述如下:
S41:将诗词初稿中的第一个字作为遮挡字,并使用BERT模型根据遮挡字之外的字对诗词初稿中的遮挡字进行预测,将预测结果替换诗词初稿中的第一个字,得到更新后的诗词初稿。
具体地,将诗词初稿中的第一个字作为遮挡字,并使用BERT模型根据遮挡字之外的字对诗词初稿中的遮挡字进行预测,将预测结果替换诗词初稿中的第一个字,得到更新后的诗词初稿。
其中,BERT模型是一种开源的自然语言处理模型,其权重预先通过两个无监督任务学习到,这两个任务分别是遮蔽语言模型(Masked Language Model,MLM)和下句一句预测(Next SentencePrediction)。
S42:使用遮挡字的下一个字作为更新后的遮挡字,并使用BERT模型根据更新后的遮挡字之外的字对更新后的诗词初稿中更新后的遮挡字进行预测,将预测结果替换更新后的遮挡字,得到更新后的诗词初稿。
具体地,使用遮挡字的下一个字作为更新后的遮挡字,并使用BERT模型根据更新后的遮挡字之外的字对更新后的诗词初稿中更新后的遮挡字进行预测,将预测结果替换更新后的遮挡字,得到更新后的诗词初稿。
S43:迭代执行上述遮挡更新过程,直到遮挡字为更新后的诗词初稿中的最后一个字为止,将此时得到的更新后的诗词初稿作为临时诗词初稿。
具体地,采用步骤S42的方式,依次对诗词初稿中的每个文字进行遮挡更新,直到最后一个文字被更新之后,得到临时诗词初稿。
在本实施例中,将诗词初稿中的第一个字作为遮挡字,并使用BERT模型根据遮挡字之外的字对诗词初稿中的遮挡字进行预测,将预测结果替换诗词初稿中的第一个字,得到更新后的诗词初稿,再使用遮挡字的下一个字作为更新后的遮挡字,并进行迭代遮挡预测,直到遮挡字为更新后的诗词初稿中的最后一个字为止,得到临时诗词初稿。实现对诗词初稿中的每个文字均进行一次结合上下文推敲,使得得到的临时诗词初稿较诗词初稿质量更高。
在一实施例中,在步骤S70之后,该基于人工智能的古诗词生成方法还包括:
采用预设质量评估方式,对目标诗词进行评分,得到目标评分,根据目标评分与预设质量等级对应的评分区间,确定目标诗词的质量。
其中,预设质量评估方式包括但不限于:双语评估替换法(Bilingual EvaluationUnderstudy,BLUE)和语言模型评价指标Perplexity等。
优选地,本实施例采用语言模型评价指标Perplexity对目标诗词进行评分。
在本实施例中,采用预设质量评估方式,对目标诗词进行评分,得到目标评分,根据目标评分与预设质量等级对应的评分区间,确定目标诗词的质量,实现对生成古诗词质量进行客观的评估。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
图7示出与上述实施例基于人工智能的古诗词生成方法一一对应的基于人工智能的古诗词生成装置的原理框图。如图7所示,该基于人工智能的古诗词生成装置包括关键字获取模块10、类型确定模块20、初稿生成模块30、文字推敲模块40、文字对比模块50、文字更新模块60和迭代推敲模块70。各功能模块详细说明如下:
关键字获取模块10,用于若接收到客户端发送的古诗词生成请求,则获取古诗词生成请求中包含的关键词;
类型确定模块20,用于根据关键词,确定生成古诗词的目标类型;
初稿生成模块30,用于将关键词输入到预设的Transformer模型中,并依据目标类型,通过预设的Transformer模型生成诗词初稿;
文字推敲模块40,用于使用预训练的语言模型,依次对诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿;
文字对比模块50,用于针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果;
文字更新模块60,用于若存在至少一个对比结果为预测文字与遮挡文字不同,则继续使用预训练的语言模型,对临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿;
迭代推敲模块70,用于返回针对临时诗词初稿中的每个预测文字,将预测文字与预测文字对应的遮挡文字进行对比,得到预测文字对应的对比结果的步骤继续执行,直到每个对比结果均为预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词。
进一步地,类型确定模块20包括:
词性判断单元,用于对关键词进行词性判断,得到每个关键词对应的词性;
关键字确定单元,用于获取词性为形容词的关键词,作为判别关键词;
类型确定单元,用于计算判别关键词的数量占所有关键词的数量的比例,并将比例与预设阈值进行比较,根据得到的比较结果,确定生成诗词的类型。
该基于人工智能的古诗词生成装置,还包括:
样本获取模块,用于从预设的诗词语料库中获取训练样本,其中,训练样本包括诗词样本以及诗词样本对应的关键词样本;
样本输入模块,用于将关键词样本输入到初始Transformer模型中,初始Transformer模型包括编码器、注意力机制和解码器;
模拟生成模块,用于通过解码器,对关键词样本进行解码,得到关键词样本对应的数据特征,并采用注意力机制对数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句;
参数更新模块,用于采用预设的损失函数计算预测语句与诗词样本的损失,并根据损失,采用梯度下降的方式,更新初始Transformer模型的参数,并继续进行初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为预设的Transformer模型。
进一步地,初稿生成模块30包括:
数量确定单元,用于获取目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量;
初稿确定单元,用于将关键词输入到预设的Transformer模型中,使用解码器,生成与文字数量相同字数的句子,并根据与文字数量相同字数的句子生成下一句诗词,直到生成诗词的句子数量达到目标数量,得到诗词初稿。
进一步地,预训练的语言模型为BERT模型,文字推敲模块40包括:
第一推敲单元,用于将诗词初稿中的第一个字作为遮挡字,并使用BERT模型根据遮挡字之外的字对诗词初稿中的遮挡字进行预测,将预测结果替换诗词初稿中的第一个字,得到更新后的诗词初稿;
第二推敲单元,用于使用遮挡字的下一个字作为更新后的遮挡字,并使用BERT模型根据更新后的遮挡字之外的字对更新后的诗词初稿中更新后的遮挡字进行预测,将预测结果替换更新后的遮挡字,得到更新后的诗词初稿;
迭代推敲单元,用于迭代执行上述遮挡更新过程,直到遮挡字为更新后的诗词初稿中的最后一个字为止,将此时得到的更新后的诗词初稿作为临时诗词初稿。
进一步地,该基于人工智能的古诗词生成装置还包括:
质量评分模块,用于采用预设质量评估方式,对目标诗词进行评分,得到目标评分,根据目标评分与预设质量等级对应的评分区间,确定目标诗词的质量。
关于基于人工智能的古诗词生成装置的具体限定可以参见上文中对于基于人工智能的古诗词生成方法的限定,在此不再赘述。上述基于人工智能的古诗词生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图8是本发明一实施例提供的计算机设备的示意图。该计算机设备可以是服务端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储预设的Transformer模型、预训练的语言模型和预设的诗词语料库。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的古诗词生成方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例基于人工智能的古诗词生成方法的步骤,例如图2所示的步骤S10至步骤S70。或者,处理器执行计算机程序时实现上述实施例基于人工智能的古诗词生成装置的各模块/单元的功能,例如图7所示的模块10至模块70的功能。为避免重复,这里不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
在一实施例中,提供一计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例基于人工智能的古诗词生成方法的步骤,或者,该计算机程序被处理器执行时实现上述实施例基于人工智能的古诗词生成装置中各模块/单元的功能。为避免重复,这里不再赘述。
可以理解地,所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号和电信信号等。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于人工智能的古诗词生成方法,其特征在于,所述基于人工智能的古诗词生成方法包括:
若接收到客户端发送的古诗词生成请求,则获取所述古诗词生成请求中包含的关键词;
根据所述关键词,确定生成古诗词的目标类型;
将所述关键词输入到预设的Transformer模型中,并依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿;
使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿;
针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果;
若存在至少一个所述对比结果为预测文字与遮挡文字不同,则继续使用所述预训练的语言模型,对所述临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿;
返回所述针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果的步骤继续执行,直到每个所述对比结果均为所述预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词;
其中,所述根据所述关键词,确定生成古诗词的目标类型包括:对所述关键词进行词性判断,得到每个关键词对应的词性;获取所述词性为形容词的关键词,作为判别关键词;计算所述判别关键词的数量占所有关键词的数量的比例,并将所述比例与预设阈值进行比较,根据得到的比较结果,确定生成诗词的所述目标类型;
所述将所述关键词输入到预设的Transformer模型中,依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿包括:获取所述目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量;将所述关键词输入到预设的Transformer模型中的解码器,生成与所述文字数量相同字数的句子,并根据所述与所述文字数量相同字数的句子生成下一句诗词,直到生成诗词的句子数量达到所述目标数量,得到所述诗词初稿;
所述预训练的语言模型为BERT模型,所述使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿包括:将所述诗词初稿中的第一个字作为遮挡字,并使用所述BERT模型根据遮挡字之外的字对所述诗词初稿中的遮挡字进行预测,将预测结果替换所述诗词初稿中的第一个字,得到更新后的诗词初稿;使用所述遮挡字的下一个字作为更新后的遮挡字,并使用所述BERT模型根据更新后的遮挡字之外的字对所述更新后的诗词初稿中更新后的遮挡字进行预测,将预测结果替换所述更新后的遮挡字,得到更新后的诗词初稿;迭代执行上述遮挡更新过程,直到所述遮挡字为所述更新后的诗词初稿中的最后一个字为止,将此时得到的更新后的诗词初稿作为所述临时诗词初稿。
2.如权利要求1所述的基于人工智能的古诗词生成方法,其特征在于,在所述将所述关键词输入到预设的Transformer模型中,并依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿之前,所述基于人工智能的古诗词生成方法还包括:
从预设的诗词语料库中获取训练样本,其中,所述训练样本包括诗词样本以及所述诗词样本对应的关键词样本;
将所述关键词样本输入到初始Transformer模型中,所述初始Transformer模型包括编码器、注意力机制和解码器;
通过所述解码器,对所述关键词样本进行解码,得到所述关键词样本对应的数据特征,并采用注意力机制对所述数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句;
采用预设的损失函数计算所述预测语句与所述诗词样本的损失,并根据所述损失,采用梯度下降的方式,更新所述初始Transformer模型的参数,并继续进行所述初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为所述预设的Transformer模型。
3.如权利要求1或2所述的基于人工智能的古诗词生成方法,其特征在于,在所述返回所述针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果的步骤继续执行,直到每个所述对比结果均为所述预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词之后,所述基于人工智能的古诗词生成方法还包括:
采用预设质量评估方式,对所述目标诗词进行评分,得到目标评分,根据所述目标评分与预设质量等级对应的评分区间,确定所述目标诗词的质量。
4.一种基于人工智能的古诗词生成装置,其特征在于,包括:
关键字获取模块,用于若接收到客户端发送的古诗词生成请求,则获取所述古诗词生成请求中包含的关键词;
类型确定模块,用于根据所述关键词,确定生成古诗词的目标类型;
初稿生成模块,用于将所述关键词输入到预设的Transformer模型中,并依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿;
文字推敲模块,用于使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿;
文字对比模块,用于针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果;
文字更新模块,用于若存在至少一个所述对比结果为预测文字与遮挡文字不同,则继续使用所述预训练的语言模型,对所述临时诗词初稿进行遮挡预测,得到更新后的临时诗词初稿;
迭代推敲模块,用于返回所述针对所述临时诗词初稿中的每个预测文字,将所述预测文字与所述预测文字对应的遮挡文字进行对比,得到所述预测文字对应的对比结果的步骤继续执行,直到每个所述对比结果均为所述预测文字与对应的遮挡文字相同,将此时得到的临时诗词初稿作为目标诗词;
其中,所述类型确定模块在根据所述关键词,确定生成古诗词的目标类型时,具体用于:对所述关键词进行词性判断,得到每个关键词对应的词性;获取所述词性为形容词的关键词,作为判别关键词;计算所述判别关键词的数量占所有关键词的数量的比例,并将所述比例与预设阈值进行比较,根据得到的比较结果,确定生成诗词的所述目标类型;
所述初稿生成模块在将所述关键词输入到预设的Transformer模型中,依据所述目标类型,通过所述预设的Transformer模型生成诗词初稿时,具体用于:获取所述目标类型对应的古诗词的句子数量,作为目标数量,并获取每个句子对应的文字数量;将所述关键词输入到预设的Transformer模型中的解码器,生成与所述文字数量相同字数的句子,并根据所述与所述文字数量相同字数的句子生成下一句诗词,直到生成诗词的句子数量达到所述目标数量,得到所述诗词初稿;
所述文字推敲模块使用的预训练的语言模型为BERT模型,所述文字推敲模块在使用预训练的语言模型,依次对所述诗词初稿的每个文字进行遮挡,根据未遮挡文字对遮挡文字进行预测,并使用得到的预测文字替换遮挡文字,得到临时诗词初稿时,具体用于:将所述诗词初稿中的第一个字作为遮挡字,并使用所述BERT模型根据遮挡字之外的字对所述诗词初稿中的遮挡字进行预测,将预测结果替换所述诗词初稿中的第一个字,得到更新后的诗词初稿;使用所述遮挡字的下一个字作为更新后的遮挡字,并使用所述BERT模型根据更新后的遮挡字之外的字对所述更新后的诗词初稿中更新后的遮挡字进行预测,将预测结果替换所述更新后的遮挡字,得到更新后的诗词初稿;迭代执行上述遮挡更新过程,直到所述遮挡字为所述更新后的诗词初稿中的最后一个字为止,将此时得到的更新后的诗词初稿作为所述临时诗词初稿。
5.如权利要求4所述的基于人工智能的古诗词生成装置,其特征在于,还包括:
样本获取模块,用于从预设的诗词语料库中获取训练样本,其中,所述训练样本包括诗词样本以及所述诗词样本对应的关键词样本;
样本输入模块,用于将所述关键词样本输入到初始Transformer模型中,所述初始Transformer模型包括编码器、注意力机制和解码器;
模拟生成模块,用于通过所述解码器,对所述关键词样本进行解码,得到所述关键词样本对应的数据特征,并采用注意力机制对所述数据特征进行语义特征提取,将提取到的语义特征输入到解码器中,通过解码器得到下一句的预测语句;
参数更新模块,用于采用预设的损失函数计算所述预测语句与所述诗词样本的损失,并根据所述损失,采用梯度下降的方式,更新所述初始Transformer模型的参数,并继续进行所述初始Transformer模型的参数迭代更新,直到计算出的损失达到小于预设阈值,将此时得到的初始Transforer模型作为所述预设的Transformer模型。
6.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述的基于人工智能的古诗词生成方法。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述的基于人工智能的古诗词生成方法。
CN201910881511.1A 2019-09-18 2019-09-18 基于人工智能的古诗词生成方法、装置、设备及存储介质 Active CN110852086B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910881511.1A CN110852086B (zh) 2019-09-18 2019-09-18 基于人工智能的古诗词生成方法、装置、设备及存储介质
PCT/CN2019/116923 WO2021051516A1 (zh) 2019-09-18 2019-11-10 基于人工智能的古诗词生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910881511.1A CN110852086B (zh) 2019-09-18 2019-09-18 基于人工智能的古诗词生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110852086A CN110852086A (zh) 2020-02-28
CN110852086B true CN110852086B (zh) 2022-02-08

Family

ID=69595519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910881511.1A Active CN110852086B (zh) 2019-09-18 2019-09-18 基于人工智能的古诗词生成方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN110852086B (zh)
WO (1) WO2021051516A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368056B (zh) * 2020-03-04 2023-09-29 北京香侬慧语科技有限责任公司 一种古诗词生成方法和装置
CN111444695B (zh) * 2020-03-25 2022-03-01 腾讯科技(深圳)有限公司 基于人工智能的文本生成方法、装置、设备及存储介质
CN111444679B (zh) * 2020-03-27 2024-05-24 北京小米松果电子有限公司 诗词生成方法及装置、电子设备、存储介质
CN112199949B (zh) * 2020-09-07 2024-04-19 咪咕文化科技有限公司 诗词创作的辅助方法、电子设备及存储介质
CN112036192A (zh) * 2020-09-25 2020-12-04 北京小米松果电子有限公司 古诗词生成方法、装置及存储介质
CN112287678A (zh) * 2020-11-03 2021-01-29 沈阳雅译网络技术有限公司 一种基于预训练模型的古体诗自动生成方法
CN112699231A (zh) * 2020-12-25 2021-04-23 科讯嘉联信息技术有限公司 基于滑窗相关性计算和Copy机制的工单摘要总结方法
CN113591472B (zh) * 2021-01-21 2023-10-20 腾讯科技(深圳)有限公司 歌词生成方法、歌词生成模型训练方法、装置及电子设备
CN114818676A (zh) * 2021-01-29 2022-07-29 北京搜狗科技发展有限公司 一种诗词生成方法、装置和介质
CN114818675A (zh) * 2021-01-29 2022-07-29 北京搜狗科技发展有限公司 一种诗词生成方法、装置和介质
CN112836519A (zh) * 2021-02-08 2021-05-25 网易(杭州)网络有限公司 文本生成模型的训练方法、文本生成方法及装置
CN113051877B (zh) * 2021-03-11 2023-06-16 杨虡 一种文本内容生成方法、装置、电子设备及存储介质
CN113143289A (zh) * 2021-03-31 2021-07-23 华南理工大学 一种可互联互动的智能脑波音乐耳机
CN113051897B (zh) * 2021-05-25 2021-09-10 中国电子科技集团公司第三十研究所 一种基于Performer结构的GPT2文本自动生成方法
CN113204969A (zh) * 2021-05-31 2021-08-03 平安科技(深圳)有限公司 医疗命名实体识别模型的生成方法、装置和计算机设备
CN113554168A (zh) * 2021-06-29 2021-10-26 北京三快在线科技有限公司 模型训练、向量生成方法、装置、电子设备及存储介质
CN113947060A (zh) * 2021-10-19 2022-01-18 北京有竹居网络技术有限公司 文本转换方法、装置、介质及电子设备
CN114332260B (zh) * 2021-12-29 2024-06-21 北京大学 基于分块编码与Transformer的中文字形字库自动生成方法及系统
CN114495129B (zh) * 2022-04-18 2022-09-09 阿里巴巴(中国)有限公司 文字检测模型预训练方法以及装置
CN114998482A (zh) * 2022-06-13 2022-09-02 厦门大学 文字艺术图案智能生成方法
CN115470354B (zh) * 2022-11-03 2023-08-22 杭州实在智能科技有限公司 基于多标签分类识别嵌套和重叠风险点的方法及系统
CN116070643B (zh) * 2023-04-03 2023-08-15 武昌理工学院 一种古文到英文的固定风格翻译方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227714A (zh) * 2016-07-14 2016-12-14 北京百度网讯科技有限公司 一种基于人工智能的获取生成诗词的关键词的方法和装置
CN108415893A (zh) * 2018-03-15 2018-08-17 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN109582952A (zh) * 2018-10-31 2019-04-05 腾讯科技(深圳)有限公司 诗歌生成方法、装置、计算机设备和介质
CN110134968A (zh) * 2019-05-22 2019-08-16 网易(杭州)网络有限公司 基于深度学习的诗歌生成方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955964B (zh) * 2016-06-13 2019-11-22 北京百度网讯科技有限公司 一种自动生成诗歌的方法和装置
WO2019026087A1 (en) * 2017-07-31 2019-02-07 Kulkarni Hrishikesh PREDICTION SYSTEM BASED ON INTELLIGENT CONTEXT
CN108874779B (zh) * 2018-06-21 2021-09-21 东北大学 基于K8s集群建立的依图写诗系统的控制方法
CN110097085B (zh) * 2019-04-03 2023-04-14 阿里巴巴集团控股有限公司 歌词文本生成方法、训练方法、装置、服务器及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227714A (zh) * 2016-07-14 2016-12-14 北京百度网讯科技有限公司 一种基于人工智能的获取生成诗词的关键词的方法和装置
CN108415893A (zh) * 2018-03-15 2018-08-17 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN109582952A (zh) * 2018-10-31 2019-04-05 腾讯科技(深圳)有限公司 诗歌生成方法、装置、计算机设备和介质
CN110134968A (zh) * 2019-05-22 2019-08-16 网易(杭州)网络有限公司 基于深度学习的诗歌生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110852086A (zh) 2020-02-28
WO2021051516A1 (zh) 2021-03-25

Similar Documents

Publication Publication Date Title
CN110852086B (zh) 基于人工智能的古诗词生成方法、装置、设备及存储介质
KR102577514B1 (ko) 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체
JP7346609B2 (ja) 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法
CN110069709B (zh) 意图识别方法、装置、计算机可读介质及电子设备
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
CN109840287A (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN108628935B (zh) 一种基于端到端记忆网络的问答方法
CN104735468B (zh) 一种基于语义分析将图像合成新视频的方法及系统
CN111143576A (zh) 一种面向事件的动态知识图谱构建方法和装置
CN112101041B (zh) 基于语义相似度的实体关系抽取方法、装置、设备及介质
US20210374343A1 (en) Method and apparatus for obtaining word vectors based on language model, device and storage medium
CN109582952B (zh) 诗歌生成方法、装置、计算机设备和介质
CN111666401A (zh) 基于图结构的公文推荐方法、装置、计算机设备及介质
CN114580382A (zh) 文本纠错方法以及装置
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
CN111046679A (zh) 翻译模型的质量信息获取方法、装置及计算机设备
CN109978139B (zh) 图片自动生成描述的方法、系统、电子装置及存储介质
WO2020149959A1 (en) Conversion of natural language query
CN111767394A (zh) 一种基于人工智能专家系统的摘要提取方法及装置
CN111552798B (zh) 基于名称预测模型的名称信息处理方法、装置、电子设备
CN110059224B (zh) 投影仪设备的视频检索方法、装置、设备及存储介质
US9286289B2 (en) Ordering a lexicon network for automatic disambiguation
CN115248855B (zh) 文本处理方法及装置、电子设备、计算机可读存储介质
CN110852066B (zh) 一种基于对抗训练机制的多语言实体关系抽取方法及系统
CN113590797A (zh) 一种智能运维客服系统及实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant