CN110287489A - 文本生成方法、装置、存储介质和电子设备 - Google Patents

文本生成方法、装置、存储介质和电子设备 Download PDF

Info

Publication number
CN110287489A
CN110287489A CN201910550390.2A CN201910550390A CN110287489A CN 110287489 A CN110287489 A CN 110287489A CN 201910550390 A CN201910550390 A CN 201910550390A CN 110287489 A CN110287489 A CN 110287489A
Authority
CN
China
Prior art keywords
sentence
article
model
information
paragraph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910550390.2A
Other languages
English (en)
Other versions
CN110287489B (zh
Inventor
张锐
刘浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dami Technology Co Ltd
Original Assignee
Beijing Dami Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dami Technology Co Ltd filed Critical Beijing Dami Technology Co Ltd
Priority to CN201910550390.2A priority Critical patent/CN110287489B/zh
Publication of CN110287489A publication Critical patent/CN110287489A/zh
Priority to PCT/CN2020/081005 priority patent/WO2020258948A1/zh
Application granted granted Critical
Publication of CN110287489B publication Critical patent/CN110287489B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种文本生成方法、装置、存储介质和电子设备,其中,该方法包括:获取主题信息;将主题信息输入到预训练的机器学习模型,以生成与主题信息对应的文章,该学习模型包括第一模型、第二模型和第三模型,其中:第一模型基于主题信息的特征信息,计算第一语义向量,并基于第一语义向量输出文字序列,作为文章的第1个句子;第二模型被迭代执行以基于文章的第N个句子的特征信息,计算第二语义向量,并基于第二语义向量输出文字序列,作为文章的第N+1个句子,N≥1,且N为正整数;第三模型根据预定判断条件判断第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;响应于生成的文章达到阈值,输出文章。

Description

文本生成方法、装置、存储介质和电子设备
技术领域
本发明公开涉及信息处理领域,具体涉及一种文本生成方法、装置、存储介质和电子设备。
背景技术
目前,在人工智能(Artificial Intelligence,AI)领域,AI写作虽然还处于科技前沿的话题,但是国内外都有了一些尝试,例如,在比较模版化的内容生产领域,AI写作主要尝试应用于体育新闻、时事新闻等;在有较大自由空间的领域,AI写作主要尝试应用于写诗、对联、科幻小说等。
然而,对于特定话题生成文章领域,AI写作仍然具有较大的难度,主要问题在于应用AI写作生成的文章架构不清晰,且语句之间不够通顺,这给用户带来了较差的体验感。
发明内容
有鉴于此,本发明实施例提供一种文本生成方法、装置、存储介质和电子设备,以解决现有技术中的AI写作生成的文章由于架构不清晰且语句之间不够通顺从而给用户带来较差体验感的问题。
根据本发明实施例的第一方面,提供一种文本生成方法,该方法包括:获取主题信息;将所述主题信息输入到预先训练的机器学习模型,以生成与所述主题信息对应的文章,所述机器学习模型包括第一模型、第二模型和第三模型,其中:所述第一模型基于所述主题信息的特征信息,计算第一语义向量,并基于所述第一语义向量,输出第一文字序列,作为所述文章的第1个句子;所述第二模型被迭代执行以基于所述文章的第N个句子的特征信息,计算第二语义向量,并基于所述第二语义向量,输出第二文字序列,作为所述文章的第N+1个句子,N≥1,且N为正整数;所述第三模型根据预定判断条件判断所述第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;响应于生成的文章达到阈值,输出所述文章。
根据本发明实施例的第二方面,提供一种文本生成装置,该装置包括:信息获取单元,用于获取主题信息;信息输入单元,用于将所述主题信息输入到预先训练的机器学习模型,以生成与所述主题信息对应的文章,所述机器学习模型包括第一模型、第二模型和第三模型,其中:所述第一模型,用于基于所述主题信息的特征信息,计算第一语义向量,并基于所述第一语义向量,输出第一文字序列,作为所述文章的第1个句子;所述第二模型,用于被迭代执行以基于所述文章的第N个句子的特征信息,计算第二语义向量,并基于所述第二语义向量,输出第二文字序列,作为所述文章的第N+1个句子,N≥1,且N为正整数;所述第三模型,用于根据预定判断条件判断所述第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;文章输出单元,用于响应于生成的文章达到阈值,输出所述文章。
根据本发明实施例的第三方面,提供一种计算机可读存储介质,其上存储计算机程序指令,其中,所述计算机程序指令在被处理器执行时实现如第一方面所述的方法。
根据本发明实施例的第四方面,提供一种电子设备,包括存储器和处理器,其中,所述存储器用于存储一条或多条计算机程序指令,其中,所述一条或多条计算机程序指令被所述处理器执行以实现如第一方面所述的方法。
本发明实施例通过将获取的主题信息输入至机器学习模型,机器学习模型的第一模型根据主题信息生成文章首句,之后第二模型根据生成的上句来生成下一句,以此来生成文章句子,第三模型根据预定判断条件判断第二模型生成的每个句子是否为段落尾句,如果判断结果为是,则确定该句子为段落尾句,当生成的文章达到阈值时,表示文章生成完毕,此时输出文章。通过本发明实施例,可以较好地解决文章语句衔接问题,可以生成逻辑较清晰语句较通顺的文章,克服了现有技术中的由于架构不清晰且语句之间不够通顺从而给用户带来较差体验感的问题,通过本发明实施例,可以提高用户的体验感。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述以及其它目的、特征和优点将更为清楚,在附图中:
图1是根据本发明实施例的文本生成方法的流程图;
图2是根据本发明实施例的文本生成方法的详细流程图;
图3是根据本发明实施例的文本生成装置的结构框图;
图4是根据本发明实施例的文本生成装置的详细结构框图;
图5是根据本发明实施例的第一模型训练单元309的结构框图;
图6是根据本发明实施例的第二模型训练单元310的结构框图;
图7是根据本发明实施例的第三模型训练单元311的结构框图;
图8是根据本发明实施例的电子设备的示意图。
具体实施方式
以下基于实施例对本发明进行描述,但是本发明并不仅仅限于这些实施例。在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。为了避免混淆本发明的实质,公知的方法、过程、流程、元件和电路并没有详细叙述。
此外,本领域普通技术人员应当理解,在此提供的附图都是为了说明的目的,并且附图不一定是按比例绘制的。
除非上下文明确要求,否则整个说明书和权利要求书中的“包括”、“包含”等类似词语应当解释为包含的含义而不是排他或穷举的含义;也就是说,是“包括但不限于”的含义。
在本发明的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本发明实施例提供一种文本生成方法,图1是该方法的流程图,如图1所示,该方法包括:
步骤101,获取主题信息;
步骤102,将主题信息输入到预先训练的机器学习模型,以生成与主题信息对应的文章,该机器学习模型(以下可以简称为学习模型)包括第一模型、第二模型和第三模型,其中:第一模型基于主题信息的特征信息,计算第一语义向量,并基于第一语义向量,输出第一文字序列,作为生成文章的第1个句子;第二模型被迭代执行以基于文章的第N个句子的特征信息,计算第二语义向量,并基于第二语义向量,输出第二文字序列,作为文章的第N+1个句子,N为大于等于1的正整数;第三模型根据预定判断条件判断第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;
步骤103,响应于生成的文章达到阈值,输出文章。
在实际操作中,对获取到的主题信息,可以通过分词等处理得到该主题信息的特征信息,之后根据特征信息计算对应的语义向量,该语义向量用于表示主题信息的特征信息,之后基于该语义向量输出文字序列,作为文章的第1个句子;类似地,第二模型根据第1个句子,通过获取该第1个句子的特征信息计算对应的语义向量,该语义向量表示第1个句子的特征信息,之后基于该语义向量输出文字序列,作为文章的第2个句子;第三模型根据预定判断条件来判断该第2个句子是否为尾句,当判断结果为否定时,继续执行第二模型,第二模型根据第2个句子的特征信息计算对应的语义向量,并据此输出文字序列作为第3个句子,之后第三模型执行判断操作,依次类推,来生成文章。
本发明实施例通过将获取的主题信息输入至学习模型,学习模型的第一模型根据主题信息生成文章首句,第二模型通过根据生成的上句生成下一句来生成文章句子,第三模型根据预定判断条件判断第二模型生成的每个句子是否为段落尾句,如果判断结果为是,则确定该句子为段落尾句,当生成的文章达到阈值时,表示文章生成完毕,此时输出文章。通过本发明实施例,可以较好地解决文章语句衔接问题,可以生成逻辑较清晰语句较通顺的文章,克服了现有技术中的由于架构不清晰且语句之间不够通顺从而给用户带来较差体验感的问题,通过本发明实施例,可以提高用户的体验感。
步骤103中的阈值可以是预定字数或者预定句子数量,也就是说,当生成的文章达到预定字数或者预定句子数量时,文章生成完毕,此时可以输出该文章。这里的阈值可以根据经验值而定。
在本文中,涉及到的文章,一般是指文章草稿,后续还需要用户进行完善,通过本发明实施例生成的文章,可以解决格式化编写文章的构思、搜集素材数据,段落编排等重复性高的工作,对最终定稿文章具有辅助作用。
在实际操作中,首先需要建立语料库,并通过语料库对上述学习模型进行训练,之后将主题信息输入到训练好的学习模型中,就可以生成与主题信息相关的文章。
在一个实施例中,建立语料库,首先需要获取多篇现有文章;并对各篇现有文章进行预处理,预处理包括:对各现有文章进行分段处理、对各段落中的句子位置进行标识、将各句子进行词向量转换处理等;之后,根据预处理后的多篇现有文章就可以建立语料库。
具体而言,语料库中可以包含多个领域的文章库,对于构造某一领域的文章库,可以先对文章进行分段和分句的预处理,同时保留句子和句子的关系以及在段落中的位置,生成基础语料库。之后,对基础语料库再进行预处理,主要包括两个部分:(1)、为了能够识别段落信息,需要对文章句子进行位置标识,例如,文章首句标识为0,段尾句子标识为1,其他句子标识为2;(2)、通过结巴分词,将各句子变换为词向量。这样,预处理后就形成语料库,可以用于训练学习模型。
在具体实施过程中,使用语料库中的文章标题和首句信息作为训练集来对第一模型进行训练。具体而言,训练第一模型主要包括:先获取语料库中的各现有文章标题信息和对应现有文章的首句信息;根据各现有文章标题信息和对应现有文章的首句信息建立标题首句映射关系;之后根据标题首句映射关系来训练第一模型。该第一模型可以使用seq2seq(Sequence-to-sequence,序列到序列)模型。
第二模型可以使用语料库中的相同段落中的前后句(即,第i句和第i+1句,i≥1,且i为正整数)作为训练集来对第二模型进行训练。具体地,训练第二模型主要包括:获取语料库中的各现有文章每个段落中的前后句信息;根据各现有文章每个段落中的前后句信息建立前后句映射关系;根据相同段落中的前后句映射关系来训练第二模型。该第二模型可以使用seq2seq模型。
第三模型可以使用语料库中各文章段落的句子及其位置标识作为训练集对模型进行训练。具体地,训练第三模型主要包括:获取语料库中的各现有文章每个段落中的句子信息和该句子在段落中的位置信息(例如,位置标识);根据各现有文章每个段落中的句子信息和该句子在段落中的位置信息建立段落尾句映射关系;根据段落尾句映射关系来训练第三模型。该第三模型可以使用逻辑回归模型,作为段落尾句的预测模型。
这里的段落尾句映射关系可以通过预定词或者句子位置信息来反映,例如,当句子中含有“总之”这类词时,则该句子可能是段落尾句;或者该句子为段落中的第5个句子时,该句子可能是段落尾句。
学习模型训练完成之后,就可以构建应用场景。给出一个主题,第一模型根据该主题的特性信息计算对应的语义向量,之后基于该语义向量输出文字序列,作为文章首句,之后第二模型根据首句的特征信息计算对应的语义向量,之后基于该语义向量输出文字序列,作为第二个句子,第三模型根据预定判断条件,例如,句子中是否含有预定词语(例如,总之)或者该句子的位置信息(例如,该句子是段落中的第5句),来判断第二模型生成的第二个句子是否为段落尾句,如果判断结果为非段落尾句,则第二模型继续生成第三个句子,此时第三模型继续对该第三个句子进行判断,循环使用第二模型和第三模型来生成和判断句子,当第三模型判断生成的句子为段落尾句时,此时开启新段,继续循环使用第二模型和第三模型来生成文章句子和段落,直到满足设定的终止条件,例如,生成的文章达到预定字数或者预定句子数量,之后输出生成的文章,以便用户查阅修改。
图2是根据本发明实施例的文本生成方法的流程图,如图2所示,该流程包括三个部分,以下分别描述这三个部分。
第一部分:语料库搭建
通过获取现有文章并对现有文章进行分段、分句、位置标识等预处理,进行语料库的搭建。
第二部分:模型构建和训练
通过根据语料库中的信息来构建和训练三个模型,具体包括:
第一模型选用Seq2seq模型,用于根据标题信息生成文章首句,可以将语料库中的各现有文章标题信息和对应现有文章的首句信息作为训练集数据,来训练该模型;
第二模型选用Seq2seq模型,用于根据已生成的句子生成下一句句子,即,根据前一个句子生成后一个句子,可以将语料库中的各现有文章每个段落中的前后句信息作为训练集,来训练该模型;
第三模型选用Logistics(逻辑回归)模型,用于根据句子信息及其位置信息判断第二模型生成的句子是否为段落尾句,可以将现有文章每个段落中的句子信息和该句子在段落中的位置信息作为训练集,来训练该模型。
第三部分:应用
在上述模型训练完成之后,具体应用包括如下步骤:
步骤201,第一模型获取文章标题信息;
步骤202,第一模型根据获取的文章标题信息,通过分词等处理得到该标题信息的特征信息,之后根据特征信息计算对应的语义向量,该语义向量用于表示主题信息的特征信息,之后基于该语义向量输出文字序列,作为文章首句;
步骤203,第二模型获取文章首句信息;
步骤204,第二模型根据文章首句的特征信息,计算对应的语义向量,之后基于该语义向量输出文字序列,作为文章的第2个句子,之后根据已生成的第2句生成第3句,依次类推来生成多个句子;也就是说,第二模型根据已生成的文章第i句的信息生成第i+1句;
步骤205,第三模型判断第二模型生成的句子是否为段落尾句,当判断为段落尾句时,进行步骤206,否则返回到步骤204;
步骤206,当判断为段落尾句时,判断文章是否生成完成,如果是,则进行步骤208,否则进行步骤207;
步骤207,开启新段,并返回步骤204;
步骤208,输出文章。
在步骤205中,第三模型可以根据已生成句子的信息,例如,“总之”、“综上”等词语来判断该句子是否为段尾,或者也可以根据该段落的句子数量来判断,例如,该段落已经有5个句子,则可以判断第5个句子为段尾。这里的句子数量值可以根据语料库中的现有文章段落句子数量均值而定,也可以根据实际经验值而定。
在一个实例中,第三模型以第二模型生成的句子为输入信息,根据输入的句子,输出该句子为段尾的概率,该概率值大于阈值(例如,0.5)时,则可以判断该句子为段尾。例如,当输入的句子中含有“总之”、或“因此”等词时,输出该句子为段尾的概率为0.8,此时,可以判断该输入句子为段尾。或者,也可以根据输入句子的位置信息来判断该句子是否为段尾,例如,当输入句子的位置信息显示为第5句时,可以判断该句子为段尾。
在步骤206中,可以根据已生成的文章字数或者文章句子数量来判断文章是否生成完成,当生成的文章字数达到预定值(例如,2000字)或者句子数量达到预定值(例如,100句)时,可以判断文章已经生成完成。这里的预定值可以根据语料库中的现有文章字数或者句子数量均值而定,也可以根据实际经验值而定。
本发明实施例还提供一种文本生成装置,优选地可用于实现上述实施例中的方法。图3是该文本生成装置的结构框图,如图3所示,该装置包括:信息获取单元301、信息输入单元302和文章输出单元303,其中:
信息获取单元301,用于获取主题信息;
信息输入单元302,用于将主题信息输入到预先训练的机器学习模型,以生成与主题信息对应的文章,该机器学习模型包括第一模型、第二模型和第三模型,其中:第一模型,用于基于主题信息的特征信息,计算第一语义向量,并基于第一语义向量,输出第一文字序列,作为文章的第1个句子;第二模型,用于被迭代执行以基于文章的第N个句子的特征信息,计算第二语义向量,并基于第二语义向量,输出第二文字序列,作为文章的第N+1个句子,N≥1,且N为正整数;第三模型,用于根据预定判断条件判断第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;这里的预定判断条件包括第N+1个句子中是否含有预定词语、或者段落句子数量是否达到预定数量;
文章输出单元303,用于响应于生成的文章达到阈值,输出文章。这里的阈值可以是预定字数或者预定句子数量,也就是说,当生成的文章达到预定字数或者预定句子数量时,文章生成完毕,此时可以输出该文章。这里的阈值可以根据经验值而定。
通过信息输入单元302将信息获取单元301获取的主题信息输入至学习模型,学习模型的第一模型根据主题信息生成文章首句,之后第二模型根据文章首句生成第二句,再根据第二句生成第三句,以此类推,第二模型通过根据生成的上句生成下一句来生成文章句子,第三模型根据预定判断条件判断第二模型生成的每个句子是否为段落尾句,如果判断结果为是,则确定该句子为段落尾句,当生成的文章达到阈值时,表示文章生成完毕,此时文章输出单元303输出文章。通过本发明实施例,可以较好地解决文章语句衔接问题,可以生成逻辑较清晰语句较通顺的文章,克服了现有技术中的由于架构不清晰且语句之间不够通顺从而给用户带来较差体验感的问题,通过本发明实施例,可以提高用户的体验感。
如图4所示,该装置还包括:判断单元304和段落开启控制单元305,其中:
判断单元304,用于根据上述阈值,判断为段落尾句的第N+1个句子是否为文章尾句;
段落开启控制单元305,用于响应于第N+1个句子为非文章尾句,控制开启新段落。
也就是说,在第三模型判断第N+1个句子为段落尾句之后,判断单元304还需要判断该第N+1个句子是否为文章尾句,当判断结果为第N+1个句子为非文章尾句,段落开启控制单元305控制开启新段落,之后继续执行第二模型和第三模型生成文章句子,直到判断单元304判断生成的句子为文章尾句为止,此时文章输出单元303输出文章。
参见图4,该装置还包括:现有文章获取单元306、预处理单元307和语料库建立单元308,其中:
现有文章获取单元306,用于获取多篇现有文章;
预处理单元307,用于对各篇现有文章进行预处理,所述预处理包括:对各现有文章进行分段处理、对各段落中的句子位置进行标识、将各句子进行词向量转换处理;
语料库建立单元308,用于根据预处理后的多篇现有文章建立语料库。
通过现有文章获取单元306、预处理单元307和语料库建立单元308建立的语料库,可以用于训练学习模型。
参见图4,该装置还包括:第一模型训练单元309、第二模型训练单元310和第三模型训练单元311,其中:第一模型训练单元309,用于训练第一模型;第二模型训练单元310,用于训练第二模型;第三模型训练单元311,用于训练第三模型。以下分别详细描述这三个模型训练单元。
如图5所示,第一模型训练单元309包括:第一信息获取模块3091、第一映射关系建立模块3092和第一模型训练模块3093,其中:
第一信息获取模块3091,用于获取语料库中的各现有文章标题信息和该现有文章的首句信息;
第一映射关系建立模块3092,用于根据各现有文章标题信息和该现有文章的首句信息建立标题首句映射关系;
第一模型训练模块3093,用于根据标题首句映射关系来训练第一模型。优选地,第一模型可以为seq2seq模型。
如图6所示,第二模型训练单元310包括:第二信息获取模块3101、第二映射关系建立模块3102和第二模型训练模块3103,其中:
第二信息获取模块3101,用于获取语料库中的各现有文章每个段落中的前后句信息,前后句表示段落中的第i句和第i+1句,i≥1,且i为正整数;
第二映射关系建立模块3102,用于根据各现有文章每个段落中的前后句信息建立前后句映射关系;
第二模型训练模块3103,用于根据前后句映射关系来训练第二模型。优选地,第二模型可以为seq2seq模型。
如图7所示,第三模型训练单元311包括:第三信息获取模块3111、第三映射关系建立模块3112和第三模型训练模块3113,其中:
第三信息获取模块3111,用于获取语料库中的各现有文章每个段落中的句子信息和该句子在段落中的位置信息;
第三映射关系建立模块3112,用于根据各现有文章每个段落中的句子信息和该句子在段落中的位置信息生成段落尾句预测信息;
第三模型训练模块3113,用于根据段落尾句预测信息来训练第三模型。优选地,第三模型为逻辑回归模型。
通过上述各模块,可以完成对学习模型中三个模型的训练,训练完成之后,就可以进行应用。例如,给出一个主题,信息获取单元301获取主题信息,信息输入单元302将主题信息输入到学习模型,第一模型根据获取的主题信息,通过分词等处理得到该主题信息的特征信息,之后根据特征信息计算对应的语义向量,该语义向量用于表示主题信息的特征信息,之后基于该语义向量输出文字序列,作为文章首句,之后第二模型根据文章首句的特征信息,计算对应的语义向量,之后基于该语义向量输出文字序列,作为第二个句子,第三模型根据预定判断条件,例如,句子中是否含有预定词语(例如,总之)或者该句子的位置信息,来判断第二模型生成的第二个句子是否为段落尾句,如果判断结果为非段落尾句,则第二模型继续生成第三个句子,此时第三模型继续对该第三个句子进行判断,第二模型和第三模型循环执行来生成和判断句子,当第三模型判断生成的句子为段落尾句时,此时开启新段,继续循环执行第二模型和第三模型来生成文章句子和段落,直到满足设定的终止条件,例如,生成的文章达到预定字数或者预定句子数量,之后文章输出单元303输出生成的文章,以便用户查阅修改。
上述各单元、各模块的具体执行过程,可以参见上述方法实施例中的描述,此处不再赘述。
图8是本发明实施例的电子设备的示意图。图8所示的电子设备为通用数据处理装置,其包括通用的计算机硬件结构,其至少包括处理器801和存储器802。处理器801和存储器802通过总线803连接。存储器802适于存储处理器801可执行的一条或多条指令或程序。该一条或多条指令或程序被处理器801执行上述方法实施例中的步骤。上述处理器801可以是独立的微处理器,也可以是一个或者多个微处理器集合。由此,处理器801通过执行存储器802所存储的命令,从而执行如上所述的本发明实施例的方法流程实现对于数据的处理和对于其他装置的控制。总线803将上述多个组件连接在一起,同时将上述组件连接到显示控制器804和显示装置以及输入/输出(I/O)装置805。输入/输出(I/O)装置805可以是鼠标、键盘、调制解调器、网络接口、触控输入装置、体感输入装置、打印机以及本领域公知的其他装置。典型地,输入/输出(I/O)装置805通过输入/输出(I/O)控制器806与系统相连。
其中,存储器802可以存储软件组件,例如操作系统、通信模块、交互模块以及应用程序。以上所述的每个模块和应用程序都对应于完成一个或多个功能和在发明实施例中描述的方法的一组可执行程序指令。
综上所述,本发明实施例提供了一种智能生成文章的方案,通过对现有文章进行预处理后生成语料库,并通过语料库对学习模型进行训练,使得学习模型可以根据给出的主题信息生成相应的文章,可以解决文章作者编写时需要整理思路、搜集素材等大量重复性高的工作,通过本发明实施例,可以较好地解决文章语句衔接问题,可以生成逻辑较清晰语句较通顺的文章,克服了现有技术中的由于架构不清晰且语句之间不够通顺从而给用户带来较差体验感的问题,因而通过本发明实施例,可以提高用户的体验感。
上述根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应理解,流程图和/或框图的每个块以及流程图图例和/或框图中的块的组合可以由计算机程序指令来实现。这些计算机程序指令可以被提供至通用计算机、专用计算机或其它可编程数据处理设备的处理器,以产生机器,使得(经由计算机或其它可编程数据处理设备的处理器执行的)指令创建用于实现流程图和/或框图块或块中指定的功能/动作的装置。
同时,如本领域技术人员将意识到的,本发明实施例的各个方面可以被实现为系统、方法或计算机程序产品。因此,本发明实施例的各个方面可以采取如下形式:完全硬件实现方式、完全软件实现方式(包括固件、常驻软件、微代码等)或者在本文中通常可以都称为“电路”、“模块”或“系统”的将软件方面与硬件方面相结合的实现方式。此外,本发明的方面可以采取如下形式:在一个或多个计算机可读介质中实现的计算机程序产品,计算机可读介质具有在其上实现的计算机可读程序代码。
可以利用一个或多个计算机可读介质的任意组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以是如(但不限于)电子的、磁的、光学的、电磁的、红外的或半导体系统、设备或装置,或者前述的任意适当的组合。计算机可读存储介质的更具体的示例(非穷尽列举)将包括以下各项:具有一根或多根电线的电气连接、便携式计算机软盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪速存储器)、光纤、便携式光盘只读存储器(CD-ROM)、光存储装置、磁存储装置或前述的任意适当的组合。在本发明实施例的上下文中,计算机可读存储介质可以为能够包含或存储由指令执行系统、设备或装置使用的程序或结合指令执行系统、设备或装置使用的程序的任意有形介质。
计算机可读信号介质可以包括传播的数据信号,所述传播的数据信号具有在其中如在基带中或作为载波的一部分实现的计算机可读程序代码。这样的传播的信号可以采用多种形式中的任何形式,包括但不限于:电磁的、光学的或其任何适当的组合。计算机可读信号介质可以是以下任意计算机可读介质:不是计算机可读存储介质,并且可以对由指令执行系统、设备或装置使用的或结合指令执行系统、设备或装置使用的程序进行通信、传播或传输。
用于执行针对本发明各方面的操作的计算机程序代码可以以一种或多种编程语言的任意组合来编写,所述编程语言包括:面向对象的编程语言如Java、Smalltalk、C++、PHP、Python等;以及常规过程编程语言如“C”编程语言或类似的编程语言。程序代码可以作为独立软件包完全地在用户计算机上、部分地在用户计算机上执行;部分地在用户计算机上且部分地在远程计算机上执行;或者完全地在远程计算机或服务器上执行。在后一种情况下,可以将远程计算机通过包括局域网(LAN)或广域网(WAN)的任意类型的网络连接至用户计算机,或者可以与外部计算机进行连接(例如通过使用因特网服务供应商的因特网)。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (13)

1.一种文本生成方法,其特征在于,所述方法包括:
获取主题信息;
将所述主题信息输入到预先训练的机器学习模型,以生成与所述主题信息对应的文章,所述机器学习模型包括第一模型、第二模型和第三模型,其中:
所述第一模型基于所述主题信息的特征信息,计算第一语义向量,并基于所述第一语义向量,输出第一文字序列,作为所述文章的第1个句子;
所述第二模型被迭代执行以基于所述文章的第N个句子的特征信息,计算第二语义向量,并基于所述第二语义向量,输出第二文字序列,作为所述文章的第N+1个句子,N≥1,且N为正整数;
所述第三模型根据预定判断条件判断所述第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;
响应于生成的文章达到阈值,输出所述文章。
2.根据权利要求1所述的文本生成方法,其特征在于,响应于生成的文章达到阈值,输出所述文章包括:
响应于生成的文章达到预定字数或者预定句子数量,输出所述文章。
3.根据权利要求1所述的文本生成方法,其特征在于,在获取主题信息之前,所述方法还包括:
获取多篇现有文章;
对各篇现有文章进行预处理,所述预处理包括:对各篇现有文章进行分段处理、对各段落中的句子位置进行标识、将各句子进行词向量转换处理;
根据预处理后的多篇现有文章建立语料库。
4.根据权利要求3所述的文本生成方法,其特征在于,所述机器学习模型通过所述语料库来训练。
5.根据权利要求4所述的文本生成方法,其特征在于,通过如下方式来训练所述第一模型:
获取所述语料库中的各现有文章标题信息和该现有文章的首句信息;
根据所述各现有文章标题信息和该现有文章的首句信息建立标题首句映射关系;
根据所述标题首句映射关系来训练所述第一模型。
6.根据权利要求4所述的文本生成方法,其特征在于,通过如下方式来训练所述第二模型:
获取所述语料库中的各现有文章每个段落中的前后句信息,所述前后句表示段落中的第i句和第i+1句,i≥1,且i为正整数;
根据所述各现有文章每个段落中的前后句信息建立前后句映射关系;
根据所述前后句映射关系来训练所述第二模型。
7.根据权利要求4所述的文本生成方法,其特征在于,通过如下方式来训练所述第三模型:
获取所述语料库中的各现有文章每个段落中的句子信息和该句子在段落中的位置信息;
根据所述各现有文章每个段落中的句子信息和该句子在段落中的位置信息生成段落尾句预测信息;
根据所述段落尾句预测信息来训练所述第三模型。
8.根据权利要求1所述的文本生成方法,其特征在于,所述预定判断条件包括以下至少之一:
所述第N+1个句子中是否含有预定词语、段落句子数量是否达到预定数量。
9.根据权利要求1所述的文本生成方法,其特征在于,在所述第三模型确定该第N+1个句子为段落尾句之后,所述方法还包括:
根据所述阈值,判断所述第N+1个句子是否为文章尾句;
响应于所述第N+1个句子为非文章尾句,开启新段落。
10.根据权利要求1所述的文本生成方法,其特征在于,所述第一模型和第二模型为序列到序列模型,所述第三模型为逻辑回归模型。
11.一种文本生成装置,其特征在于,所述装置包括:
信息获取单元,用于获取主题信息;
信息输入单元,用于将所述主题信息输入到预先训练的机器学习模型,以生成与所述主题信息对应的文章,所述机器学习模型包括第一模型、第二模型和第三模型,其中:
所述第一模型,用于基于所述主题信息的特征信息,计算第一语义向量,并基于所述第一语义向量,输出第一文字序列,作为所述文章的第1个句子;
所述第二模型,用于被迭代执行以基于所述文章的第N个句子的特征信息,计算第二语义向量,并基于所述第二语义向量,输出第二文字序列,作为所述文章的第N+1个句子,N≥1,且N为正整数;
所述第三模型,用于根据预定判断条件判断所述第N+1个句子是否为段落尾句,响应于判断结果为是,确定该第N+1个句子为段落尾句;
文章输出单元,用于响应于生成的文章达到阈值,输出所述文章。
12.一种计算机可读存储介质,其上存储计算机程序指令,其特征在于,所述计算机程序指令在被处理器执行时实现如权利要求1-10中任一项所述的方法。
13.一种电子设备,包括存储器和处理器,其特征在于,所述存储器用于存储一条或多条计算机程序指令,其中,所述一条或多条计算机程序指令被所述处理器执行以实现如权利要求1-10中任一项所述的方法。
CN201910550390.2A 2019-06-24 2019-06-24 文本生成方法、装置、存储介质和电子设备 Active CN110287489B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910550390.2A CN110287489B (zh) 2019-06-24 2019-06-24 文本生成方法、装置、存储介质和电子设备
PCT/CN2020/081005 WO2020258948A1 (zh) 2019-06-24 2020-03-25 文本生成方法、装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910550390.2A CN110287489B (zh) 2019-06-24 2019-06-24 文本生成方法、装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN110287489A true CN110287489A (zh) 2019-09-27
CN110287489B CN110287489B (zh) 2023-07-28

Family

ID=68005389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910550390.2A Active CN110287489B (zh) 2019-06-24 2019-06-24 文本生成方法、装置、存储介质和电子设备

Country Status (2)

Country Link
CN (1) CN110287489B (zh)
WO (1) WO2020258948A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688857A (zh) * 2019-10-08 2020-01-14 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN111259665A (zh) * 2020-01-14 2020-06-09 成都嗨翻屋科技有限公司 一种基于神经网络的交互式歌词生成方法及系统
WO2020258948A1 (zh) * 2019-06-24 2020-12-30 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备
CN112182210A (zh) * 2020-09-25 2021-01-05 四川华空天行科技有限公司 基于作文论据特征分类器的语言生成模型及写作支持方法
CN112183057A (zh) * 2020-09-16 2021-01-05 北京思源智通科技有限责任公司 文章生成方法、装置、智能设备和存储介质
CN112417856A (zh) * 2020-11-27 2021-02-26 北京明略昭辉科技有限公司 提升机器写作质量的方法、系统、计算机设备及存储介质
CN112861757A (zh) * 2021-02-23 2021-05-28 天津汇智星源信息技术有限公司 基于文本语义理解的笔录智能审核方法及电子设备
CN113204611A (zh) * 2021-04-06 2021-08-03 北京百度网讯科技有限公司 建立阅读理解模型的方法、阅读理解方法及对应装置
CN113535942A (zh) * 2021-07-21 2021-10-22 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN114492456A (zh) * 2022-01-26 2022-05-13 北京百度网讯科技有限公司 文本生成方法、模型的训练方法、装置、电子设备及介质
CN114997143A (zh) * 2022-08-04 2022-09-02 北京澜舟科技有限公司 文本生成模型训练方法和系统、文本生成方法及存储介质
CN115204118A (zh) * 2022-07-12 2022-10-18 平安科技(深圳)有限公司 文章生成方法、装置、计算机设备及存储介质
CN115795028A (zh) * 2023-02-09 2023-03-14 山东政通科技发展有限公司 一种公文智能生成方法及系统
CN117493587A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 一种文章生成的方法、装置、设备及介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420553A (zh) * 2021-07-21 2021-09-21 北京小米移动软件有限公司 文本生成方法、装置、存储介质及电子设备

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418673A (ja) * 1990-05-11 1992-01-22 Hitachi Ltd テキスト情報抽出方法および装置
JP2002073644A (ja) * 2000-08-28 2002-03-12 Suuri Giken:Kk 重要文抽出処理装置、重要文抽出処理方法、および重要文抽出処理プログラムを格納したコンピュータ読み取り可能な記憶媒体
GB0305672D0 (en) * 2003-03-12 2003-04-16 Canon Kk Apparatus for and method of summarising text
CN101231634A (zh) * 2007-12-29 2008-07-30 中国科学院计算技术研究所 一种多文档自动文摘方法
US20140324883A1 (en) * 2013-04-25 2014-10-30 Hewlett-Packard Development Company L.P. Generating a Summary Based on Readability
CN105320642A (zh) * 2014-06-30 2016-02-10 中国科学院声学研究所 一种基于概念语义基元的文摘自动生成方法
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN106776517A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN107193792A (zh) * 2017-05-18 2017-09-22 北京百度网讯科技有限公司 基于人工智能的生成文章的方法和装置
CN108182247A (zh) * 2017-12-28 2018-06-19 东软集团股份有限公司 文摘生成方法和装置
CN108932335A (zh) * 2018-07-10 2018-12-04 北京京东尚科信息技术有限公司 一种生成文案的方法和装置
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN109344403A (zh) * 2018-09-20 2019-02-15 中南大学 一种增强语义特征嵌入的文本表示方法
US20190080683A1 (en) * 2017-09-11 2019-03-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for recognizing text segmentation position
CN109710945A (zh) * 2018-12-29 2019-05-03 北京百度网讯科技有限公司 基于数据生成文本方法、装置、计算机设备和存储介质
CN109726612A (zh) * 2017-10-27 2019-05-07 北京搜狗科技发展有限公司 一种识别方法、装置和用于识别的装置
CN109740145A (zh) * 2018-11-30 2019-05-10 平安科技(深圳)有限公司 歌词智能生成方法、装置、存储介质和计算机设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243152B (zh) * 2015-10-26 2018-08-24 同济大学 一种基于图模型的自动文摘方法
US20190129942A1 (en) * 2017-10-30 2019-05-02 Northern Light Group, Llc Methods and systems for automatically generating reports from search results
CN107967257B (zh) * 2017-11-20 2021-01-12 哈尔滨工业大学 一种级联式作文生成方法
CN110287489B (zh) * 2019-06-24 2023-07-28 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418673A (ja) * 1990-05-11 1992-01-22 Hitachi Ltd テキスト情報抽出方法および装置
JP2002073644A (ja) * 2000-08-28 2002-03-12 Suuri Giken:Kk 重要文抽出処理装置、重要文抽出処理方法、および重要文抽出処理プログラムを格納したコンピュータ読み取り可能な記憶媒体
GB0305672D0 (en) * 2003-03-12 2003-04-16 Canon Kk Apparatus for and method of summarising text
CN101231634A (zh) * 2007-12-29 2008-07-30 中国科学院计算技术研究所 一种多文档自动文摘方法
US20140324883A1 (en) * 2013-04-25 2014-10-30 Hewlett-Packard Development Company L.P. Generating a Summary Based on Readability
CN105320642A (zh) * 2014-06-30 2016-02-10 中国科学院声学研究所 一种基于概念语义基元的文摘自动生成方法
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN106776517A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN107193792A (zh) * 2017-05-18 2017-09-22 北京百度网讯科技有限公司 基于人工智能的生成文章的方法和装置
US20190080683A1 (en) * 2017-09-11 2019-03-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for recognizing text segmentation position
CN109726612A (zh) * 2017-10-27 2019-05-07 北京搜狗科技发展有限公司 一种识别方法、装置和用于识别的装置
CN108182247A (zh) * 2017-12-28 2018-06-19 东软集团股份有限公司 文摘生成方法和装置
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN108932335A (zh) * 2018-07-10 2018-12-04 北京京东尚科信息技术有限公司 一种生成文案的方法和装置
CN109344403A (zh) * 2018-09-20 2019-02-15 中南大学 一种增强语义特征嵌入的文本表示方法
CN109740145A (zh) * 2018-11-30 2019-05-10 平安科技(深圳)有限公司 歌词智能生成方法、装置、存储介质和计算机设备
CN109710945A (zh) * 2018-12-29 2019-05-03 北京百度网讯科技有限公司 基于数据生成文本方法、装置、计算机设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIWEI LI: "A Hierarchical Neural Autoencoder for Paragraphs and Documents", 《HTTPS://ARXIV.ORG/ABS/1506.01057》, pages 1 - 10 *
MOHAMED ABDEL FATTAH: "A hybrid machine learning model for multi-document summarization", 《APPLIED INTELLIGENCE》, vol. 40, pages 592 - 600 *
毛良文: "基于句子权重和篇章结构的政府公文自动文摘算法", 计算机与现代化, no. 12, pages 19 - 24 *
郑诚: "基于指代消解和篇章结构分析的自动摘录算法", 计算机工程, vol. 38, no. 16, pages 170 - 173 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020258948A1 (zh) * 2019-06-24 2020-12-30 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备
CN110688857B (zh) * 2019-10-08 2023-04-21 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN110688857A (zh) * 2019-10-08 2020-01-14 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN111259665A (zh) * 2020-01-14 2020-06-09 成都嗨翻屋科技有限公司 一种基于神经网络的交互式歌词生成方法及系统
CN111259665B (zh) * 2020-01-14 2023-05-30 成都潜在人工智能科技有限公司 一种基于神经网络的交互式歌词生成方法及系统
CN112183057A (zh) * 2020-09-16 2021-01-05 北京思源智通科技有限责任公司 文章生成方法、装置、智能设备和存储介质
CN112182210A (zh) * 2020-09-25 2021-01-05 四川华空天行科技有限公司 基于作文论据特征分类器的语言生成模型及写作支持方法
CN112182210B (zh) * 2020-09-25 2023-11-24 四川华空天行科技有限公司 基于作文论据特征分类器的语言生成模型及写作支持方法
CN112417856A (zh) * 2020-11-27 2021-02-26 北京明略昭辉科技有限公司 提升机器写作质量的方法、系统、计算机设备及存储介质
CN112861757A (zh) * 2021-02-23 2021-05-28 天津汇智星源信息技术有限公司 基于文本语义理解的笔录智能审核方法及电子设备
CN113204611A (zh) * 2021-04-06 2021-08-03 北京百度网讯科技有限公司 建立阅读理解模型的方法、阅读理解方法及对应装置
CN113535942A (zh) * 2021-07-21 2021-10-22 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN113535942B (zh) * 2021-07-21 2022-08-19 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN114492456A (zh) * 2022-01-26 2022-05-13 北京百度网讯科技有限公司 文本生成方法、模型的训练方法、装置、电子设备及介质
CN115204118A (zh) * 2022-07-12 2022-10-18 平安科技(深圳)有限公司 文章生成方法、装置、计算机设备及存储介质
CN115204118B (zh) * 2022-07-12 2023-06-27 平安科技(深圳)有限公司 文章生成方法、装置、计算机设备及存储介质
CN114997143B (zh) * 2022-08-04 2022-11-15 北京澜舟科技有限公司 文本生成模型训练方法和系统、文本生成方法及存储介质
CN114997143A (zh) * 2022-08-04 2022-09-02 北京澜舟科技有限公司 文本生成模型训练方法和系统、文本生成方法及存储介质
CN115795028A (zh) * 2023-02-09 2023-03-14 山东政通科技发展有限公司 一种公文智能生成方法及系统
CN115795028B (zh) * 2023-02-09 2023-07-18 山东政通科技发展有限公司 一种公文智能生成方法及系统
CN117493587A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 一种文章生成的方法、装置、设备及介质
CN117493587B (zh) * 2023-12-28 2024-04-09 苏州元脑智能科技有限公司 一种文章生成的方法、装置、设备及介质

Also Published As

Publication number Publication date
WO2020258948A1 (zh) 2020-12-30
CN110287489B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN110287489A (zh) 文本生成方法、装置、存储介质和电子设备
Yuan et al. A relation-specific attention network for joint entity and relation extraction
CN107870964B (zh) 一种应用于答案融合系统的语句排序方法及系统
CN111143576A (zh) 一种面向事件的动态知识图谱构建方法和装置
EP3385862A1 (en) A method and apparatus for performing hierarchical entity classification
CN108153864A (zh) 基于神经网络生成文本摘要的方法
CN109948158A (zh) 基于环境元嵌入和深度学习的情感倾向性分析方法
CN110390397A (zh) 一种文本蕴含识别方法及装置
CN110222184A (zh) 一种文本的情感信息识别方法及相关装置
CN110263330A (zh) 问题语句的改写方法、装置、设备和存储介质
CN113641830B (zh) 模型预训练方法、装置、电子设备和存储介质
CN107679225A (zh) 一种基于关键词的回复生成方法
CN109543165A (zh) 基于循环卷积注意力模型的文本生成方法及装置
CN110489765A (zh) 机器翻译方法、装置及计算机可读存储介质
CN110275963A (zh) 用于输出信息的方法和装置
Wei et al. Target-guided emotion-aware chat machine
CN113641819A (zh) 基于多任务稀疏共享学习的论辩挖掘系统及方法
CN113657105A (zh) 基于词汇增强的医学实体抽取方法、装置、设备及介质
Bao et al. Question generation with doubly adversarial nets
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
CN114357195A (zh) 基于知识图谱的问答对生成方法、装置、设备及介质
CN117423470B (zh) 一种慢性病临床决策支持系统及构建方法
CN115879450B (zh) 一种逐步文本生成方法、系统、计算机设备及存储介质
CN110852063B (zh) 基于双向lstm神经网络的词向量生成方法及装置
CA3166556A1 (en) Method and device for generating target advertorial based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant