CN114491077A - 文本生成方法、装置、设备及介质 - Google Patents

文本生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN114491077A
CN114491077A CN202210139349.8A CN202210139349A CN114491077A CN 114491077 A CN114491077 A CN 114491077A CN 202210139349 A CN202210139349 A CN 202210139349A CN 114491077 A CN114491077 A CN 114491077A
Authority
CN
China
Prior art keywords
text
nodes
knowledge
target
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210139349.8A
Other languages
English (en)
Inventor
孙梓淇
张智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210139349.8A priority Critical patent/CN114491077A/zh
Publication of CN114491077A publication Critical patent/CN114491077A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Biology (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及人工智能技术领域,具体公开了一种文本生成方法、装置、设备及介质,所述文本生成方法通过获取主题词汇,并获取预先构建的知识图谱;计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。以通过知识图谱以及主题词汇进行词汇扩充,以得到足够数量的关键词,进而将关键词输入文本生成模型,以得到内容更加丰富的目标文本,实现了根据极少的词汇信息即可自动生成内容丰富的文本信息。

Description

文本生成方法、装置、设备及介质
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种文本生成方法、装置、设备及介质。
背景技术
近年来,随着互联网技术的不断发展,文本生成已广泛运用于各行各业,包括新闻的自动生成、商品介绍的自动生成等。但是在文本生成任务中,由于生成任务的输入数据信息较少,使得生成的文本的信息内容不足,生成效果较差。
因此,如何生成内容丰富的文本,是本领域技术人员需要关注的重点。
发明内容
为解决上述技术问题,本申请的实施例提供了一种文本生成方法、装置、设备及介质,以生成内容丰富的文本。
第一方面,本申请提供一种文本生成方法,包括:获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点;计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
根据本发明优选实施例,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为目标节点,得到目标节点集合;根据知识图谱获取与目标节点相邻的图谱节点,将相邻的图谱节点添加至目标节点集合,直至目标节点集合中目标节点的数量达到预设节点数量;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
根据本发明优选实施例,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为起始节点,根据起始节点向知识图谱中的其它图谱节点进行随机游走;将随机游走中遍历的图谱节点作为目标节点,直至目标节点的数量达到预设节点数量,得到目标节点集合;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
根据本发明优选实施例,文本生成模型是基于自注意力机制的编码解码模型训练得到的,将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本,包括:对关键词集合中的关键词进行编码处理,得到关键词对应的词向量;对关键词对应的词向量以及关键词针对知识子图的路径特征进行融合,得到每个关键词对应的特征向量;通过自注意力机制对特征向量进行处理,得到目标文本。
根据本发明优选实施例,通过自注意力机制对特征向量进行处理,得到目标文本,包括:根据每个关键词对应的特征向量和当前时间步的输出隐向量,确定每个关键词在当前时间步对应的注意力权值;根据每个关键词在当前时间步对应的注意力权值、当前时间步的输出隐向量和当前时间步的输入向量,确定当前时间步对应的文本词汇;遍历所有时间步,根据每个时间步输出的文本词汇得到目标文本。
根据本发明优选实施例,获取预先构建的知识图谱,包括:对主题词汇进行分类,得到主题词汇对应的分类结果;获取与分类结果匹配的知识图谱。
根据本发明优选实施例,方法还包括:获取目标文本中每个字符的字向量以及文本向量;其中,字向量用于表示字符的标识信息,文本向量用于表示字符在目标文本中的语义信息;对每个字符的字向量以及文本向量进行融合,得到每个字符对应的融合向量;将每个字符对应的融合向量输入预先训练的文本评价网络,通过文本评价网络对每个字符对应的融合向量进行处理,得到目标文本对应的文本质量评价信息。
第二方面,本申请提供一种文本生成装置,包括:获取模块,用于获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点;知识子图计算模块,用于计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;关键词及特征获取模块,用于根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;文本生成模块,用于将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
第三方面,本申请提供一种计算机设备,计算机设备包括存储器和处理器;存储器,用于存储计算机程序;处理器,用于执行的计算机程序并在执行的计算机程序时实现上述文本生成方法的步骤。
第四方面,本申请提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时使处理器实现上述文本生成方法的步骤。
本申请实施例公开的文本生成方法、装置、设备及介质,通过获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点;计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。以通过知识图谱以及主题词汇进行词汇扩充,以得到足够数量的关键词,进而将关键词输入文本生成模型,以得到内容更加丰富的目标文本,实现了根据极少的词汇信息即可自动生成内容丰富的文本信息。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术者来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是本申请实施例提供的文本生成方法的应用环境示意图;
图2是本申请实施例提供的文本生成方法的流程图;
图3是本申请实施例提供的知识图谱的示意图;
图4是本申请另一实施例提供的知识图谱的示意图;
图5是本申请实施例提供的文本生成方法的数据流程示意图;
图6是本申请实施例提供的文本生成装置的示意性框图;
图7是本申请实施例提供的计算机设备的示意性框图。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
还需要说明的是:在本申请中提及的“多个”是指两个或者两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
图1示出了本申请示例性实施例的运行环境的一种系统架构示意图,参考图1所示,该系统可以包括用户终端110、服务器120以及网络。用户终端110以及服务器120之间通过网络通信连接,网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户终端110可以是硬件,也可以是软件。当用户终端110为硬件时,可以是各种电子设备,包括但不限于车载智能终端、智能手机、平板电脑以及智能手环等等。当用户终端110为软件时,可以安装在上述所列举的电子设备中。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,本申请实施例提供的文本生成方法可以使用于文本生成装置中,该文本生成装置可以集成在计算机设备中,该计算机设备可以是服务器120也可以是用户终端110。
应该理解,图1中的用户终端110以及服务器120的数目仅仅是示意性的,仅用于理解本申请实施例,具体用户终端110以及服务器120的数量均应当结合实际情况灵活确定。
请参阅图2,图2为本申请实施例提供的文本生成方法的一个流程示意图。如图2所示,该方法包括步骤S210至步骤S240。
步骤S210、获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点。
主题词汇可以是用户直接输入的,也可以是对特征物品进行识别得到的,通过获取主题词汇,以得到待生成文本的文本生成方向。主题词汇的获取方式可以根据实际应用情况进行灵活选择,本实施例对此不进行限定。其中,主题词汇可以是一个,也可以是多个。
例如,在对商品的自动介绍文本生成的场景中,主题词汇可以是通过识别目标商品,以得到该目标商品的主题词汇。如通过识别,得到目标商品为品牌A的饮料,则对应的主题词汇包括“品牌A”以及“饮料”。
例如,在自动生成短视频剧本的场景中,主题词汇可以是获取用户输入的关于剧本的主题、发生地点、发生时间、主要任务等关键词,以将关键词作为主题词汇。如根据用户输入得到的主题词汇可以为“喜剧”、“周末”、“学生”等。
在一些实施方式中,获取预先构建的知识图谱,包括:对主题词汇进行分类,得到主题词汇对应的分类结果;获取与分类结果匹配的知识图谱。
可以理解的是,不同类型的主题词汇对应不同的知识图谱。例如,获取的主题词汇包括“介绍”、“品牌A”以及“饮料”,则这些主题词汇的分类结果可以为商品介绍,进而获取商品介绍的知识图谱。
需要说明的是,主题词汇可以包括多种类型的词汇,即可以匹配得到多个知识图谱。例如,主题词汇可以包括“类型A-词汇a1”、“类型A-词汇a2”以及“类型B-词汇b1”,分类结果为“类型A-词汇a1”以及“类型A-词汇a2”对应类型A,“类型B-词汇b1”对应类型B,因此,得到类型A匹配的知识图谱A以及类型B匹配的知识图谱B。
在一些实施方式中,在获取预先构建的知识图谱之前,还包括对知识图谱进行构建。
示例性地,根据历史文本数据得到词汇集合;对词汇集合进行实体抽取和关系抽取,得到三元组集合;根据三元组集合得到知识图谱。
其中,历史文本数据可以包括多种类型,例如商品介绍、情景故事、文章评论等。因此,可以根据历史文本数据的类型信息,对历史文本数据进行分类,以分别对不同类型的历史文本数据进行预处理操作后,得到不同类型的词汇集合。
可选地,对历史文本数据进行预处理操作包括去停用词处理以及分词处理。
因为历史文本数据包含有各种噪声信息,如语气词、人称、感叹词等停用词以及无意义词。将历史文本数据与停用词库进行匹配,以过滤历史文本数据中与停用词库匹配成功的词,从而实现对历史文本数据进行去噪的效果,进而得到标准文本。其中,停用词库包括:语气词、人称、感叹词等停用词以及无意义词。
然后对标准文本进行分词预处理,预设的分词方式包括但不限于:通过第三方分词工具或者分词算法等。其中,常见的第三方分词工具包括但不限于:Stanford NLP分词器、ICTClAS分词系统、ansj分词工具和HanLP中文分词工具等。分词算法包括但不限于:最大正向匹配(Maximum Matching,简称MM)算法、逆向最大匹配(Reverse DirectionMaximum Matching Method,简称RMM)算法、双向最大匹配(Bi-directional Matchingmethod,简称BM)算法、隐马尔科夫模型(Hidden Markov Model,简称HMM)和N-gram模型等。
通过去停用词预处理以及分词预处理,得到历史文本数据对应的词汇集合。然后对词汇集合进行实体抽取以及关系抽取。
例如,对于商品介绍类型的词汇集合,预设实体类型包括商品名称、商品价格、商品外观、商品种类以及商品销售量等;对于情景故事类型的词汇集合,预设实体类型包括地点名称、场景氛围描述、人物情绪描述、人物外观描述以及动作描述等。
进一步地,从历史文本数据的语句信息中获取实体之间的关系,以进行关系抽取。实体之间的关系是指不同的实体之间的关联关系,实体之间的关联关系包括一对一、一对多和多对多。示例性地,获取历史文本数据的实体信息后,通过获取预设三元组规则,并按照预设三元组规则对实体信息添加实体之间的关系,得到三元组集合。
例如,对于商品介绍类型的历史文本数据,该历史文本数据包括语句“A品牌的饮料为果汁型饮料,它的作用是解渴、补充能量”。
该语句包含的实体信息如下所示:
商品品牌实体(BRA):A品牌;
商品第一种类实体(TYP):饮料;
商品第二种类实体(subT):果汁型;
商品功能实体(FUNC):解渴、补充能量。
进一步地,根据预设三元组规则对实体信息添加实体之间的关系为:“解渴、补充能量”is_FUNC_of“商品第一种类实体”、“商品第二种类实体”is_subT_of“商品第一种类实体”、“商品品牌实体”is_BRA_of“商品第一种类实体”。其中,is_FUNC_of、is_subT_of和is_BRA_of为预设三元组规则,与商品品牌实体、商品第一种类实体、商品第二种类实体和商品功能实体构成了多个三元组信息。
通过历史文本数据的所有三元组信息,得到三元组集合,并根据三元组集合得到对应的知识图谱。
示例性地,待生成的知识图谱包括节点和边。其中,节点为对应的实体信息,由一个全局唯一标识表示,例如商品名称、商品价格、商品外观、商品种类以及商品销售量等均可作为知识图谱中的节点。边用于连接两个节点,是指知识图谱中连接节点的有向线条,用于表示不同节点之间的关系。例如,将商品名称、商品价格、商品外观、商品种类以及商品销售量等之间的实体关系都可以作为知识图谱中的边。
步骤S220、计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图。
根据预先构建的知识图谱,获取与主题词汇匹配的其它词汇,例如,主题词汇的近义词、上位关系词、下位关系词等,以对生成文本所需要的初始词汇进行词汇扩充,以丰富词汇信息,进而方便后续的文本生成。
可选的,当主题词汇为多个词汇时,可以分别对应不同的知识图谱,且每个主题词汇可以根据对应的知识图谱得到多个知识子图。
在获取到主题词汇后,可以根据主题词汇对应的知识图谱对主题词汇进行匹配,以得到对应的知识子图,知识子图中的每个子图节点对应的词汇是与主题词汇的匹配度大于匹配度阈值的词汇。
示例性地,计算主题词汇与知识图谱中各个图谱节点对应的实体之间的匹配度,当匹配度越大时,则表明对应的实体与该主题词汇越相似;当匹配度越小时,则表明对应的实体与该主题词汇的差异越大。因此,为了提高生成的文本与主题词汇之间的相关性,选取将匹配度大于匹配度阈值的图谱节点作为目标节点,以根据目标节点得到知识子图。
例如,主题词汇为“水果”时,根据知识图谱得到其对应的近义词可以为“生果”,其对应的上位关系词可以为“食物”,其对应的下位关系词可以为“苹果”。则通过知识图谱,得到的目标节点包括“生果、食物、苹果”。然后,根据目标节点获取对应的知识子图。
在一些实施方式中,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为目标节点,得到目标节点集合;根据知识图谱获取与目标节点相邻的图谱节点,将相邻的图谱节点添加至目标节点集合,直至目标节点集合中目标节点的数量达到预设节点数量;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
与目标节点相邻的图谱节点指的是与目标节点存在连接关系的节点。
其中,预设节点数量可以根据相关人员进行提前设定,例如,用户可以直接对目标节点的数量进行限定;还可以根据待生成文本的长度,对预设节点数量进行匹配,例如,当待生成文本设定的字符数量为100时,则对应的预设节点数量可以为10,当待生成文本设定的字符数量为200时,则对应的预设节点数量可以为20。
可以理解的是,预设节点数量可以是具体的数值,也可以是数值区间。
可选地,获取目标节点相邻的图谱节点,将相邻的图谱节点作为目标节点,以对目标节点进行一次扩充。进一步地,检测扩充后的目标节点的数量是否达到预设节点数量,若未达到预设节点数量,则获取扩充后的目标节点相邻的图谱节点,将相邻的图谱节点作为目标节点,以对目标节点再次进行扩充。若达到预设节点数量,则获取所有目标节点以及目标节点之间的关系,得到知识子图。
请参阅图3,例如,目标节点包括节点A以及与节点A连接的节点B,节点A与节点C连接,节点B与节点D连接,节点D与节点E连接。当预设节点数量为4时,获取节点A相邻的图谱节点包括节点B以及节点C,获取节点B相邻的图谱节点包括节点A以及节点D。通过去重处理,得到的目标节点包括节点A、节点B、节点C以及节点D,则扩充后的目标节点的数量为4,达到了预设节点数量。然后,通过目标节点以及目标节点之间的关系获得节点A、节点B、节点C以及节点D对应的知识子图。
在一些实施方式中,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为起始节点,根据起始节点向知识图谱中的其它图谱节点进行随机游走;将随机游走中遍历的图谱节点作为目标节点,直至目标节点的数量达到预设节点数量,得到目标节点集合;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
起始节点指的是随机游走时遍历的第一个节点。
其中,从起始节点出发进行随机游走时,可以向多个不同的方向进行其它节点的随机遍历。例如,起始节点为节点A,节点A与节点B以及节点C连接,因此,从节点A出发进行随机游走时,可以向节点B方向进行其它节点的随机遍历,也可以向节点C方向进行其它节点的随机遍历。可以理解的是,在随机游走过程中,当前节点下未游走的路径均可以进行游走,即在一次游走过程中,存在多个游走路径。
请参阅图4,例如,目标节点包括节点A,节点A对应的知识子图中的其它图谱节点如图4所示。将节点A作为起始节点,向其它节点进行第一次随机游走,在游走过程中的游走方向为节点B方向,在节点B方向上的游走路径包括A→B→E以及A→B→F,因此遍历的节点为节点A、B、E、F。将节点A作为起始节点,向其它节点进行第二次随机游走,在游走过程中的游走方向为节点C方向,在节点C方向上的游走路径包括A→C→G,因此遍历的节点为节点A、C、G。
以目标节点为起始节点,向其它节点进行随机游走,以将游走过程中遍历的图谱节点添加为目标节点,直至目标节点的数量达到预设节点数量。可以理解的是,通过随机游走的方式,在起始节点相同的情况下,可以在不同的游走过程中遍历不同的节点,进而在各个文本生成任务中输入的主题词汇相同的情况下,得到不同的知识子图,保证生成的文本的多样性。
步骤S230、根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征。
示例性地,可以将知识子图中的所有图谱节点对应的实体作为关键词,以得到关键词集合。还可以对知识子图中的所有图谱节点对应的实体进行过滤,以将过滤后的图谱节点对应的实体作为关键词。例如,计算主题词汇与对应的知识子图中的所有图谱节点的实体之间的匹配度,以将匹配度大于匹配度阈值的实体作为关键词。通过对图谱节点进行过滤,以保证输出的文本的质量。
示例性地,根据关键词集合中每个关键词对应实体的图谱节点处于知识子图中的位置信息以及图谱节点之间的连接关系,获取该关键词的路径特征。
例如,实体A对应节点A,节点A分别与节点B以及节点C连接,且节点A于节点B之间的连接关系为关系1,节点A于节点C之间的连接关系为关系2,则根据预设计算规则对节点B、节点C、关系1以及关系2进行计算,得到实体A对应的路径特征。
通过主题词汇得到知识子图,以根据知识子图得到多个关键词,进而可以丰富输入文本生成模型的词汇。
步骤S240、将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
在一些实施例中,可以预先训练一个文本生成模型,该文本生成模型用于根据输入的关键词集合以及每个关键词对应的路径特征,生成目标文本。
可以理解的是,由于本实施例提供的文本生成方法是根据极少的主题词汇进行文本生成,即导致了在初始文本生成模型的训练过程中,缺少样本数据。因此,在一些实施方式中,可以使用预训练语言模型对初始文本生成模型进行训练,例如,根据预训练语言模型的训练权重,对文本生成模型进行训练,以使文本生成模型可以更快达到训练收敛。预训练语言模型包括但不限于T5(Transfer Text-to-Text Transformer)模型、GPT3(GenerativePre-trained Transformer 3)模型等。
在一些实施方式中,文本生成模型是基于自注意力机制的编码解码模型训练得到的,将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本,包括:对关键词集合中的关键词进行编码处理,得到关键词对应的词向量;对关键词对应的词向量以及关键词针对知识子图的路径特征进行融合,得到每个关键词对应的特征向量;通过自注意力机制对特征向量进行处理,得到目标文本。
可选地,该文本生成模型为一个Seq2Seq模型,Seq2Seq模型的输入是一个序列(关键词集合以及关键词的路径特征),输出也是一个序列(生成的文本)。例如,该文本生成模型采用RNN、LSTM、BLSTM或者GRU等,本申请实施例不对该文本生成模型的形式进行具体限定。
其中,Seq2Seq模型包含有编码层,编码层用于指将输入的离散单词映射成连续向量,换言之,将单词映射至嵌入空间,得到该单词的词向量,从而能够将稀疏的单词压缩成一个稠密的词向量,方便计算机进行文本处理。解码层用于基于上述编码器的输出,结合自注意力机制,以输出连贯的文本信息。
自注意力机制(Self-attention Mechanism)是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性,通过计算单词间的互相影响,来解决长距离依赖问题。注意力机制基于注意力系数的加权机制,可应用于Seq2Seq模型的解码部分,以对解码部分中产生的隐向量进行加权,使得隐向量更加聚焦于文本核心的语义信息,使得Seq2Seq模型倾向于输出具有较高注意力系数的隐向量所指示的信息。
在一些实施方式中,通过自注意力机制对特征向量进行处理,得到目标文本,包括:根据每个关键词对应的特征向量和当前时间步的输出隐向量,确定每个关键词在当前时间步对应的注意力权值;根据每个关键词在当前时间步对应的注意力权值、当前时间步的输出隐向量和当前时间步的输入向量,确定当前时间步对应的文本词汇;遍历所有时间步,根据每个时间步输出的文本词汇得到目标文本。
文本生成模型的解码层用于根据每个关键词对应的特征向量进行解码处理,得到输出隐向量,该输出隐向量用于确定所对应时间步的文本词汇。文本词汇是指目标文本中的词。在生成目标文本的过程中,为了保证目标文本中词与词之间的依赖关系,目标文本中的文本词汇是按时间步生成的。
对应的,对于解码层而言,其也对应按照时间步来输出各个时间步的输出隐向量,以保证当前时间步的输出隐向量用于确定对应于当前时间步的文本词汇。即解码层逐个目标文本中的文本词汇所对应输出隐向量,将确定一个文本词汇的过程称为一个时间步。由于解码层是按照文本词汇在目标文本中的排布顺序来确定文本词汇所对应输出隐向量,因此,解码层在时间步t(或者第t时间步,其中,t≥1,t为正整数)所输出的输出隐向量是对应于目标文本中的第t个词。
在一些实施例中,该解码层可以是长短时记忆网络,具体的,该解码层可以是一层或者多层长短时记忆网络,在此不进行具体限定。在一些实施例中,该解码层还可以是转换器网络(Transformer模型)中的解码器。当然,在其他实施例中,该解码层还可以是其他用于进行文本生成的神经网络,在此不进行具体限定。
在一些实施方式中,得到目标文本后,本申请实施例提供的文本生成方法还包括:获取目标文本中每个字符的字向量以及文本向量;其中,字向量用于表示字符的标识信息,文本向量用于表示字符在目标文本中的语义信息;对每个字符的字向量以及文本向量进行融合,得到每个字符对应的融合向量;将每个字符对应的融合向量输入预先训练的文本评价网络,通过文本评价网络对每个字符对应的融合向量进行处理,得到目标文本对应的文本质量评价信息。
可选的,本实施例可以通过文本评价模型得到目标文本对应的文本质量评价信息,本实施例中文本评价模型包括特征提取网络和文本评价网络。通过特征提取网络获取目标文本的每个字符对应的融合向量;通过文本评价网络获取目标文本对应的文本质量评价信息。
其中,字向量用于表示字符的标识信息,不同的字符对应不同的字向量;例如,“文”对应的字向量与“本”对应的字向量不同,不同的字符通过不同的字向量唯一标识;文本向量用于表示字符在目标文本中的语义信息,语义越接近的字符对应的文本向量距离越近。
示例性地,在对每个字符对应的字向量以及文本向量进行融合处理的过程中,首先对每个字符对应的字向量以及文本向量进行求和处理,得到每个字符对应的和向量,再根据每个字符对应的和向量进行融合处理得到融合向量,其中融合向量表示每个字符对应的语义信息。
进一步地,将每个字符对应的融合向量输入至已训练的文本评价网络的均值化处理层,已训练的文本评价网络的均值化处理层对每个字符对应的融合向量进行均值化处理,得到目标文本对应的文本质量评价向量;并将得到的文本质量评价向量输入至已训练的文本评价网络的评价信息获取层,已训练的文本评价网络的评价信息获取层对文本质量评价向量进行归一化处理,得到目标文本对应的文本质量评价信息。
示例性地,文本评价网络可以通过文本质量评价向量计算目标文本的通顺度,根据通顺度对目标文本进行打分,得到文本质量评价信息。通顺度可以以概率表示,其范围为0~1。
其中,通顺度指的是目标文本的每个字连接起来是能通顺的。
通过对目标文本进行评价,以得到目标文本的文本质量评价信息,进而可以根据文本质量评价信息了解文本生成的情况,以在文本质量评价信息表征目标文本质量较差时,可以对文本生成过程中的知识图谱、文本生成模型等及时进行优化。
请参阅图5,图5为本申请另一实施例提供的文本生成方法的数据流程示意图。
如图5所示,获取主题词汇,以及根据主题词汇的类型得到对应类型的知识图谱。通过主题词汇对知识图谱中的图谱节点进行匹配,以根据匹配成功的图谱节点得到知识子图。然后将知识子图中的图谱节点对应的实体词汇作为关键词,得到关键词集合,并根据每个关键词处于知识子图中的位置信息,得到每个关键词针对知识子图的路径特征。进一步地,将关键词集合以及每个关键词针对知识子图的路径特征输入文本生成模型,以使文本生成模型输出目标文本。
本申请提供的文本生成方法,通过获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点;计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。以通过知识图谱以及主题词汇进行词汇扩充,以得到足够数量的关键词,进而将关键词输入文本生成模型,以得到内容更加丰富的目标文本,实现了根据极少的词汇信息即可自动生成内容丰富的文本信息。
请参阅图6,图6是本申请一实施例提供的一种文本生成装置的示意框图,该文本生成装置可以配置于服务器或计算机设备中,用于执行前述的文本生成方法。
如图6所示,文本生成装置600包括:获取模块610、知识子图计算模块620、关键词及特征获取模块630以及文本生成模块640。
获取模块610用于获取主题词汇,并获取预先构建的知识图谱;其中,知识图谱包括多个图谱节点;
知识子图计算模块620用于计算主题词汇以及图谱节点之间的匹配度,以根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;
关键词及特征获取模块630用于根据知识子图,得到关键词集合以及关键词集合中每个关键词针对知识子图的路径特征;
文本生成模块640用于将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
在一些实施方式中,基于前述方案,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为目标节点,得到目标节点集合;根据知识图谱获取与目标节点相邻的图谱节点,将相邻的图谱节点添加至目标节点集合,直至目标节点集合中目标节点的数量达到预设节点数量;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
在一些实施方式中,基于前述方案,根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:将匹配度大于匹配度阈值的图谱节点作为起始节点,根据起始节点向知识图谱中的其它图谱节点进行随机游走;将随机游走中遍历的图谱节点作为目标节点,直至目标节点的数量达到预设节点数量,得到目标节点集合;根据目标节点集合中的目标节点以及目标节点之间的关系,得到知识子图。
在一些实施方式中,基于前述方案,文本生成模型是基于自注意力机制的编码解码模型训练得到的,将关键词集合以及关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本,包括:对关键词集合中的关键词进行编码处理,得到关键词对应的词向量;对关键词对应的词向量以及关键词针对知识子图的路径特征进行融合,得到每个关键词对应的特征向量;通过自注意力机制对特征向量进行处理,得到目标文本。
在一些实施方式中,基于前述方案,通过自注意力机制对特征向量进行处理,得到目标文本,包括:根据每个关键词对应的特征向量和当前时间步的输出隐向量,确定每个关键词在当前时间步对应的注意力权值;根据每个关键词在当前时间步对应的注意力权值、当前时间步的输出隐向量和当前时间步的输入向量,确定当前时间步对应的文本词汇;遍历所有时间步,根据每个时间步输出的文本词汇得到目标文本。
在一些实施方式中,基于前述方案,获取预先构建的知识图谱,包括:对主题词汇进行分类,得到主题词汇对应的分类结果;获取与分类结果匹配的知识图谱。
在一些实施方式中,基于前述方案,获取目标文本中每个字符的字向量以及文本向量;其中,字向量用于表示字符的标识信息,文本向量用于表示字符在目标文本中的语义信息;对每个字符的字向量以及文本向量进行融合,得到每个字符对应的融合向量;将每个字符对应的融合向量输入预先训练的文本评价网络,通过文本评价网络对每个字符对应的融合向量进行处理,得到目标文本对应的文本质量评价信息。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块、单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的方法、装置可用于众多通用或专用的计算系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
示例性地,上述的方法、装置可以实现为一种计算机程序的形式,该计算机程序可以在如图7所示的计算机设备上运行。
请参阅图7,图7是本申请实施例提供的一种计算机设备的示意图。该计算机设备可以是服务器或终端。
如图7所示,该计算机设备700包括通过系统总线720连接的处理器710、存储器730和网络接口740,其中,存储器730可以包括非易失性存储介质和内存储器。
非易失性存储介质可存储操作系统750和计算机程序760。该计算机程序760包括程序指令,该程序指令被执行时,可使得处理器710执行任意一种文本生成方法。
处理器710用于提供计算和控制能力,支撑整个计算机设备700的运行。
内存储器730为非易失性存储介质中的计算机程序760的运行提供环境,该计算机程序760被处理器710执行时,可使得处理器710执行任意一种文本生成方法。
该网络接口740用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,该计算机设备700的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备700的限定,具体地计算机设备700可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器710可以是中央处理单元(Central Processing Unit,简称CPU),该处理器710还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器710可以是微处理器或者该处理器710也可以是任何常规的处理器等。
其中,处理器710用于运行存储在存储器中的计算机程序760,以实现本申请实施例提供的任一种文本生成方法。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序中包括程序指令,程序指令被执行时实现本申请实施例提供的任一种文本生成方法。
其中,计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如计算机设备的硬盘或内存。计算机可读存储介质也可以是计算机设备的外部存储设备,例如计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,简称SMC),安全数字(Secure Digital,简称SD)卡,闪存卡(Flash Card)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种文本生成方法,其特征在于,所述方法包括:
获取主题词汇,并获取预先构建的知识图谱;其中,所述知识图谱包括多个图谱节点;
计算所述主题词汇以及所述图谱节点之间的匹配度,以根据所述匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;
根据所述知识子图,得到关键词集合以及所述关键词集合中每个关键词针对所述知识子图的路径特征;
将所述关键词集合以及所述关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
2.根据权利要求1所述的方法,其特征在于,所述根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:
将所述匹配度大于匹配度阈值的图谱节点作为目标节点,得到目标节点集合;
根据所述知识图谱获取与所述目标节点相邻的图谱节点,将所述相邻的图谱节点添加至所述目标节点集合,直至所述目标节点集合中目标节点的数量达到预设节点数量;
根据所述目标节点集合中的目标节点以及所述目标节点之间的关系,得到所述知识子图。
3.根据权利要求1所述的方法,其特征在于,所述根据匹配度大于匹配度阈值的图谱节点得到至少一个知识子图,包括:
将所述匹配度大于匹配度阈值的图谱节点作为起始节点,根据所述起始节点向所述知识图谱中的其它图谱节点进行随机游走;
将所述随机游走中遍历的图谱节点作为目标节点,直至所述目标节点的数量达到预设节点数量,得到目标节点集合;
根据所述目标节点集合中的目标节点以及所述目标节点之间的关系,得到所述知识子图。
4.根据权利要求1所述的方法,其特征在于,所述文本生成模型是基于自注意力机制的编码解码模型训练得到的,所述将所述关键词集合以及所述关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本,包括:
对所述关键词集合中的关键词进行编码处理,得到所述关键词对应的词向量;
对所述关键词对应的词向量以及所述关键词针对知识子图的路径特征进行融合,得到每个关键词对应的特征向量;
通过自注意力机制对所述特征向量进行处理,得到目标文本。
5.根据权利要求4所述的方法,其特征在于,所述通过自注意力机制对所述特征向量进行处理,得到目标文本,包括:
根据所述每个关键词对应的特征向量和当前时间步的输出隐向量,确定所述每个关键词在所述当前时间步对应的注意力权值;
根据所述每个关键词在所述当前时间步对应的注意力权值、所述当前时间步的输出隐向量和当前时间步的输入向量,确定所述当前时间步对应的文本词汇;
遍历所有时间步,根据每个时间步输出的文本词汇得到目标文本。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述获取预先构建的知识图谱,包括:
对所述主题词汇进行分类,得到所述主题词汇对应的分类结果;
获取与所述分类结果匹配的知识图谱。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
获取所述目标文本中每个字符的字向量以及文本向量;其中,所述字向量用于表示字符的标识信息,所述文本向量用于表示字符在所述目标文本中的语义信息;
对所述每个字符的字向量以及文本向量进行融合,得到所述每个字符对应的融合向量;
将所述每个字符对应的融合向量输入预先训练的文本评价网络,通过所述文本评价网络对所述每个字符对应的融合向量进行处理,得到所述目标文本对应的文本质量评价信息。
8.一种文本生成装置,其特征在于,所述装置包括:
获取模块,用于获取主题词汇,并获取预先构建的知识图谱;其中,所述知识图谱包括多个图谱节点;
知识子图计算模块,用于计算所述主题词汇以及所述图谱节点之间的匹配度,以根据所述匹配度大于匹配度阈值的图谱节点得到至少一个知识子图;
关键词及特征获取模块,用于根据所述知识子图,得到关键词集合以及所述关键词集合中每个关键词针对所述知识子图的路径特征;
文本生成模块,用于将所述关键词集合以及所述关键词集合中每个关键词针对知识子图的路径特征输入预先训练的文本生成模型中,得到目标文本。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述的计算机程序并在执行所述的计算机程序时实现如权利要求1至7中任一项所述的文本生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至7中任一项所述的文本生成方法。
CN202210139349.8A 2022-02-15 2022-02-15 文本生成方法、装置、设备及介质 Pending CN114491077A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210139349.8A CN114491077A (zh) 2022-02-15 2022-02-15 文本生成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210139349.8A CN114491077A (zh) 2022-02-15 2022-02-15 文本生成方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN114491077A true CN114491077A (zh) 2022-05-13

Family

ID=81480530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210139349.8A Pending CN114491077A (zh) 2022-02-15 2022-02-15 文本生成方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN114491077A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115150354A (zh) * 2022-06-29 2022-10-04 北京天融信网络安全技术有限公司 一种生成域名的方法、装置、存储介质及电子设备
CN116028650A (zh) * 2023-03-27 2023-04-28 北京国华众联科技有限公司 知识图谱实体匹配方法和装置、设备及存储介质
CN116467414A (zh) * 2023-04-14 2023-07-21 腾讯科技(深圳)有限公司 一种数据验证方法、装置、设备以及计算机可读存储介质
CN117195913A (zh) * 2023-11-08 2023-12-08 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质及程序产品
CN117407492A (zh) * 2023-12-14 2024-01-16 广东海洋大学 基于知识图谱的关键字词序列生成方法、系统及设备
CN117591663A (zh) * 2024-01-19 2024-02-23 北京华源技术有限公司 一种基于知识图谱的大模型prompt生成方法
CN118210878A (zh) * 2024-05-17 2024-06-18 清华大学 一种多跳问答方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111475658A (zh) * 2020-06-12 2020-07-31 北京百度网讯科技有限公司 知识表示学习方法、装置、设备以及存储介质
CN112417846A (zh) * 2020-11-25 2021-02-26 中译语通科技股份有限公司 文本自动化生成方法、装置、电子设备及存储介质
CN112487168A (zh) * 2020-12-11 2021-03-12 润联软件系统(深圳)有限公司 知识图谱的语义问答方法、装置、计算机设备及存储介质
CN113742474A (zh) * 2021-11-08 2021-12-03 北京博瑞彤芸科技股份有限公司 一种基于知识图谱的智能问答方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111475658A (zh) * 2020-06-12 2020-07-31 北京百度网讯科技有限公司 知识表示学习方法、装置、设备以及存储介质
CN112417846A (zh) * 2020-11-25 2021-02-26 中译语通科技股份有限公司 文本自动化生成方法、装置、电子设备及存储介质
CN112487168A (zh) * 2020-12-11 2021-03-12 润联软件系统(深圳)有限公司 知识图谱的语义问答方法、装置、计算机设备及存储介质
CN113742474A (zh) * 2021-11-08 2021-12-03 北京博瑞彤芸科技股份有限公司 一种基于知识图谱的智能问答方法和装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115150354A (zh) * 2022-06-29 2022-10-04 北京天融信网络安全技术有限公司 一种生成域名的方法、装置、存储介质及电子设备
CN115150354B (zh) * 2022-06-29 2023-11-10 北京天融信网络安全技术有限公司 一种生成域名的方法、装置、存储介质及电子设备
CN116028650A (zh) * 2023-03-27 2023-04-28 北京国华众联科技有限公司 知识图谱实体匹配方法和装置、设备及存储介质
CN116467414A (zh) * 2023-04-14 2023-07-21 腾讯科技(深圳)有限公司 一种数据验证方法、装置、设备以及计算机可读存储介质
CN116467414B (zh) * 2023-04-14 2024-09-10 腾讯科技(深圳)有限公司 一种数据验证方法、装置、设备以及计算机可读存储介质
CN117195913A (zh) * 2023-11-08 2023-12-08 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质及程序产品
CN117195913B (zh) * 2023-11-08 2024-02-27 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质及程序产品
CN117407492A (zh) * 2023-12-14 2024-01-16 广东海洋大学 基于知识图谱的关键字词序列生成方法、系统及设备
CN117407492B (zh) * 2023-12-14 2024-02-23 广东海洋大学 基于知识图谱的关键字词序列生成方法、系统及设备
CN117591663A (zh) * 2024-01-19 2024-02-23 北京华源技术有限公司 一种基于知识图谱的大模型prompt生成方法
CN117591663B (zh) * 2024-01-19 2024-05-17 北京华源技术有限公司 一种基于知识图谱的大模型prompt生成方法
CN118210878A (zh) * 2024-05-17 2024-06-18 清华大学 一种多跳问答方法及装置

Similar Documents

Publication Publication Date Title
CN114491077A (zh) 文本生成方法、装置、设备及介质
WO2022041979A1 (zh) 一种信息推荐模型的训练方法和相关装置
CN112164391B (zh) 语句处理方法、装置、电子设备及存储介质
CN109657054B (zh) 摘要生成方法、装置、服务器及存储介质
WO2022022421A1 (zh) 语言表示模型系统、预训练方法、装置、设备及介质
CN113627447B (zh) 标签识别方法、装置、计算机设备、存储介质及程序产品
US20170193086A1 (en) Methods, devices, and systems for constructing intelligent knowledge base
CN112800170A (zh) 问题的匹配方法及装置、问题的回复方法及装置
CN111566654A (zh) 集成知识和自然语言处理的机器学习
CN112307351A (zh) 用户行为的模型训练、推荐方法、装置和设备
CN112988979A (zh) 实体识别方法、装置、计算机可读介质及电子设备
CN110674621B (zh) 一种属性信息填充方法和装置
CN111783903B (zh) 文本处理方法、文本模型的处理方法及装置、计算机设备
CN111460783B (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN117390497A (zh) 基于大语言模型的类目预测方法、装置和设备
CN116821781A (zh) 分类模型的训练方法、文本分析方法及相关设备
CN113704393A (zh) 关键词提取方法、装置、设备及介质
CN113407663A (zh) 基于人工智能的图文内容质量识别方法和装置
CN112131345A (zh) 文本质量的识别方法、装置、设备及存储介质
CN116680386A (zh) 基于多轮对话的答案预测方法和装置、设备、存储介质
CN113741759B (zh) 评论信息的展示方法、装置、计算机设备和存储介质
CN115186085A (zh) 回复内容处理方法以及媒体内容互动内容的交互方法
US20200050677A1 (en) Joint understanding of actors, literary characters, and movies
CN112307738B (zh) 用于处理文本的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination