CN114707000A - 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 - Google Patents
一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114707000A CN114707000A CN202210389505.6A CN202210389505A CN114707000A CN 114707000 A CN114707000 A CN 114707000A CN 202210389505 A CN202210389505 A CN 202210389505A CN 114707000 A CN114707000 A CN 114707000A
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- entity
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质,该方法包括:从知识图谱中获取实体关系组合;对实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;利用微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;基于掩码后的全量实体关系组合和问题生成模型,生成问答数据集。本发明的方案降低了问答数据集建设成本,确保问答数据集的准确性和质量,通过数据库检索匹配即可实现KBQA任务。
Description
技术领域
本发明涉及问答系统领域,尤其涉及一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质。
背景技术
知识图谱是下一代问答系统等智能应用的基础设施,如果把问答系统看成一个大脑,那么知识图谱就是大脑中的知识库,它使得机器能够从实体和关系的角度去分析、思考问题。作为对话问答任务模型训练的基础,大规模高质量问答数据集的构建具有重要的意义。
现有问答数据集的构建方式多采用互联网数据的抓取整合或者是由人工根据知识图谱进行构建。但是传统方法存在不足之处:首先,采用互联网抓取数据的方式无法保证数据集的质量,增加了数据清洗的负担,且互联网数据有着数据隐私、数据确权和数据偏置等问题,存在着一定法律风险和通过数据清洗无法解决的数据质量问题;再者,采用基于知识图谱的人工构建方式建设成本高昂、建设周期长,因此数据集在规模上很难达到问答系统的要求。
发明内容
为了解决现有技术中存在的问题,本发明提供了如下技术方案。
本发明第一方面提供了一种基于知识图谱的问答库生成方法,包括:
从知识图谱中获取实体关系组合;
对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;
利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
优选地,所述从知识图谱中获取实体关系组合,进一步包括:
基于启发式规则来处理知识图谱中的三元组,作为所述实体关系组合;
所述启发式规则进一步包括:
匹配实体的一度关系的模板;
匹配实体的二度关系的模板;和/或
将两个实体进行联合且关系为一度的模板。
优选地,所述预训练模型是按照下述方式预先训练得到的:
获取阅读理解语料库和百科语料库;
利用所述阅读理解语料库中的段落和答案生成问题得到第一训练数据集;
对所述百科语料库中标记有超链接的实体进行掩码预测,得到第二训练数据集;
利用所述第一训练数据集和第二训练数据集对特定模型训练得到所述预训练模型。
优选地,所述生成微调数据,进一步包括:
对于所抽取的掩码后的部分实体关系组合,通过人工提问的方式得到问题,然后将每个掩码后的实体关系组合和对其提问的问题作为一条问答数据,生成所述微调数据。
优选地,所述利用所述微调数据对所述预训练模型进行微调,得到问题生成模型,进一步包括:
基于所生成的微调数据,利用掩码后的实体关系组合作为所述预训练模型的编码器端的输入,利用所述微调数据中的问题作为所述预训练模型的解码器端的输出,对预训练模型进行端对端的微调,得到从掩码后的实体关系组合生成问题的问题生成模型。
优选地,所述基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集,进一步包括:
将所述掩码后的全量实体关系组合输入所述问题生成模型的编码器端,对于每个输入的掩码后的实体关系组合,由所述问题生成模型的解码器端输出对应的问题,以每个实体关系组合中被掩码的实体作为答案,将所述问题和答案进行关联,形成所述问答数据集。
本发明另一方面提供了一种基于知识图谱的问答方法,包括:
接收用户输入的问题;
根据所述问题在问答语料库中进行检索,得到问答对,所述问答语料库是根据前述第一方面所述的方法基于知识图谱生成的;
将所述问答对中的答案返回给所述用户。
本发明第三方面提供了一种基于知识图谱的问答库生成装置,其特征在于,包括:
获取模块,从知识图谱中获取实体关系组合;
处理模块,对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;
微调模块,利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
生成模块,基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
本发明第四方面提供了一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有多条指令,所述处理器用于读取所述指令并执行如上述第一方面的方法。
本发明第五方面提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述多条指令可被处理器读取并执行如上述第一方面的方法。
本发明的有益效果是:
首先,本发明的问答数据库是基于模型自动生成的,相比于传统方案,省略了人工输入问答数据的过程,显著降低了数据集建设成本。
其次,本发明的问答数据集中所生成的问题源于已有的知识图谱,确保了数据集的准确性和高质量。
第三,基于本发明的方法构建的问答语料库能够仅通过简单的数据库检索匹配来实现基于知识库的问答(KBQA)任务,相较于传统KBQA方法,在提升效率的同时还能够提升问答正确率。
附图说明
图1为本发明所述的基于知识图谱的问答库生成方法的流程图。
图2为本发明所述的从知识图谱中获取知识组的三种启发式规则的流程图。
图3为本发明所述的利用实体掩码构建问答数据库的流程图。
图4为本发明所述的对预训练模型的两项预训练任务的效果示意图。
图5为本发明所述的基于知识图谱的问答库生成方法的流程图。
图6为本发明所述的基于知识图谱的问答库生成装置的框图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案做详细的说明。
本发明提供的方法可以在如下的终端环境中实施,该终端可以包括一个或多个如下部件:处理器、存储器和显示屏。其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行以实现下述实施例所述的方法。
处理器可以包括一个或者多个处理核心。处理器利用各种接口和线路连接整个终端内的各个部分,通过运行或执行存储在存储器内的指令、程序、代码集或指令集,以及调用存储在存储器内的数据,执行终端的各种功能和处理数据。
存储器可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory,ROM)。存储器可用于存储指令、程序、代码、代码集或指令。
显示屏用于显示各个应用程序的用户界面。
除此之外,本领域技术人员可以理解,上述终端的结构并不构成对终端的限定,终端可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。比如,终端中还包括射频电路、输入单元、传感器、音频电路、电源等部件,在此不再赘述。
实施例一
针对传统方法存在的不足,本发明首先在第一方面提供了一种基于知识图谱的问答库生成方法,将从知识图谱中抽取的实体关系组合进行随机掩码,利用预先训练得到的问题生成模型得到问题,与被掩码的实体或关系构成问答对。
参见图1,本发明的基于知识图谱的问答库生成方法具体包括:
步骤S1,从知识图谱中获取实体关系组合;
在接收到知识图谱之后,自动地处理知识图谱中的三元组从而获取知识组,即实体关系组合;
在进一步实施例中,本发明依据一系列启发式规则,处理知识图谱中的三元组从而获取知识组,所述启发式规则具体包括以下三种中的一种或多种:
1)匹配实体的一度关系的模板,
2)匹配实体的二度关系的模板,
3)联合两实体且关系为一度的模板。
所述启发式规则所代表的模板如图2所示。以实体“张三”为例,借助规则1),可以抽取与张三相关的一度关系知识,如“张三-国籍 -A国”等;借助规则2),可以抽取与张三相关的二度关系知识,如“张三-妻子-李四-职业-演员”等;借助规则3),可以抽取联合两实体且关系为一度的知识,如“张三-妻子-李四和张三-职业-演员、导演”等。
步骤S2,对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据。
首先对上述全量知识组中的实体进行随机掩码,然后随机选取一部分掩码后的知识组,通过人工向用户提问的方式得到问题。最后,利用每个掩码后的知识组和对其提问的问题作为一条数据,以此方式来构成微调数据。
例如图3所示,对于知识组“张三-国籍-A国”,在随机掩码过程中,将实体“A国”进行掩码,得到掩码后的知识组“张三-国籍-?X”,通过人工向用户提问的方式得到问题“张三是哪个国家的?”,从而组成一条微调数据,包括“张三-国籍-?X”和“张三是哪个国家的?”。
步骤S3,利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
具体地,所述预训练模型包括编码器和解码器,基于所述生成的微调数据,利用微调数据中的掩码后的知识组作为编码器端的输入,利用微调数据中的问题作为解码器端的输出,对所述预训练模型进行端对端的微调,从而得到问题生成模型。
例如图3所示,将掩码后的知识组“张三-国籍-?X”输入问题生成模型的编码器,并将微调数据中的问题“张三是哪个国家的?”作为问题生成模型的解码器端的输出,对预训练模型进行端对端微调,训练得到问题生成模型。
对于知识图谱中的二度关系知识和联合两实体的一度关系知识,也可以采用类似于上述的方式进行随机掩码,从而得到问题生成模型的其他项。
由于本发明的问题生成模型所生成的问题源于已有的知识图谱,因此确保了数据集具有较高的准确性和质量。
其中,所述预训练模型是在已有的特定模型的基础上,利用大规模语料进行实体预测训练,增强模型word knowledge(语言知识)能力和问题生成能力。其中,参见图4所示,本发明设计两项预训练任务。
第一任务是从段落生成问题,利用阅读理解语料库的段落和问题,训练特定模型根据输入的段落生成对应的问题,以此来提高预训练模型的问题生成能力。所述阅读理解语料库包含大量段落-问题对的数据集,其中每条数据包含一段文字和一个针对该段文字内容提出的可以被回答的问题。
第二任务是利用百科语料进行预训练,对百科语料中标记有超链接的实体进行掩码,训练特定模型根据掩码后的段落得到被掩码的部分,以此增强预训练模型的wordknowledge(语言知识)的能力。所述百科语料是由百科中大量文本段落组成的数据集,每条数据选自百科中对某个实体的介绍和描述。
具体地,所述预训练模型的训练方法如下:
获取阅读理解语料库和百科语料库;
利用所述阅读理解语料库中的段落和问题生成第一训练数据集;
对所述百科语料库中标记有超链接的实体进行掩码,生成第二训练数据集,所述第二训练数据集包括掩码后的百科语料的段落和所掩码的实体;
利用所述第一训练数据集和第二训练数据集对特定模型训练得到所述预训练模型。包括将第一训练数据集中的段落作为模型输入,以问题作为模型的期望输出,对模型进行段落到问题生成任务的预训练;将第二训练数据集中的掩码后的段落作为输入,以所掩码的实体作为期望输出,对模型进行掩码实体预测任务的预训练。
所述特定模型可选地为预训练语言模型,例如BART、T5、GLM 等预训练模型。
步骤S4,基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
根据步骤S2中得到的掩码后的全部知识组,将其作为输入数据,输入步骤S3中得到的问题生成模型的编码器端,对于每个输入的掩码后知识组,所述问题生成模型的解码器端输出对应的问题,以该知识组中被掩码的实体作为答案,和所输出的问题组成一条问答数据。将所有上述问答数据的集合作为问答数据集。
例如图3所示,将掩码后的知识组“张三-妻子-李四-职业-?X”输入问题生成模型的编码器,则问题生成模型的解码器端输出“张三的妻子李四是做什么的?”,从而得到一条问答数据{“id”,“1024”,“question”,“张三的妻子李四是做什么的?”,“answer”,“演员”}。
由于问答数据集是基于模型自动生成的,不需要人工输入问答数据,显著降低了数据集建设成本。
实施例二
在此基础上,本发明的实施例还提出了一种使用上述问答库的 KBQA(知识库问答)方法。即针对用户输入的新的问题,仅需要在基于知识图谱生成的问答库中进行检索,利用构建的大规模问答语料库,将基于知识的问答任务转化为语料库检索任务,即可得到问题的答案,而不需要进行实体识别、关系抽取、实体链接等步骤。
参见图5,本发明的基于知识图谱的问答方法是基于通过上述实施例生成的问答库来实现的,具体包括:
步骤S101,接收用户输入的问题;
步骤S102,根据所述问题在问答语料库中进行检索,得到问答对,所述问答语料库是根据前述基于知识图谱的问答库生成方法所生成的;
根据用户输入的问题,所述问答系统通过ES搜索引擎(Elastic Search)进行句子相似度的计算,在基于知识图谱生成的问答语料库中进行检索匹配,首先召回相似度最高的K个问答对;K为整数,并可根据用户需求进行任意调整;
在可选方式中,当得到K个问答对之后,所述问答系统利用利用预设排序模型,例如强语义表示能力的排序模型(如BERT)对K 个问答对进行重排序;
步骤S103,将所述问答对中的答案返回给所述用户。
优选地,问答系统可将排在首位的问题的答案作为用户问题的答案返回至用户端。
可见,基于本发明的方法构建的问答语料库能够仅通过简单的数据库检索匹配来实现KBQA任务,在提升效率的同时能够提升问答正确率。
实施例三
如图6所示,本发明的另一方面还涉及与前述问答库生成方法流程对应一致的功能装置,即本发明实施例还提供了一种基于知识图谱的问答库生成装置,其特征在于,包括:
获取模块201,从知识图谱中获取实体关系组合;
处理模块202,对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;
微调模块203,利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
生成模块204,基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
在优选的实施例中,所述获取模块201进一步包括:
启发式规则模块,利用于基于启发式规则来处理知识图谱中的三元组,作为所述实体关系组合。
在优选的实施例中,所述启发式规则进一步包括:
匹配实体的一度关系的模板;
匹配实体的二度关系的模板;和/或
将两个实体进行联合且关系为一度的模板。
在优选的实施例中,所述预训练模型是按照下述方式预先训练得到的:
利用对话问答语料库的段落和问题的映射关系来生成对应的问题;
利用百科语料进行预训练,对所述百科语料中标记有超链接的实体进行掩码。
在优选的实施例中,所述处理模块202进一步包括:
问题获取模块,利用于对于所抽取的掩码后的部分实体关系组合,通过人工提问的方式得到问题;
微调数据生成模块,将每个掩码后的实体关系组合和对其提问的问题作为一条问答数据,生成所述微调数据。
在优选的实施例中,所述微调模块203进一步包括:
微调模块,利用于基于所生成的微调数据,利用掩码后的实体关系组合作为所述预训练模型的编码器端的输入,利用所述微调数据中的问题作为所述预训练模型的解码器端的输出,对预训练模型进行端对端的微调,得到从掩码后的实体关系组合生成问题的问题生成模型。
在优选的实施例中,所述生成模块204进一步包括:
输入和输出模块,利用于将所述掩码后的全量实体关系组合输入所述问题生成模型的编码器端,对于每个输入的掩码后的实体关系组合,由所述问题生成模型的解码器端输出对应的问题;
数据集形成模块,以每个实体关系组合中被掩码的实体作为答案,将所述问题和答案进行关联,形成所述问答数据集。
本发明还提供了一种存储器,存储有多条指令,所述指令用于实现如实施例一所述的方法。
本发明还提供了一种电子设备,包括处理器和与所述处理器连接的存储器,所述存储器存储有多条指令,所述指令可被所述处理器加载并执行,以使所述处理器能够执行如实施例一所述的方法。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于知识图谱的问答库生成方法,其特征在于,包括:
从知识图谱中获取实体关系组合;
对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;
利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
2.根据权利要求1所述的方法,其特征在于,所述从知识图谱中获取实体关系组合,进一步包括:
基于启发式规则来处理知识图谱中的三元组,作为所述实体关系组合;
所述启发式规则包括:
匹配实体的一度关系的模板;
匹配实体的二度关系的模板;和/或
将两个实体进行联合且关系为一度的模板。
3.根据权利要求1所述的方法,其特征在于,所述预训练模型是按照下述方式预先训练得到的:
获取阅读理解语料库和百科语料库;
利用所述阅读理解语料库中的段落和答案生成问题得到第一训练数据集;
对所述百科语料库中标记有超链接的实体进行掩码预测,得到第二训练数据集;
利用所述第一训练数据集和第二训练数据集对特定模型进行预训练得到所述预训练模型。
4.根据权利要求1所述的方法,其特征在于,所述生成微调数据,进一步包括:
对于所抽取的掩码后的部分实体关系组合,通过人工提问的方式得到问题,然后将每个掩码后的实体关系组合和对其提问的问题作为一条问答数据,生成所述微调数据。
5.根据权利要求1所述的方法,其特征在于,所述利用所述微调数据对所述预训练模型进行微调,得到问题生成模型,进一步包括:
基于所生成的微调数据,利用掩码后的实体关系组合作为所述预训练模型的编码器端的输入,利用所述微调数据中的问题作为所述预训练模型的解码器端的输出,对预训练模型进行端对端的微调,得到从掩码后的实体关系组合生成问题的问题生成模型。
6.根据权利要求1所述的方法,其特征在于,所述基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集,进一步包括:
将所述掩码后的全量实体关系组合输入所述问题生成模型的编码器端,对于每个输入的掩码后的实体关系组合,由所述问题生成模型的解码器端输出对应的问题,以每个实体关系组合中被掩码的实体作为答案,将所述问题和答案进行关联,形成所述问答数据集。
7.一种基于知识图谱的问答方法,其特征在于,包括:
接收用户输入的问题;
根据所述问题在问答语料库中进行检索,得到问答对,所述问答语料库是根据权利要求1-6中任一所述的方法基于知识图谱生成的;
将所述问答对中的答案返回给所述用户。
8.一种基于知识图谱的问答库生成装置,其特征在于,包括:
获取模块,从知识图谱中获取实体关系组合;
处理模块,对所述实体关系组合中的实体进行随机掩码,抽取掩码后的部分实体关系组合,生成微调数据;
微调模块,利用所述微调数据对预先训练得到的预训练模型进行微调,得到问题生成模型;
生成模块,基于掩码后的全量实体关系组合和所述问题生成模型,生成问答数据集。
9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有多条指令,所述处理器用于读取所述指令并执行如权利要求1至7任一所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述多条指令可被处理器读取并执行如权利要求1至7任一所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2021109098255 | 2021-08-09 | ||
CN202110909825.5A CN113590844A (zh) | 2021-08-09 | 2021-08-09 | 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114707000A true CN114707000A (zh) | 2022-07-05 |
Family
ID=78256495
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110909825.5A Pending CN113590844A (zh) | 2021-08-09 | 2021-08-09 | 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 |
CN202210389505.6A Pending CN114707000A (zh) | 2021-08-09 | 2022-04-14 | 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110909825.5A Pending CN113590844A (zh) | 2021-08-09 | 2021-08-09 | 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN113590844A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116860978A (zh) * | 2023-08-31 | 2023-10-10 | 南京云创大数据科技股份有限公司 | 基于知识图谱和大模型的小学语文个性化学习系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116861928B (zh) * | 2023-07-07 | 2023-11-17 | 北京中关村科金技术有限公司 | 指令微调数据的生成方法、装置、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111090736B (zh) * | 2018-10-24 | 2021-04-20 | 马上消费金融股份有限公司 | 问答模型的训练方法、问答方法、装置及计算机存储介质 |
CN111506721B (zh) * | 2020-04-22 | 2022-10-11 | 福州大学 | 一种面向领域知识图谱的问答系统及构建方法 |
CN111639163A (zh) * | 2020-04-29 | 2020-09-08 | 深圳壹账通智能科技有限公司 | 问题生成模型的训练方法、问题生成方法及其相关设备 |
CN112100351A (zh) * | 2020-09-11 | 2020-12-18 | 陕西师范大学 | 一种通过问题生成数据集构建智能问答系统的方法及设备 |
CN112163076B (zh) * | 2020-09-27 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 知识问题库构建方法、问答处理方法、装置、设备和介质 |
CN113127623A (zh) * | 2021-05-06 | 2021-07-16 | 东南大学 | 一种基于混合专家模型和联合学习的知识库问题生成方法 |
-
2021
- 2021-08-09 CN CN202110909825.5A patent/CN113590844A/zh active Pending
-
2022
- 2022-04-14 CN CN202210389505.6A patent/CN114707000A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116860978A (zh) * | 2023-08-31 | 2023-10-10 | 南京云创大数据科技股份有限公司 | 基于知识图谱和大模型的小学语文个性化学习系统 |
CN116860978B (zh) * | 2023-08-31 | 2023-11-21 | 南京云创大数据科技股份有限公司 | 基于知识图谱和大模型的小学语文个性化学习系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113590844A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108345690B (zh) | 智能问答方法与系统 | |
CN114707000A (zh) | 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质 | |
CN109947952B (zh) | 基于英语知识图谱的检索方法、装置、设备及存储介质 | |
CN105677872B (zh) | 一种题目搜索方法、题目搜索装置及学习设备 | |
KR20180041200A (ko) | 정보 처리 방법 및 장치 | |
CN110929045B (zh) | 诗歌-语义知识图谱的构建方法及系统 | |
CN109977291B (zh) | 基于物理知识图谱的检索方法、装置、设备及存储介质 | |
CN109902087B (zh) | 用于问答的数据处理方法及装置、服务器 | |
CN102262634A (zh) | 一种自动问答方法及系统 | |
CN106980652B (zh) | 智能问答方法及系统 | |
CN113672708A (zh) | 语言模型训练方法、问答对生成方法、装置及设备 | |
CN108549710B (zh) | 智能问答方法、装置、存储介质及设备 | |
CN111125295B (zh) | 一种基于lstm的获取食品安全问题答案的方法及系统 | |
CN110110090A (zh) | 搜索方法、教育搜索引擎系统及装置 | |
CN106844512B (zh) | 智能问答方法及系统 | |
CN111753616A (zh) | 一种错题收集方法及学习设备 | |
CN113127617A (zh) | 通用领域知识图谱的知识问答方法、终端设备及存储介质 | |
CN112417174A (zh) | 一种数据处理的方法和装置 | |
CN117312509A (zh) | 一种海量信息下基于大语言模型的知识库问答方法及装置 | |
CN116561271A (zh) | 问答处理方法及装置 | |
CN115757720A (zh) | 基于知识图谱的项目信息搜索方法、装置、设备和介质 | |
KR101662399B1 (ko) | 키워드 입력 기반의 사용자 관심정보를 이용한 질의응답 장치 및 방법 | |
CN109086389A (zh) | 一种信息查询方法、推送方法、装置及电子设备 | |
CN111813919B (zh) | 一种基于句法分析与关键词检测的mooc课程评价方法 | |
CN114637765A (zh) | 基于表格数据的人机交互方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |