CN117033668B - 一种知识图谱质量评估方法、装置、存储介质及电子设备 - Google Patents

一种知识图谱质量评估方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117033668B
CN117033668B CN202311286041.7A CN202311286041A CN117033668B CN 117033668 B CN117033668 B CN 117033668B CN 202311286041 A CN202311286041 A CN 202311286041A CN 117033668 B CN117033668 B CN 117033668B
Authority
CN
China
Prior art keywords
knowledge
sample
language model
large language
sample knowledge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311286041.7A
Other languages
English (en)
Other versions
CN117033668A (zh
Inventor
段宏英
董波
孔祥夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202311286041.7A priority Critical patent/CN117033668B/zh
Publication of CN117033668A publication Critical patent/CN117033668A/zh
Application granted granted Critical
Publication of CN117033668B publication Critical patent/CN117033668B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

本说明书公开了一种知识图谱质量评估方法、装置、存储介质及电子设备。在本说明书提供的知识图谱质量评估方法中,获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;确定所述样本知识是否正确,作为所述样本知识的标注结果;将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。

Description

一种知识图谱质量评估方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种知识图谱质量评估方法、装置、存储介质及电子设备。
背景技术
知识图谱构建多数是对海量异构数据进行处理和分析,构建知识库。但由于现实世界中数据质量往往参差不齐,存在不一致性、不准确、重复等问题。如果不对抽取的知识质量进行评估,会严重影响下游任务。因此质量评估在知识图谱的构建过程中至关重要。
目前,现有技术中对知识图谱进行质量评估的主要方式存在两种。一种是人工评估,通过抽样检测的方式对知识图谱进行评估;另一种是规则推理,结合sparql规则与形式逻辑等,需要人工熟悉数据后发现规则并进行验证。
然而上述方法均存在一些缺陷。一方面,对于大规模知识图谱,人工检测所有条目不现实,而采用抽取样本来估计总体准确率的方式很可能由于抽取样本的局限性导致估计结果和真实结果存在较大偏差;并且基于人工抽样方法仅可用于评估知识图谱的质量,无法实现错误检测和纠正。另一方面,由于知识图谱的无模式性,并且针对不同的下游任务和不同的数据集有不同的质量要求,对不同的数据需要人工构造大量不同规则,很难找到一个适用各种格式数据的普适性规则。可见,上述两种现有方法均不够准确且对人工的依赖程度较高。
因此,如何在构建知识图谱的过程中进行效果更好、对人工依赖更低的知识图谱质量评估是一个亟待解决的问题。
发明内容
本说明书提供一种知识图谱质量评估方法、装置、存储介质及电子设备,以至少部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种知识图谱质量评估方法,包括:
获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;
确定所述样本知识是否正确,作为所述样本知识的标注结果;
将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;
根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;
采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;
将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。
可选地,确定所述样本知识是否正确,具体包括:
针对每个样本知识,通过众包评估的方式,确定该样本知识的指定数量个独立评估结果;
根据各独立评估结果确定该样本知识的标注结果。
可选地,所述第一大语言模型为闭源大语言模型,所述第二大语言模型为开源大语言模型。
可选地,根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识,具体包括:
针对每个样本知识,当该样本知识的标注结果与该样本知识的样本评估结果相同时,将该样本知识确定为正样本知识;
当该样本知识的标注结果与该样本知识的样本评估结果不同时,将该样本知识确定为负样本知识。
可选地,将该样本知识确定为负样本知识,具体包括:
将该样本知识重新输入所述第一大语言模型,重新得到所述第一大语言模型对该样本知识的样本评估结果,直到所述第一大语言模型对该样本知识的样本评估结果与该样本知识的标注结果相同,或所述第一大语言模型重新评估该样本知识的次数达到指定阈值;
当所述第一大语言模型对该样本知识的评估结果与该样本知识的标注结果相同时,将该样本知识确定为正样本知识;
当所述第一大语言模型重新评估该样本知识的次数达到指定阈值时,将该样本知识确定为强化负样本知识。
可选地,采用所述正样本知识与所述负样本知识对第二大语言模型进行调整,具体包括:
将所述正样本知识与所述负样本知识输入所述第二大语言模型;
根据所述第二大语言模型对所述正样本知识与所述负样本知识的学习结果,对预先设置的低秩分解矩阵进行优化;
采用所述低秩分解矩阵调整所述第二大语言模型的参数。
可选地,将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果,具体包括:
将目标领域的目标知识图谱输入调整后的所述第二大语言模型,以使所述第二大语言模型针对所述目标知识图谱中的每一类知识,判定该类知识中包含的各知识是否正确,并根据所述各知识的判断结果,确定所述目标知识图谱中该类知识的准确率;
得到所述第二大语言模型输出的所述目标知识图谱中各类知识的准确率,作为所述目标知识图谱的评估结果。
本说明书提供的一种知识图谱质量评估的装置,所述装置包括:
获取模块,用于获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;
标注模块,用于确定所述样本知识是否正确,作为所述样本知识的标注结果;
输入模块,用于将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;
确定模块,用于根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;
调整模块,用于采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;
评估模块,用于将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述知识图谱质量评估方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述知识图谱质量评估方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的知识图谱质量评估方法中,获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;确定所述样本知识是否正确,作为所述样本知识的标注结果;将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。
在采用本说明书提供的知识图谱质量评估方法对目标领域的目标知识图谱进行评估时,可首先获取目标领域的样本知识图谱中的样本知识,并利用针对样本知识确定出的标注结果与闭源的第一大语言模型对样本知识的样本评估结果,确定出正样本知识与负样本知识,用于对开源的第二大语言模型进行调整,最终得到掌握目标领域的专业知识的第二大语言模型,对目标知识图谱进行评估。本方法可通过大语言模型对知识图谱进行自动化地评估,有效减少了传统评估方法中对人工的依赖;同时,大语言模型能够给出更加准确、清晰的评估结果,提高了对知识图谱进行评估时的准确率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种知识图谱质量评估方法的流程示意图;
图2为本说明书提供的一种知识图谱质量评估装置的示意图;
图3为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
通常情况下,知识图谱质量评估的主要工作可以分为两部分。一,在宏观上,对图谱的质量进行把控,比如可以通过随机抽样的方法来评估图谱的准确率,决定该图谱是否适用于下游任务;二,在微观上,发现图谱中的元组知识的错误、知识冲突、知识不完备,并对发现的错误进行纠正、清除、补全。本说明书提供的知识图谱质量评估方法主要聚焦于第二部分,同时对知识图谱给出较为精准的准确率。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种知识图谱质量评估方法的流程示意图,具体包括以下步骤:
S100:获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识。
本说明书所提供的知识图谱质量评估方法中的所有步骤均可由任何具有计算功能的电子设备实现,例如终端、服务器等设备。
本方法主要用于对某一领域内的知识图谱的质量进行评估。基于此,可在此步骤中首先获取目标领域的样本知识图谱。其中,目标领域可以是存在领域专有知识的任一学术或技术领域;样本知识图谱为包含目标领域的专有知识的知识图谱。
随后,可提取出样本知识图谱中包含的样本知识。一般地,知识图谱以图数据的形式存在,包含若干节点与节点之间的边。知识图谱中可包括实体以及各实体间的关系,其中,各节点表示实体,节点间的连线表示实体间的关系。通常情况下,采用多元组的形式表示知识图谱中的知识,以最简单的多元组——三元组为例,知识图谱中的任意两个节点与该两个节点之间的边可构成一个三元组。例如,假设知识图谱中存在节点“北京”和节点“中国”,两个节点之间存在表示关系为“首都”的边,那么实体“北京”、实体“中国”以及关系“首都”便能够构成一个三元组,也就是一个知识,这一知识可以理解为“北京是中国的首都”。
按照上述定义便能够提取出样本知识图谱中的样本知识,用于后续步骤。通常情况下,样本知识均以三元组的形式存在。
S102:确定所述样本知识是否正确,作为所述样本知识的标注结果。
在步骤S100中从获取到的样本知识图谱中提取出样本知识后,可在此步骤中,确定样本知识是否正确,作为样本知识的标注结果。对于任一样本知识的标注结果,有且仅有两种可能的情况。一种为表示样本知识正确,标注结果可以为“正确”或“是”等;另一种为表示样本知识错误,标注结果可以为“错误”或“否”等。为了使本说明书的表述更加简洁,在本说明书后续内容中,无特殊解释的情况下,均采用“是”表示样本知识正确的标注结果,采用“否”表示样本知识错误的标注结果。
在确定样本知识图谱中的各样本知识是否正确时,存在多种不同的方式,例如,可直接选用已经经过验证或已经存在标注结果的知识图谱作为样本知识图谱。而对于没有经过打标的样本知识图谱,同样存在多种对样本知识图谱进行打标的方式,本说明书在此提供一种具体实施例以供参考。具体的,可针对每个样本知识,通过众包评估的方式,确定该样本知识的指定数量个独立评估结果;根据各独立评估结果确定该样本知识的标注结果。
对于知识的评估而言,由于个体之间不可避免地会存在认知上的差异,因此,单独的一个人对样本知识的评估结果很有可能是不准确的。因此,可以通过众包评估的方式,对每个样本知识均采用多人进行评估。其中,指定数量,也就是参与众包评估的人数可根据具体需求进行设置,本说明书对此不做具体限制。在针对每个样本知识得到指定数量个独立评估结果后,便可根据各独立评估结果确定出每个样本知识最终的标注结果。独立评估结果与标注结果相同,也存在“是”和“否”两种。因此,在根据独立评估结果确定标注结果时,可具体的,将各独立评估结果中占比更多的一种结果确定为最终的标注结果。举例来说,假设采用30个人众包评估一个样本知识,其中25人给出的独立评估结果为“是”,5人给出的独立评估结果为“否”,那么便可以将“是”作为该样本知识最终的标注结果。
S104:将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果。
在此步骤中,可将步骤S100中确定出的样本知识输入到第一大语言模型中,使第一大语言模型对样本知识进行评估。大语言模型(Large Language Model,LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等。常见的大语言模型例如GPT模型、LaMDA模型等。
在本说明书提供的知识图谱质量评估方法最终希望能够实现采用大语言模型对知识图谱进行自动化地评估,从而节省达到节省人力成本的效果。在本方法中,第一大语言模型为经过预先训练,已经较为成熟的闭源大模型,例如GPT-4等模型。大语言模型对样本知识的评估是依靠自然语言处理的能力执行的,虽然大语言模型有着优秀的自然语言处理能力,但其对专业领域的知识储备很可能不足,在此阶段仅依靠第一大语言模型对样本知识进行的评估很有可能并不准确。因此,可在此步骤中通过使用较为成熟的第一大语言模型对样本知识图谱进行评估,得到样本评估结果,以了解当前阶段大语言模型对知识图谱的评估能力。
同时,闭源的第一大语言模型能够凭借优秀的语言理解能力接收各种各样的文本指令。因此,输入第一大语言模型的评估指令的格式可存在多种。例如,可在输入一个或多个样本知识后,向第一大语言模型输入“请判断上述知识是否正确”作为评估指令,引导第一大语言模型对样本知识进行评估。
S106:根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识。
根据步骤S102中确定出的标注结果,与步骤S104中确定出的样本评估结果,可在此步骤中,确定出样本知识中的正样本知识与负样本知识,以在后续步骤中作为训练样本使用。
在本说明书提供的知识图谱质量评估方法中,正样本知识与负样本知识是根据第一大语言模型是否能够正确判断出样本知识的对错来决定的。一般情况下,所有大语言模型的原始功能实际上是相似的,即通过卓越的自然语言理解能力完成多个应用场景的任务。同样的,各大语言模型区别体现在模型参数量级导致的模型最终对自然语言、音频、视频等各形式知识的理解能力上。而对于大多数学术或技术领域中的专业知识,大语言模型本身的认知并不充分,大多依靠搜索引擎来处理相关的问题,效果也大多不尽人意。在这一基础上,如GPT-4等的参数量级较大的闭源大语言模型对于目标领域中的样本知识的正确与否的判断能力会相对较高。以闭源的第一大语言模型输出的样本评估结果为基础,便能够确定出针对大语言模型训练的正样本知识与负样本知识。
具体的,可针对每个样本知识,当该样本知识的标注结果与该样本知识的样本评估结果相同时,将该样本知识确定为正样本知识;当该样本知识的标注结果与该样本知识的样本评估结果不同时,将该样本知识确定为负样本知识。
可以认为,在步骤S102中确定出的标注结果,是对于样本知识的正确评估。换句话说,对于一个样本知识是否正确,其标注结果便是准确的答案。因此,可采用标注结果来对第一大语言模型给出的样本评估结果进行检验。对于任一样本知识,当该样本知识的标注结果与样本评估结果相同时,表明第一大语言模型对于该样本知识的评估是正确的,可将该样本知识确定为正样本知识;而当该样本知识的标注结果与样本评估结果不同时,表明第一大语言模型对于该样本知识的评估是错误的,可将该样本知识确定为负样本知识。可以想到的,第一大语言模型给出的样本评估结果同样存在表示正确的“是”和表示错误的“否”两种。
更进一步地,由于大语言模型属于生成式模型,导致对于同样的问题,大语言模型每次给出的回答都可能不同,并且其回答会受提问方式、语序、指令、上下文等因素的影响。基于此,对于标注结果与第一大语言模型的样本评估结果不同的样本知识,也就是负样本知识,可以尝试以多种不同的提问方式多次输入给第一大语言模型,让第一大语言模型在不同指令下对负样本知识进行多次评估,尽量避免由于提问指令的影响导致第一大语言模型判断错误的情况,观察大语言模型自我纠正的能力的同时,确定出大语言模型难以辨别的强化负样本知识。
具体的,对于任一样本知识,当该样本知识的标注结果与该样本知识的样本评估结果不同时,可将该样本知识在修改指令后重新输入所述第一大语言模型,重新得到所述第一大语言模型对该样本知识的样本评估结果,直到所述第一大语言模型对该样本知识的样本评估结果与该样本知识的标注结果相同,或所述第一大语言模型重新评估该样本知识的次数达到指定阈值;当所述第一大语言模型对该样本知识的评估结果与该样本知识的标注结果相同时,将该样本知识确定为正样本知识;当所述第一大语言模型重新评估该样本知识的次数达到指定阈值时,将该样本知识确定为强化负样本知识。
其中,指定阈值可根据具体需求进行设置,例如3、5等,本说明书对此不做具体限制。强化负样本知识为第一大语言模型在进行多次评估时,每次评估给出的样本评估结果与标注结果都不相同的样本知识。也就是在多次评估后依旧无法准确判断其正确与否的样本知识。
S108:采用所述正样本知识与所述负样本知识对第二大语言模型进行调整。
在步骤S106中确定出样本知识中的正样本知识与负样本知识后,可在此步骤中采用正样本知识与负样本知识对第二大语言模型进行训练与调整。由于为了保证对样本知识图谱进行评估得到的样本评估结果的效果,在上述步骤中均采用了较为成熟的第一大语言模型。然而,由于第一大语言模型是闭源模型,无法对其参数进行调整。因此,在此步骤中,采用正样本知识与负样本知识对第二大语言模型进行调整。可以想到的,第二大语言模型应为开源的大语言模型,例如chatglm等模型。
同样得益于大语言模型本身优秀的语言处理能力,对第二大语言模型进行调整的过程较并不复杂。将正样本知识与负样本知识以文本的形式输入给第二大语言模型,使第二大语言模型不断地学习目标领域的专业知识。例如,对于三元组实体“北京”、实体“中国”、关系“首都”这一正样本知识,可直接将“北京是中国的首都”这一文本作为知识输入给第二大语言模型,使第二大语言模型进行学习;而对于三元组实体“上海”、实体“中国”、关系“首都”这一负样本知识,可将“上海不是中国的首都”输入第二大语言模型进行学习。在此过程中,第二大语言模型的参数便会相应地进行调整。最终,第二大语言模型便能够较好地掌握输入的样本知识。
更进一步地,除上述直接以陈述的形式将样本知识输入给第二大语言模型的方式外,还可采用问答对的形式将样本知识输入给第二大语言模型。仍沿用上例,对于三元组实体“北京”、实体“中国”、关系“首都”这一正样本知识,可将问题“北京是中国的首都吗?”以及答案“是”一同输入给第二大语言模型;而对于三元组实体“上海”、实体“中国”、关系“首都”这一负样本知识,可将问题“上海是中国的首都吗?”以及答案“不是”一同输入给第二大语言模型。通过上述问答对的方式,同样可使第二大语言模型较好地学习各样本知识。
额外的,对于大语言模型难以判断的强化负样本知识,可在第二大语言模型学习的过程中多次作为学习语料输入到第二大语言模型中,以强化第二大语言模型对于这一强化负样本知识的掌握。由于在第一大语言模型评估的过程中,针对一个强化负样本知识会采用多种不同的指令进行输入,因此也就产生了对应于多种不同指令的多个问答对,作为对第二大语言模型进行调整的学习语料,多次输入到第二大语言模型中。
更优的,在训练的过程对第二大语言模型的参数进行调整时,除了对第二大语言模型本身内部的参数进行调整之外,还可采用低秩分解矩阵的形式,对第二大语言模型的参数进行辅助调整。具体的,可将所述正样本知识与所述负样本知识输入所述第二大语言模型;根据所述第二大语言模型对所述正样本知识与所述负样本知识的学习结果,对预先设置的低秩分解矩阵进行优化;采用所述低秩分解矩阵调整所述第二大语言模型的参数。
在第二大语言模型本身的参数之外,可额外设置低秩分解矩阵。其中,低秩分解矩阵可采用LoRA框架进行微调,冻结预训练模型权重,在预训练模型的权重矩阵中添加一个低秩分解矩阵,使模型能够更好地执行特定的任务或领域,减少了下游任务的可训练参数数量。每次采用样本知识图谱对第二大语言模型进行训练时,可不改变模型本身的参数,而只改变低秩分解矩阵中元素的值。而在第二大语言模型实际工作时,参数矩阵会与低秩分解矩阵相结合,并得到最终作用于第二大语言模型的参数。由此,能够更加方便地对第二大语言模型进行调整与回调。
在完成步骤S108,得到调整后的第二大语言模型后,可判断第二大语言模型是否满足应用的需求。如果第二大语言模型不满足应用的需求,可在当前阶段的基础上,再次执行步骤S100~步骤S108,对第二大语言模型进行进一步的调整。通过循环执行步骤S100~步骤S108,最终可得到能够满足应用需求的第二大语言模型。
S110:将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。
最终,在经过步骤S100~步骤S108后,便能够得到较好地掌握了目标领域的专业知识第二大语言模型。此时,可将第二大语言模型作为目标领域的质量评估专家大模型来使用,采用第二大语言模型对目标领域中的目标知识图谱进行准确率较高的评估。例如,可采用第二大语言模型对目标知识图谱中的每一个知识进行评估,并根据对所有知识的评估结果,给出目标知识图谱的准确率,以反映知识图谱的质量。
更优的,在进行评估时,还可按照知识的类别对目标知识图谱中的知识分别进行评估。具体的,可将目标领域的目标知识图谱输入调整后的所述第二大语言模型,以使所述第二大语言模型针对所述目标知识图谱中的每一类知识,判定该类知识中包含的各知识是否正确,并根据所述各知识的判断结果,确定所述目标知识图谱中该类知识的准确率;得到所述第二大语言模型输出的所述目标知识图谱中各类知识的准确率,作为所述目标知识图谱的评估结果。
其中,知识的类别可根据知识所对应的三元组中包含的关系来确定。例如,在一个影视领域的知识图谱中,可存在三元组实体“演员A”、实体“作品A”、关系“参演”这一知识,以及三元组实体“演员B”、实体“作品B”、关系“参演”这一知识,上述两个知识中,其连接两个实体的关系均为“参演”,那么便可将上述两个知识确定为同一类知识。
在按照上述方式分类评估目标知识图谱中的知识后,可以得到第二大语言模型给出的目标知识图谱中每一类知识的准确率。由此,便能够更加直观地判断出目标知识图谱中哪一部分知识更加准确,哪一部分知识更需要补强,使对目标知识图谱的评估结果更加准确、清晰、可靠。额外的,在确定出目标知识图谱中各类知识的准确率后,还可将各类知识的准确率的平均值作为目标知识图谱最终的评估结果,以反映出目标知识图谱的整体质量。
在采用本说明书提供的知识图谱质量评估方法对目标领域的目标知识图谱进行评估时,可首先获取目标领域的样本知识图谱中的样本知识,并利用针对样本知识确定出的标注结果与闭源的第一大语言模型对样本知识的样本评估结果,确定出正样本知识与负样本知识,用于对开源的第二大语言模型进行调整,最终得到掌握目标领域的专业知识的第二大语言模型,对目标知识图谱进行评估。本方法可通过大语言模型对知识图谱进行自动化地评估,有效减少了传统评估方法中对人工的依赖;同时,大语言模型能够给出更加准确、清晰的评估结果,提高了对知识图谱进行评估时的准确率。
更进一步地,在采用本说明书提供的知识图谱质量评估方法得到掌握目标领域的专业知识的专家大模型,也就是调整后的第二大语言模型后,仍可继续对第二大语言模型进行调整与改进。换句话说,就是在采用第二大语言模型对目标领域中的知识图谱进行评估的同时,积累沉淀评估过程中生成的正样本知识及负样本知识,用于后续对第二大语言模型的进行不断地调整与改进,以不断改善第二大语言模型对目标领域的知识图谱进行质量评估的能力。
需要说明的是,本方法仅在前期确定样本知识的标注结果时,可能会应用到人力。在得到调整后的第二大语言模型后,便可不再需要标注结果以及第一大语言模型等前期内容,直接采用第二大语言模型就已经能够对目标领域的知识图谱进行有效且准确的评估,不再对人工有任何依赖。
以上是本说明书提供的知识图谱质量评估方法,基于同样的思路,本说明书还提供了相应的知识图谱质量评估装置,如图2所示。
图2为本说明书提供的一种知识图谱质量评估装置示意图,具体包括:
获取模块200,用于获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;
标注模块202,用于确定所述样本知识是否正确,作为所述样本知识的标注结果;
输入模块204,用于将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;
确定模块206,用于根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;
调整模块208,用于采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;
评估模块210,用于将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果。
可选地,所述标注模块202,具体用于针对每个样本知识,通过众包评估的方式,确定该样本知识的指定数量个独立评估结果;根据各独立评估结果确定该样本知识的标注结果。
可选地,所述第一大语言模型为闭源大语言模型,所述第二大语言模型为开源大语言模型。
可选地,所述确定模块206,具体用于针对每个样本知识,当该样本知识的标注结果与该样本知识的样本评估结果相同时,将该样本知识确定为正样本知识;当该样本知识的标注结果与该样本知识的样本评估结果不同时,将该样本知识确定为负样本知识。
可选地,所述确定模块206,具体用于将该样本知识重新输入所述第一大语言模型,重新得到所述第一大语言模型对该样本知识的样本评估结果,直到所述第一大语言模型对该样本知识的样本评估结果与该样本知识的标注结果相同,或所述第一大语言模型重新评估该样本知识的次数达到指定阈值;当所述第一大语言模型对该样本知识的评估结果与该样本知识的标注结果相同时,将该样本知识确定为正样本知识;当所述第一大语言模型重新评估该样本知识的次数达到指定阈值时,将该样本知识确定为强化负样本知识。
可选地,所述调整模块208,具体用于将所述正样本知识与所述负样本知识输入所述第二大语言模型;根据所述第二大语言模型对所述正样本知识与所述负样本知识的学习结果,对预先设置的低秩分解矩阵进行优化;采用所述低秩分解矩阵调整所述第二大语言模型的参数。
可选地,所述评估模块210,具体用于将目标领域的目标知识图谱输入调整后的所述第二大语言模型,以使所述第二大语言模型针对所述目标知识图谱中的每一类知识,判定该类知识中包含的各知识是否正确,并根据所述各知识的判断结果,确定所述目标知识图谱中该类知识的准确率;得到所述第二大语言模型输出的所述目标知识图谱中各类知识的准确率,作为所述目标知识图谱的评估结果。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的知识图谱质量评估方法。
本说明书还提供了图3所示的电子设备的示意结构图。如图3所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的知识图谱质量评估方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (9)

1.一种知识图谱质量评估方法,其特征在于,包括:
获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;
确定所述样本知识是否正确,作为所述样本知识的标注结果;
将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;
根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;
采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;
将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果;
其中,所述目标领域是存在领域专有知识的任一学术或技术领域;所述样本知识图谱为包含目标领域的专有知识的知识图谱;
所述第一大语言模型为预先训练的闭源大语言模型,所述第二大语言模型为开源大语言模型。
2.如权利要求1所述的方法,其特征在于,确定所述样本知识是否正确,具体包括:
针对每个样本知识,通过众包评估的方式,确定该样本知识的指定数量个独立评估结果;
根据各独立评估结果确定该样本知识的标注结果。
3.如权利要求1所述的方法,其特征在于,根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识,具体包括:
针对每个样本知识,当该样本知识的标注结果与该样本知识的样本评估结果相同时,将该样本知识确定为正样本知识;
当该样本知识的标注结果与该样本知识的样本评估结果不同时,将该样本知识确定为负样本知识。
4.如权利要求3所述的方法,其特征在于,将该样本知识确定为负样本知识,具体包括:
将该样本知识重新输入所述第一大语言模型,重新得到所述第一大语言模型对该样本知识的样本评估结果,直到所述第一大语言模型对该样本知识的样本评估结果与该样本知识的标注结果相同,或所述第一大语言模型重新评估该样本知识的次数达到指定阈值;
当所述第一大语言模型对该样本知识的评估结果与该样本知识的标注结果相同时,将该样本知识确定为正样本知识;
当所述第一大语言模型重新评估该样本知识的次数达到指定阈值时,将该样本知识确定为强化负样本知识。
5.如权利要求1所述的方法,其特征在于,采用所述正样本知识与所述负样本知识对第二大语言模型进行调整,具体包括:
将所述正样本知识与所述负样本知识输入所述第二大语言模型;
根据所述第二大语言模型对所述正样本知识与所述负样本知识的学习结果,对预先设置的低秩分解矩阵进行优化;
采用所述低秩分解矩阵调整所述第二大语言模型的参数。
6.如权利要求1所述的方法,其特征在于,将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果,具体包括:
将目标领域的目标知识图谱输入调整后的所述第二大语言模型,以使所述第二大语言模型针对所述目标知识图谱中的每一类知识,判定该类知识中包含的各知识是否正确,并根据所述各知识的判断结果,确定所述目标知识图谱中该类知识的准确率;
得到所述第二大语言模型输出的所述目标知识图谱中各类知识的准确率,作为所述目标知识图谱的评估结果。
7.一种知识图谱质量评估装置,其特征在于,包括:
获取模块,用于获取目标领域的样本知识图谱,并提取所述样本知识图谱中的样本知识;
标注模块,用于确定所述样本知识是否正确,作为所述样本知识的标注结果;
输入模块,用于将所述样本知识与评估指令输入第一大语言模型,得到所述大语言模型输出的样本评估结果;
确定模块,用于根据所述标注结果与所述样本评估结果,在所述样本知识中确定正样本知识与负样本知识;
调整模块,用于采用所述正样本知识与所述负样本知识对第二大语言模型进行调整;
评估模块,用于将目标领域的目标知识图谱输入调整后的所述第二大语言模型,得到所述第二大语言模型对所述目标知识图谱的评估结果;
其中,所述目标领域是存在领域专有知识的任一学术或技术领域;所述样本知识图谱为包含目标领域的专有知识的知识图谱;
所述第一大语言模型为预先训练的闭源大语言模型,所述第二大语言模型为开源大语言模型。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~6任一项所述的方法。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~6任一项所述的方法。
CN202311286041.7A 2023-10-07 2023-10-07 一种知识图谱质量评估方法、装置、存储介质及电子设备 Active CN117033668B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311286041.7A CN117033668B (zh) 2023-10-07 2023-10-07 一种知识图谱质量评估方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311286041.7A CN117033668B (zh) 2023-10-07 2023-10-07 一种知识图谱质量评估方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN117033668A CN117033668A (zh) 2023-11-10
CN117033668B true CN117033668B (zh) 2024-01-26

Family

ID=88630279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311286041.7A Active CN117033668B (zh) 2023-10-07 2023-10-07 一种知识图谱质量评估方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117033668B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117875413B (zh) * 2024-03-13 2024-05-24 之江实验室 一种知识图谱本体中概念构建方法、装置、介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210042271A (ko) * 2020-06-22 2021-04-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 품질 평가 모델 구축 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
CN113641724A (zh) * 2021-07-22 2021-11-12 北京百度网讯科技有限公司 知识标签挖掘方法、装置、电子设备及存储介质
CN113946692A (zh) * 2021-11-04 2022-01-18 讯飞智元信息科技有限公司 知识图谱本体评估方法、装置、设备及存储介质
CN114741530A (zh) * 2022-04-14 2022-07-12 大连理工大学 基于对比学习的知识图谱嵌入模型训练方法
CN116561339A (zh) * 2023-05-10 2023-08-08 之江实验室 知识图谱实体链接方法、装置、计算机设备及存储介质
CN116805012A (zh) * 2023-07-13 2023-09-26 中国电信股份有限公司技术创新中心 多模态知识图谱的质量评估方法及装置、存储介质、设备
CN116821377A (zh) * 2023-08-31 2023-09-29 南京云创大数据科技股份有限公司 基于知识图谱和大模型的小学语文自动评测系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210042271A (ko) * 2020-06-22 2021-04-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 품질 평가 모델 구축 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
CN113641724A (zh) * 2021-07-22 2021-11-12 北京百度网讯科技有限公司 知识标签挖掘方法、装置、电子设备及存储介质
CN113946692A (zh) * 2021-11-04 2022-01-18 讯飞智元信息科技有限公司 知识图谱本体评估方法、装置、设备及存储介质
CN114741530A (zh) * 2022-04-14 2022-07-12 大连理工大学 基于对比学习的知识图谱嵌入模型训练方法
CN116561339A (zh) * 2023-05-10 2023-08-08 之江实验室 知识图谱实体链接方法、装置、计算机设备及存储介质
CN116805012A (zh) * 2023-07-13 2023-09-26 中国电信股份有限公司技术创新中心 多模态知识图谱的质量评估方法及装置、存储介质、设备
CN116821377A (zh) * 2023-08-31 2023-09-29 南京云创大数据科技股份有限公司 基于知识图谱和大模型的小学语文自动评测系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
领域知识图谱小样本构建与应用;张华平;吴林芳;张芯铭;商建云;李昌赫;;人工智能(第01期);全文 *

Also Published As

Publication number Publication date
CN117033668A (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
CN109582793B (zh) 模型训练方法、客服系统及数据标注系统、可读存储介质
CN117033667B (zh) 一种知识图谱构建方法、装置、存储介质及电子设备
CN117033668B (zh) 一种知识图谱质量评估方法、装置、存储介质及电子设备
CN112712069B (zh) 一种判题方法、装置、电子设备及存储介质
CN110765246A (zh) 基于智能机器人的问答方法、装置、存储介质和智能设备
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
US20220383627A1 (en) Automatic modeling method and device for object detection model
CN112417093B (zh) 一种模型训练的方法及装置
CN110826894A (zh) 超参数确定方法、装置及电子设备
CN116402164B (zh) 基于预训练语言模型的机器人任务生成方法、装置及介质
CN113722478A (zh) 多维度特征融合相似事件计算方法、系统及电子设备
CN116127305A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN115964465A (zh) 一种智能问答方法、装置及电子设备
CN117494068B (zh) 一种结合深度学习与因果推断的网络舆情分析方法及装置
CN115168619B (zh) 实体关系抽取方法及相关装置、电子设备、存储介质
CN115712734B (zh) 一种基于元学习的稀疏知识图谱嵌入方法和装置
CN117332282B (zh) 一种基于知识图谱的事件匹配的方法及装置
CN115599891B (zh) 一种确定异常对话数据方法、装置、设备及可读存储介质
CN117332097B (zh) 一种基于时空语义约束的知识问答方法、装置和产品
CN113468314B (zh) 关系预测及问答方法、装置、电子设备及计算机存储介质
CN115658891B (zh) 一种意图识别的方法、装置、存储介质及电子设备
CN117786107A (zh) 一种文本分类模型的训练方法、装置、介质及电子设备
CN116150685A (zh) 一种数据分类方法、装置、设备及存储介质
CN111881945A (zh) 一种树模型的特征贡献度确定方法及装置
CN117494800A (zh) 一种基于构建出的核聚变知识图谱的任务执行方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant