CN110569368B - 面向rdf知识库问答的查询松弛方法 - Google Patents
面向rdf知识库问答的查询松弛方法 Download PDFInfo
- Publication number
- CN110569368B CN110569368B CN201910861941.7A CN201910861941A CN110569368B CN 110569368 B CN110569368 B CN 110569368B CN 201910861941 A CN201910861941 A CN 201910861941A CN 110569368 B CN110569368 B CN 110569368B
- Authority
- CN
- China
- Prior art keywords
- predicate
- inference
- inference rule
- precision
- query
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种面向知识库问答的查询松弛方法,其特征在于,包括以下步骤:将无结果SPARQL语句进行分割,对查询条件进行分析,抽取待学习推理规则的谓词,组成谓词集合;针对上述步骤得到的谓词集合,获得其中每一个谓词的推理规则集合和置信度计算模型;基于上述步骤中所获得的推理规则集合,对相应的谓词进行补充,重组查询条件,查询候选结果;基于上述步骤所获得的置信度计算模型对所述候选结果打分、排序,保留部分高置信度结果作为最终结果,并输出令每条结果成立的推理规则。本发明实现了对无查询结果SPARQL语句的高效、准确的结果预测。
Description
技术领域
本发明涉及知识图谱、知识库问答、规则学习和查询松弛技术领域,尤其涉及一种面向RDF知识库问答的查询松弛方法,具体是一种基于规则学习的面向知识库问答的查询松弛方法,特别是一种利用高精度推理规则来对谓词进行补充从而实现有效搜索的查询松弛方法。
背景技术
知识图谱是万维网的一个重要发展方向,为万维网上的知识表示、推理、交换和复用提供了基础。知识图谱使用一组“属性-取值”来描述其中的实体,单个“属性-取值”对可以表示为<pi,vi>,其中pi表示某个属性,vi表示pi的某个取值。实体可以描述为一个或多个此种值对的集合。例如万维网发明人Tim Berners-Lee先生,其姓名在DBpedia知识图谱中被表示为<name,“Tim Berners-Lee”>。通常,一个知识图谱实体描述包含数十条乃至上百条这样的“属性-取值”对,且一个属性也可以有多个不同取值。随着知识图谱的快速发展,知识图谱技术在各个不同领域都有了不同程度的研究和应用,后文中知识库均特指知识图谱。
面向RDF知识库的问答在目前通常特指面向知识图谱的问答(以下简称知识库问答),是对给定的自然语言处理问题,通过实体链接、关系映射和SPARQL语句重构等技术对自然语言处理问题进行句法解析和语义理解,进而通过对知识图谱的查询来得到答案。由于处理范围的不同,知识库问答又可以被分为开放域知识问答和特定域的知识问答;开放域知识问答往往基于如百度百科、维基百科这样的大规模的百科库;特定域的知识问答则是基于特定领域,如医学领域知识问答、旅游领域知识问答等等。
规则学习是一项从训练数据中学出一组能用于对未见实例进行判别的规则,而规则是指语义明确、能描述数据分布所隐含的客观或领域概念、可写成“If……,Then……”形式的逻辑规则。在知识库中,规则学习的目标一般是学习能判断两个实体之间关系的推理规则。
查询松弛是一种提高信息检索能力的技术,当对一个知识库进行查询时,若查询的约束过多,可能导致查询结果为空,查询松弛技术通过适当放松查询的约束,使查询的结果不再为空,能够在一定程度上提高查询的质量。
传统的知识库问答系统的重心在实体链接、关系映射和构建SPARQL语句上,简单来讲,就是重点提高自然语言问句向SPARQL查询语句的翻译能力,提高所翻译的SPARQL查询语句的合理性。然而,即使在理想情况下,得到一个翻译精准的SPARQL语句之后,仍然会出现查询结果为空的情况,这是由知识库的不完备性和知识库内部知识表示的多样性造成的。举例来讲,假设当前我们基于知识图谱DBpedia进行查询,给定自然语言问句“Who isthe supervisor of Yann LeCun?”,理想状态下,经过传统知识库问答系统一系列精确的处理,得到了合理的SPARQL语句:
但此时查询结果为空,因为实体“dbr:Yann_LeCun”不存在谓词“dbo:doctoralAdvisor”,但他的导师“dbr:Geoffrey_Hinton”确切的被记录于DBpedia中,并且他们的师徒关系由三元组<dbr:Geoffrey_Hinton dbo:notableStudent dbr:Yann_LeCun>所记录,但原问句并不存在“student”等字眼,当前知识库问答技术也就无法映射出“dbo:notableStudent”这个谓词。因此,合理的SPARQL问句仍会造成问答失败,并且传统的知识库问答系统无力解决这类问题。
发明内容
本发明提供了一种面向RDF结构的知识图谱,提出了一种通过对谓词进行规则学习获得推理规则,利用推理规则来对谓词进行补充,解决空结果查询问题,实现面向知识库问答的查询松弛方法。本发明在知识库问答系统将自然语言问句转为SPARQL查询语句后,利用规则学习技术得到谓词的推理规则集合和置信度计算模型,并使用推理规则对原查询条件中的谓词进行替换,放松原查询条件,从而实现对无结果的SPARQL查询语句的查询松弛化,在一定置信度下给出合理的查询结果,并进行合理的展示,提高知识库问答系统的性能和可用性。
为实现上述发明目的,本发明采用的技术方案是一种面向知识库问答的查询松弛方法,包括以下步骤:
(1.1)将无结果SPARQL语句进行分割,对查询条件进行分析,抽取待学习推理规则的谓词,组成谓词集合;
(1.2)针对所述步骤(1.1)得到的谓词集合,获得其中每一个谓词的推理规则集合和置信度计算模型;
(1.3)基于所述步骤(1.2)中所获得的推理规则集合,对相应的谓词进行补充,重组查询条件,查询候选结果;
(1.4)基于所述步骤(1.2)所获得的置信度计算模型对所述步骤(1.3)中所获得的候选结果计算置信度,排序,保留置信度前K高的结果,并展示令每条结果成立的推理规则。
进一步的,所述步骤(1.2)包括以下步骤:
(2.1)使用基于所述步骤(1.1)得到的谓词集合,针对其中每个谓词,寻找所有满足该谓词的主谓宾三元组<s,p,o>;
(2.2)针对每个谓词,基于所述步骤(2.1)得到的满足该谓词的主谓宾三元组<s,p,o>集合,使用深度优先搜索来获得每个主谓宾三元组的连通路径,仅保留所述连通路径中出现的连接谓词,得到该谓词的推理规则集合;
(2.3)基于所述步骤(2.2)所得的所有推理规则,基于部分封闭世界假设对每条推理规则分别计算精度,通过设置阈值来保留高精度推理规则,得到每个谓词对应的高精度推理规则集合;最终生成多个“谓词-高精度推理规则集合”对;
(2.4)基于所述步骤(2.3)中所获得的“谓词-高精度推理规则集合”对,使用对率回归方法,训练每一个谓词基于其高精度推理规则集合的置信度计算模型,得到每个谓词的置信度计算模型;最终生成多个“谓词-置信度计算模型”对。
更进一步的,所述步骤(2.3)包括以下步骤:
(3.1)针对一个谓词和它的一条推理规则,将存在该谓词的主宾二元组<s,o>视为推理正确并统计数量;根据封闭世界假设,筛选不存在该谓词的主宾二元组<s,o>,去掉不确定是否错误的<s,o>,将其余部分作为推理错误的主宾二元组,统计其数量,最终,通过精度计算公式得到该推理规则的精度;
(3.2)对所述精度设定阈值,保留高精度推理规则;并对推理规则的数量设置上限。
更进一步的,所述步骤(2.4)包括以下步骤:
(4.1)针对每个谓词,从问答系统所用的知识库中挑选N个满足此谓词的主宾二元组<s,o>及N个不满足此谓词的主宾二元组<s,o>,分别组成正例集合和反例集合,正例集合和反例集合组成整个训练集合;
(4.2)针对每个训练用例,计算所述训练用例在经所述步骤(2.3)所得的高精度推理规则集合内的每一条高精度推理规则上的通过情况,通过记为1,不通过记为0,得到每个训练用例在所述高精度推理规则集合上的特征;
(4.3)对正例赋予标签1,对反例赋予标签0,结合所述步骤(4.2)所计算出的特征,训练该谓词的置信度计算模型。
本发明的有益效果为:
(1)定义了一套能对谓词进行推理规则学习的方法,能够一定程度上处理知识库存在的不完备问题,使用推理规则可对主宾实体之间可能存在的谓词进行推测。(2)将谓词的推理规则应用于查询松弛,通过重组查询条件和对候选结果的打分排序,得到合理且准确的答案。(3)制定了对查询结果的展示方案,令查询结果更加具有合理性和可理解性。
附图说明
图1是本发明的整体处理流程图;
图2是本发明中查询条件重构方式的模型图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的使用范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一个SPARQL查询语句的查询条件往往包含多个主谓宾三元组<s,p,o>,而每一个三元组的主谓宾三个组成成分至少有一个由变量表示,称为三元组模式,例如上文所提到的“dbr:Yann_LeCun dbo:doctoralAdvisior?tutor”,“dbr:Yann_LeCun”为主语,“dbo:doctoralAdvisor”为谓词,“?tutor”为宾语(同时也是一个变量)。在知识库问答中,知识库问答系统生成的SPARQL查询语句往往很少出现谓词为变量的情况,因此本发明不对谓词为变量的情况进行讨论;而以主谓语为变量的情况又分两种:双变量三元组(主语和宾语都是变量)和单变量三元组(主语或者宾语为变量)。本发明皆能处理这两种情况,本发明以较复杂的双变量三元组的处理为例阐述,但该方法同样适用于较简单的单变量三元组。
本发明公开了一种面向知识库问答的查询松弛方法,包括以下步骤:首先构造解析器,对一个由知识库问答系统生成的SPARQL查询语句进行解析,分离出查询目标和查询条件,并进一步将查询条件分割为单变量三元组集合和双变量三元组集合,然后抽取这些三元组的谓词组成谓词集合;然后使用深度优先搜索,对每一个谓词搜索其可能的推理规则,并依据部分封闭世界假设来计算推理规则的精度,经筛选后,得到多个“谓词-推理规则集合”对;之后,使用对率回归技术,基于每个谓词的推理规则集合训练该谓词的置信度计算模型,得到“谓词-置信度计算模型”对;接下来使用每个谓词的推理规则对该谓词进行补充,重新组合查询条件,搜索出候选结果;最后使用已经训练好的置信度计算模型对候选结果计算置信度,取置信度较高的前K个为最终结果(本发明中,K的一般取值为5),并对每一条结果进行展示,即将各个对应主语与谓语之间满足的推理规则展示出来。本发明实现了对无查询结果SPARQL语句的高效、准确的结果推测。
本发明的完整流程如图1所示,包括3个部分:对输入的SPARQL查询语句进行分割,得到谓词集合;对得到的谓词集合进行推理规则学习,得到每个谓词的推理规则集合和置信度计算模型;使用得到的推理规则重构查询条件,搜索候选结果,使用打分模型对候选结果进行置信度计算、排序,保留前K个结果,并展示每条结果中各个主语谓语之间成立的推理规则。
具体的实施方式分别说明如下:
此处以如下既存在单变量三元组又存在双变量三元组的SPARQL查询语句为例:
1.对输入的SPARQL查询语句进行分割,得到谓词集合
构造解析器,将输入的SPARQL语句的查询目标和查询条件分开,然后将查询条件分割为双变量三元组和单变量三元组,得到双变量三元组集合和单变量三元组集合,并提取三元组的谓词,组成谓词集合。分割后结果见下表:
2.对得到的谓词集合进行推理规则学习,得到每个谓词的推理规则集合和置信度计算模型
首先,要对知识库问答系统所用的知识图谱进行丰富,以DBpedia为例,介绍丰富知识库的方式。对DBpedia中的每一个主谓宾三元组<s,p,o>构建反关系主谓宾三元组<o,inv_p,s>,其中谓语“inv_p”是认为构建的谓语“p”的反谓语,采取这种方式来丰富知识图谱的益处是可将有向图转化为无向图,能够搜索到更多且更具表达力的推理规则。记知识图谱中的所有实体组成的集合为V,所有谓词组成集合为P,所有三元组组成的集合为T。
以谓词“dbo:birthPlace”为例,记其为bp,学习该谓词的推理规则过程如下:
(1)搜索整个知识库,找到所有以“dbo:birthPlace”为谓语的主宾二元组<s,o>,记为集合Tbp;
(2)对集合Tbp中的每一个主宾二元组<s,o>,寻找可由主语“s”到达宾语“o”的路径,此处使用的是深度优先搜索技术,搜索出来的路径即为未经筛选的谓语“dbo:birthPlace”的推理规则,记推理规则集合为Rbp_raw。
(3)计算Rbp_raw中每一条推理规则的精度。针对一条推理规则r,统计可由其连通的主宾二元组<s,o>,记为集合S;然后遵循部分封闭世界假设对集合S进行筛选。部分封闭世界假设考虑了不存在于知识图谱中的三元组可能存在于真实世界,只是未被记录于知识图谱中的事实,在统计某规则所能推理出满足谓词“dbo:birthPlace”的主宾二元组<s,o>时,去掉在原图谱KG中主语s不存在谓语bp的二元组,如公式1)和2),其中S′代表主语不存在bp谓词的主宾二元组<s,o>的集合,公式2)将S′从S中去掉。该假设认为若知识图谱中未记录主语s与bp有关的三元组,则由规则推出的以s为主语,bp为谓语的三元组不知真假,继而不做考虑。若知识图谱中存在至少一个以s为主语,以bp为谓词的三元组,则认为s所有与bp有关的三元组都被记录在了知识图谱中,若此时规则推理出了三元组<s,bp,o>不存在于知识图谱中,则认为这是一个推理错误的例子,精度计算如公式3)、4)和5),其中C代表在部分封闭世界假设下正确例子的集合,W代表在封闭世界假设下错误例子的集合;将所有规则按照精度从大到小排列,保留至多200条规则,然后删除精度小于0.001的规则,得到经筛选的规则集合Rbp。下面的公式中,表示任意,∧表示且,o′是一个举例,它的意思可以从<s,bp,o′>中得知,o′代表一个宾语。|是集合的基本写法,|前是集合的元素,|后代表这个集合元素要满足的条件。
S=S\S′ 2)
C={<s,o>|<s,o>∈S∧<s,o>∈Tbp} 3)
精度=|C|/(|C|+|W|) 5)
(4)训练谓词“dbo:birthPlace”的置信度计算模型。此处采用对率回归模型。针对谓词“dbo:birthPlace”及它的推理规则集合Rbp,寻找N个满足此谓词的主宾二元组<s,o>作为正例集合,N个不满足此关系的主宾二元组<s,o>作为反例;每一个训练用例在Rbp内每一条规则上进行判断,可通过计为1,无法通过记为0,得到每个训练用例的特征向量,根据对应的标签训练置信度计算模型,记为Mbp。
3.使用得到的推理规则补充对应的谓词,重构查询条件,搜索候选结果,使用置信度计算模型对候选结果计算置信度、排序,保留置信度较高的前K个结果,并展示每条结果中对应实体之间成立的推理规则。
(1)重构查询条件。记谓词“dbo:director”为d,其推理规则集合为Rd,打分模型为Md。取Rd和Rbp各自对应的推理规则集合,如图2重构查询条件,要求查询条件中某谓词的对应实体满足该谓词或者该谓词的某条推理规则,记录下候选结果集Result。
(2)使用打分模型Md和Mbp来对候选结果集Result中每条结果进行打分。举例说明,当前得到查询结果及三元组组合情况如下表,对于三元组(1),在Rd上计算以“dbr:Zhao_Liang(director)”为主语、以“dbr:Return_to_the_Border”为宾语的主宾二元组的特征,同时记录下此主宾二元组在Rd中可以通过的推理规则,得到特征之后,使用置信度计算模型Md计算三元组①的得分,记为Confd,作为该三元组成立的置信度;依据同样的方法计算三元组②成立的置信度,记为Confbp;整条结果的置信度为Confd与Confbp的积。依据此方法计算候选结果集Result中每一条结果的置信度。
根据置信度,将候选结果集Result的结果按降序排列,取排名前K的结果作为最终的结果(本发明中K一般取值为5),并展示每条三元组主宾实体间所能通过的推理规则,整个查询松弛过程结束。
Claims (3)
1.面向RDF知识库问答的查询松弛方法,其特征在于,包括以下步骤:
1.1将无结果SPARQL语句进行分割,对查询条件进行分析,抽取待学习推理规则的谓词,组成谓词集合;
1.2针对所述步骤1.1得到的谓词集合,获得其中每一个谓词的推理规则集合和置信度计算模型;
1.3基于所述步骤1.2中所获得的推理规则集合,对相应的谓词进行补充,重组查询条件,查询候选结果;
1.4基于所述步骤1.2所获得的置信度计算模型对所述步骤1.3中所获得的候选结果计算置信度,排序,保留置信度前K高的结果,并输出令每条结果成立的推理规则;
所述步骤1.2包括以下步骤:
2.1使用基于所述步骤1.1得到的谓词集合,针对其中每个谓词,寻找所有满足该谓词的主谓宾三元组<s,p,o>;
2.2针对每个谓词,基于所述步骤2.1得到的满足该谓词的主谓宾三元组<s,p,o>集合,使用深度优先搜索来获得每个主谓宾三元组的连通路径,仅保留所述连通路径中出现的连接谓词,得到该谓词的推理规则集合;
2.3基于所述步骤2.2所得的所有推理规则,基于部分封闭世界假设对每条推理规则分别计算精度,通过设置阈值来保留高精度推理规则,得到每个谓词对应的高精度推理规则集合;最终生成多个“谓词-高精度推理规则集合”对;
2.4基于所述步骤2.3中所获得的“谓词-高精度推理规则集合”对,使用对率回归方法,训练每一个谓词基于其高精度推理规则集合的置信度计算模型,得到每个谓词的置信度计算模型;最终生成多个“谓词-置信度计算模型”对。
2.根据权利要求1所述的面向RDF知识库问答的查询松弛方法,其特征在于,所述步骤2.3包括以下步骤:
3.1针对一个谓词和它的一条推理规则,收集所有能够通过该推理规则的主宾二元组<s,o>,将存在该谓词的主宾二元组<s,o>视为推理正确并统计数量;根据封闭世界假设,筛选不存在该谓词的主宾二元组<s,o>,去掉不确定是否错误的<s,o>,将其余部分作为推理错误的主宾二元组,统计推理错误的主宾二元组的数量,最终,通过精度计算公式得到所述推理规则的精度;
3.2对所述精度设定阈值,保留高精度推理规则;并对推理规则的数量设置上限。
3.根据权利要求1所述的面向RDF知识库问答的查询松弛方法,其特征在于,所述步骤2.4包括以下步骤:
4.1针对每个谓词,从问答系统所用的知识库中挑选N个满足此谓词的主宾二元组<s,o> 及N个不满足此谓词的主宾二元组<s,o>,分别组成正例集合和反例集合,正例集合和反例集合组成整个训练集合;
4.2针对步骤4.1所述训练集合中的每个训练用例,计算所述训练用例在经所述步骤2.3所得的高精度推理规则集合内的每一条高精度推理规则上的通过情况,通过记为1,不通过记为0,得到每个训练用例在所述高精度推理规则集合上的特征;
4.3对正例赋予标签1,对反例赋予标签0,结合所述步骤4.2所计算出的特征,训练该谓词的置信度计算模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910861941.7A CN110569368B (zh) | 2019-09-12 | 2019-09-12 | 面向rdf知识库问答的查询松弛方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910861941.7A CN110569368B (zh) | 2019-09-12 | 2019-09-12 | 面向rdf知识库问答的查询松弛方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569368A CN110569368A (zh) | 2019-12-13 |
CN110569368B true CN110569368B (zh) | 2022-11-29 |
Family
ID=68779473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910861941.7A Active CN110569368B (zh) | 2019-09-12 | 2019-09-12 | 面向rdf知识库问答的查询松弛方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569368B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113254718B (zh) * | 2020-02-13 | 2023-08-29 | 南京大学 | 一种图数据上的语义关联搜索的查询松弛方法 |
CN112256847B (zh) * | 2020-09-30 | 2023-04-07 | 昆明理工大学 | 融合事实文本的知识库问答方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100897026B1 (ko) * | 2007-09-05 | 2009-05-14 | 한국전자통신연구원 | 지식 베이스 검색 기능을 이용한 사용자 정의 추론 규칙적용 방법 및 이를 구현한 지식 베이스 관리 시스템 |
CN103500208B (zh) * | 2013-09-30 | 2016-08-17 | 中国科学院自动化研究所 | 结合知识库的深层数据处理方法和系统 |
CN105528349B (zh) * | 2014-09-29 | 2019-02-01 | 华为技术有限公司 | 知识库中问句解析的方法及设备 |
-
2019
- 2019-09-12 CN CN201910861941.7A patent/CN110569368B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110569368A (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111475623B (zh) | 基于知识图谱的案件信息语义检索方法及装置 | |
CN111753098A (zh) | 一种基于跨媒体动态知识图谱的教学方法及系统 | |
CN111415740A (zh) | 问诊信息的处理方法、装置、存储介质及计算机设备 | |
Balakrishnan | Significance of classification techniques in prediction of learning disabilities | |
US20170169355A1 (en) | Ground Truth Improvement Via Machine Learned Similar Passage Detection | |
CN113127731A (zh) | 一种基于知识图谱的个性化试题推荐方法 | |
CN112380325A (zh) | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 | |
CN113934824B (zh) | 一种基于多轮智能问答的相似病历匹配系统及方法 | |
CN113254675B (zh) | 基于自适应少样本关系抽取的知识图谱构建方法 | |
Huang et al. | Constructing educational concept maps with multiple relationships from multi-source data | |
CN110569368B (zh) | 面向rdf知识库问答的查询松弛方法 | |
Jeon et al. | Dropout prediction over weeks in MOOCs via interpretable multi-layer representation learning | |
Zhao | RETRACTED ARTICLE: Application of deep learning algorithm in college English teaching process evaluation | |
CN115238036A (zh) | 一种基于图注意力网络和文本信息的认知诊断方法及装置 | |
Kung et al. | Intelligent pig‐raising knowledge question‐answering system based on neural network schemes | |
CN117216221A (zh) | 一种基于知识图谱的智能问答系统及构建方法 | |
Huang et al. | Stan: adversarial network for cross-domain question difficulty prediction | |
Li et al. | Approach of intelligence question-answering system based on physical fitness knowledge graph | |
Sa et al. | An English flipped classroom teaching model based on big data analysis | |
CN115114417A (zh) | 中文填空题自动评分方法及装置 | |
Cochran et al. | Improving NLP Model Performance on Small Educational Data Sets Using Self-Augmentation. | |
Remadi et al. | To prompt or not to prompt: Navigating the use of large language models for integrating and modeling heterogeneous data | |
Liu et al. | Using localized features for analyzing college students’ imagination | |
Santhanavijayan et al. | Fuzzy-MCS algorithm-based ontology generation for e-assessment | |
Jia | Simulation of English part-of-speech classification based on artificial intelligence and additive logistic regression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |