CN111126610A - 题目分析方法、装置、电子设备和存储介质 - Google Patents
题目分析方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111126610A CN111126610A CN201911274674.XA CN201911274674A CN111126610A CN 111126610 A CN111126610 A CN 111126610A CN 201911274674 A CN201911274674 A CN 201911274674A CN 111126610 A CN111126610 A CN 111126610A
- Authority
- CN
- China
- Prior art keywords
- text
- conclusion
- question
- layer
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 120
- 238000012549 training Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 91
- 238000000605 extraction Methods 0.000 claims description 77
- 238000000354 decomposition reaction Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000005192 partition Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 46
- 230000008569 process Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
- G06N5/013—Automatic theorem proving
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种题目分析方法、装置、电子设备和存储介质,其中方法包括:将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;基于所述待分析题目文本的知识推理路径,进行题目分析。本发明实施例提供的方法、装置、电子设备和存储介质,通过知识推理模型获取待分析题目文本的知识推理路径,便于后续在题目分析时能够充分理解题目,从而提高题目分析的可靠性和准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种题目分析方法、装置、电子设备和存储介质。
背景技术
在现代化教育领域,通过人工智能技术进行题目分析,例如题目的知识点预测、难度预测、相似题目推荐以及自动评分等,有助于提高教育的智能化程度。
现有的题目分析方法,大多是将题目文本输入到神经网络的黑盒模型中进行预测,模型本身并不理解题目内容,仅仅是根据大量的训练数据进行结果预测,由此得到的题目分析结果容易产生一些离谱的错误。
发明内容
本发明实施例提供一种题目分析方法、装置、电子设备和存储介质,用以解决现有的题目分析方法可靠性差的问题。
第一方面,本发明实施例提供一种题目分析方法,包括:
将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;
基于所述待分析题目文本的知识推理路径,进行题目分析。
优选地,所述待分析题目文本包括题干文本、问题文本、答案文本和解析文本。
优选地,所述将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径,具体包括:
将所述题干文本、所述问题文本、所述答案文本和所述解析文本输入至所述知识推理模型的步骤分解层,得到所述步骤分解层输出的所述解析文本中每一步骤的步骤隐层信息;
将所述解析文本中任一步骤的步骤隐层信息输入所述知识推理模型的步骤推理层,得到所述步骤推理层输出的所述任一步骤的步骤推理路径。
优选地,所述解析文本中,任一步骤包括条件文本和结论文本,任一步骤的步骤隐层信息包括条件隐层信息和结论隐层信息。
优选地,所述将所述题干文本、所述问题文本、所述答案文本和所述解析文本输入至所述知识推理模型的步骤分解层,得到所述步骤分解层输出的所述解析文本中每一步骤的步骤隐层信息,具体包括:
将所述题干文本、所述问题文本、所述答案文本输入至所述步骤分解层的隐层信息提取层,得到所述隐层信息提取层输出的题干隐层信息和问题隐层信息;
将所述解析文本,以及所述题干隐层信息和所述问题隐层信息输入至所述步骤分解层的步骤划分点判断层,得到所述步骤划分点判断层输出的所述解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
优选地,所述将所述题干文本、所述问题文本、所述答案文本输入至所述步骤分解层的隐层信息提取层,得到所述隐层信息提取层输出的题干隐层信息和问题隐层信息,具体包括:
将所述题干文本中任一分词的序列向量分别与所述问题文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述题干文本中任一分词的隐层信息;
将所述问题文本中任一分词的序列向量分别与所述题干文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述问题文本中任一分词的隐层信息。
优选地,所述将所述解析文本,以及所述题干隐层信息和所述问题隐层信息输入至所述步骤分解层的步骤划分点判断层,得到所述步骤划分点判断层输出的所述解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息,具体包括:
将所述解析文本中任一分词的序列向量,分别与所述题干隐层信息和所述问题隐层信息进行注意力变换,得到所述解析文本中任一分词的隐层信息;
将所述解析文本中任一分词的隐层信息输入至所述步骤划分点判断层的划分点分类层中,得到所述划分点分类层输出的所述任一分词的划分点分类结果;
基于所述解析文本中每一分词的划分点分类结果,对所述解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
优选地,所述基于所述解析文本中每一分词的划分点分类结果,对所述解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息,具体包括:
基于所述解析文本中每一分词的划分点分类结果,确定所述解析文本中的结论划分点和条件划分点;
基于结论划分点进行步骤划分,得到若干个步骤;
基于任一步骤中的条件划分点,将所述任一步骤划分为条件文本和结论文本,并确定所述任一步骤的条件隐层信息和结论隐层信息。
优选地,所述将所述解析文本中任一步骤的步骤隐层信息输入所述知识推理模型的步骤推理层,得到所述步骤推理层输出的所述任一步骤的步骤推理路径,具体包括:
将任一步骤的条件隐层信息和结论隐层信息输入至所述步骤推理层的特征提取层中,得到所述特征提取层输出的条件特征序列和结论特征序列;
将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述步骤推理层的预测分类层,得到所述预测分类层输出的条件预测结果、结论预测结果和定理预测结果。
优选地,所述将任一步骤的条件隐层信息和结论隐层信息输入至所述步骤推理层的特征提取层中,得到所述特征提取层输出的条件特征序列和结论特征序列,具体包括:
将任一步骤的条件隐层信息输入至所述特征提取层的条件特征提取层中,得到所述条件特征提取层输出的所述条件特征序列;
将所述任一步骤的结论隐层信息,所述条件文本每一分词的序列向量,以及所述条件特征序列输入至所述特征提取层的结论特征提取层中,得到所述结论特征提取层输出的所述结论特征序列。
优选地,所述基于所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述步骤推理层的预测分类层,得到所述预测分类层输出的条件预测结果、结论预测结果和定理预测结果,具体包括:
将所述任一步骤的条件特征序列输入至所述预测分类层的条件分类层,得到所述条件分类层输出的条件预测结果;
将所述任一步骤的结论特征序列输入至所述预测分类层的结论分类层,得到所述结论分类层输出的结论预测结果;
将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述预测分类层的定理分类层,得到所述定理分类层输出的定理预测结果。
优选地,所述将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述的预测分类层的定理分类层,得到所述定理分类层输出的定理预测结果,具体包括:
将定理特征进行自注意力转换,得到定理注意力特征;其中,所述定理特征是将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列拼接得到的;
将所述定理注意力特征输入至所述定理分类层的分类层,得到所述分类层输出的所述定理预测结果。
优选地,所述知识推理模型的损失函数包括步骤分解损失函数和步骤推理损失函数。
第二方面,本发明实施例提供一种题目分析装置,包括:
路径确定单元,用于将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;
题目分析单元,用于基于所述待分析题目文本的知识推理路径,进行题目分析。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑指令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种题目分析方法、装置、电子设备和存储介质,通过知识推理模型获取待分析题目文本的知识推理路径,便于后续在题目分析时能够充分理解题目,从而提高题目分析的可靠性和准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的题目分析方法的流程示意图;
图2为本发明实施例提供的知识推理方法的流程示意图;
图3为本发明实施例提供的步骤分解方法的流程示意图;
图4为本发明实施例提供的隐层信息提取层的结构示意图;
图5为本发明实施例提供的步骤划分点判断方法的流程示意图;
图6为本发明实施例提供的步骤推理方法的流程示意图;
图7为本发明实施例提供的预测分类方法的流程示意图;
图8为本发明实施例提供的定理分类层的结构示意图;
图9为本发明另一实施例提供的题目分析方法的流程示意图;
图10为本发明实施例提供的条件预测方法的流程示意图;
图11为本发明实施例提供的结论预测方法的流程示意图;
图12为本发明实施例提供的知识推理模型的结构示意图;
图13为本发明实施例提供的题目分析装置的结构示意图;
图14为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着人工智能技术的兴起,让计算机理解教学,是计算机成为真正的人工智能必不可少的一步。如今,在现代化教育领域,出现出许多有意义的工作研究,例如题目的自动评分能够帮助老师批改作业和试卷,减少人工评阅的工作量,提高评分的准确性和客观性;题目推荐能够将学生从题海战术中解放出来,推荐学生真正需要的题目,节约学生的时间,提高学习效率;题目难度预测能够让老师因材施教,实施个性化教学,让中差生做基础题,让好生做难题,更好地提高学生成绩。上述题目分析方法都是由深度神经网络来实现的,提高这些方法的准确性,对现代化教学意义重大。
现有的题目分析方法,基本都是基于一般的自然语言处理的深度神经网络实现的。例如,针对数学题,对题目文本进行预处理(主要是对数字和公式进行归一化),将分词后的题目文本作为输入,对于不同的任务,使用不同的深度神经网络来进行训练和预测,产生结果。例如,对于知识点预测,采用TextCNN模型进行分类,得出题目的相关知识点。
然而,上述方法中,深度神经网络可以看作一个黑盒模型,就像一个没有学过任何知识,只能够看懂字的人去研究题目,深度神经网络并不能真正理解题目,只能根据训练样本进行猜测。虽然通过深度神经网络能够实现一部分题目的分析,但是很容易产生一些离谱的错误。
针对上述问题,本发明实施例提供一种题目分析方法,图1为本发明实施例提供的题目分析方法的流程示意图,如图1所示,该方法包括:
步骤110,将待分析题目文本输入至知识推理模型中,得到知识推理模型输出的待分析题目文本的知识推理路径;其中,知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,知识推理路径表征从待分析题目的条件到结论的推理路径。
具体地,待分析题目文本即需要进行分析的题目的对应文本,待分析题目文本可以是直接输入的文本,也可以是通过扫描或者拍照等手段获得的题目图像,并使用OCR技术对图像进行识别得到的,本发明实施例对此不作具体限定。针对待分析题目文本,可以进行预处理,例如分词,具体可以通过双向最大匹配法、基于统计的分词等方式实现,针对于特定科目的题目,例如数学题目文本,在分词过程中还需要进行数学实体识别,以保证分词结果的准确性和有效性。
在人类的解题思路中,通常是在看到题目之后,先抽取出题目中的条件,并联系学习过的相关知识、定理,进行一步一步推理,从而形成一条针对该题目的解题路径。
知识推理模型模拟人类的解题思路,基于输入的待分析题目文本,分析解答待分析题目中包含的条件,结合相关知识和定理,推导待分析题目的推理路径,直至得到待分析题目中要求得到的结论,并输出上述推理路径,即知识推理路径。
例如,待识别题目文本中,题干中包含有条件“三角形ABC与三角形EFG全等”,答案中包含有结论“三角形ABC的底边与三角形EFG的底边长度相等”,可以根据条件,结合相关定理“全等三角形的性质”,推导得到结论,并由此形成知识推理路径。
在执行步骤110之前,还可以预先训练得到知识推理模型,具体可以通过如下方式训练得到知识推理模型:首先,收集大量样本题目文本,并由工作人员根据相关知识标注样本题目文本对应的样本知识推理路径。此处,样本知识推理路径即从样本题目文本的条件到结论的推理路径。随即,基于样本题目文本及其样本知识推理路径对初始模型进行训练,从而得到知识推理模型。
步骤120,基于待分析题目文本的知识推理路径,进行题目分析。
此处,题目分析可以是知识点预测、难度预测、相似题目推荐、自动评分等,本发明实施例对此不作具体限定。在得到待分析题目文本的知识推理路径后,可以将待分析题目文本的知识推理路径输入到预先训练好的任务模型中,进行题目分析。此处,将知识推理路径作为任务模型的输入,能够帮助后续的任务模型更容易理解题目,从而提高后续任务模型预测结果的准确性。
本发明实施例提供的方法,通过知识推理模型获取待分析题目文本的知识推理路径,便于后续在题目分析时能够充分理解题目,从而提高题目分析的可靠性和准确性。
基于上述实施例,该方法中,待分析题目文本包括题干文本、问题文本、答案文本和解析文本。
具体地,题干文本即描述题目已知条件的文本,问题文本即题目问题的对应文本,答案文本即题目答案的对应文本,解析文本即描述解题思路的文本。待分析题目文本为包含上述四类文本的结构化文本,在后续针对待分析题目文本进行题目分析的过程中,可以针对待分析题目文本中的不同类型的文本进行具体分析,从而能够更加准确地得到知识推导路径。
基于上述任一实施例,知识推理模型包括步骤分解层和步骤推理层;图2为本发明实施例提供的知识推理方法的流程示意图,如图2所示,步骤110包括:
步骤111,将题干文本、问题文本、答案文本和解析文本输入至知识推理模型的步骤分解层,得到步骤分解层输出的解析文本中每一步骤的步骤隐层信息。
具体地,步骤分解层用于结合题干文本、问题文本和答案文本的相关内容,对解析文本进行步骤分解,得到解析文本的若干个步骤,并输出每一步骤的步骤隐层信息。此处,解析文本中的任一步骤为解析文本中的一段文本,该步骤的步骤隐层信息包括该步骤对应文本中每一分词的隐层信息,此处的隐层信息可以包含该分词的语义信息、上下文信息,还可以包含该分词与题干文本、问题文本和答案文本的相关性,本发明实施例对此不作具体限定。
步骤112,将解析文本中任一步骤的步骤隐层信息输入所述知识推理模型的步骤推理层,得到步骤推理层输出的所述任一步骤的步骤推理路径。
具体地,步骤推理层用于针对单一步骤的步骤隐层信息,分析该步骤是如何根据该步骤中的条件,结合相关知识,推导得到该步骤中的结论,并输出对应的步骤推理路径。在解析文本对应于多个步骤时,多个步骤的步骤推理路径即可构成待分析题目文本的知识推理路径。
本发明实施例提供的方法,首先进行步骤分解,在此基础上针对单一步骤进行路径推荐,实现了知识推理路径的细化,有利于提高知识推理路径的准确性。
基于上述任一实施例,解析文本中,任一步骤包括条件文本和结论文本,任一步骤的步骤隐层信息包括条件隐层信息和结论隐层信息。
具体地,步骤分解层在对解析文本进行步骤划分时,不仅将解析文本划分成为了若干个步骤,还针对每一步骤进行了进一步分解,将步骤对应的文本分解成为了条件文本和结论文本两个部分,其实条件文本是包含有该步骤中的条件的文本,结论文本是包含有该步骤得到的结论的文本。
对应地,步骤隐层信息包含步骤对应文本中每一分词的隐层信息,条件隐层信息为条件文本中每一分词的隐层信息,结论隐层信息为结论文本中每一分词的隐层信息。
本发明实施例提供的方法,通过对步骤进行进一步分解,得到步骤中分别对应条件和结论的文本,有助于提高后续推理单一步骤的推理路径的准确性。
基于上述任一实施例,步骤分解层包括隐层信息提取层和步骤划分点判断层;图3为本发明实施例提供的步骤分解方法的流程示意图,如图3所示,步骤111具体包括:
步骤1111,将题干文本、问题文本、答案文本输入至步骤分解层的隐层信息提取层,得到隐层信息提取层输出的题干隐层信息和问题隐层信息。
此处,题干隐层信息包含题干文本中每一分词的隐层信息,题干文本中任一分词的隐层信息可以是该分词的语义信息、上下文信息,还可以包含该分词与问题文本和答案文本的相关性。
问题隐层信息包含问题文本中每一分词的隐层信息,问题文本中任一分词的隐层信息可以是该分词的语义信息、上下文信息,还可以包含该分词与题干文本和答案文本的相关性。
隐层信息提取层用于基于输入的题干文本、问题文本、答案文本,提取题干文本对应的题干隐层信息,以及问题文本对应的问题隐层信息。
步骤1112,将解析文本,以及题干隐层信息和问题隐层信息输入至步骤分解层的步骤划分点判断层,得到步骤划分点判断层输出的解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
具体地,步骤划分点判断层用于基于输入的题干隐层信息和问题隐层信息,判断解析文本中的每一分词是否为步骤划分点,基于此对解析文本进行步骤分解,并得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
基于上述任一实施例,图4为本发明实施例提供的隐层信息提取层的结构示意图,如图4所示,步骤1111具体包括:将题干文本中任一分词的序列向量分别与问题文本和答案文本中每一分词的序列向量进行注意力变换,得到题干文本中任一分词的隐层信息;将问题文本中任一分词的序列向量分别与题干文本和答案文本中每一分词的序列向量进行注意力变换,得到问题文本中任一分词的隐层信息。
具体地,首先分别对题干文本、问题文本和答案文本中的分词的词向量进行序列化,得到每一分词的序列向量。此处,序列化可以通过长短时记忆网络LSTM或者循环神经网络RNN等实现,本发明实施例对此不作具体限定。
对于题干文本、问题文本和答案文本,其间存在互相关联,题干文本可以通过问题文本和答案文本确定解题的“终点”,问题文本可以通过题干文本确定解题的“起点”,答案文本可以具体化问题文本中信息。因此,本发明实施例中应用注意力机制,将题干文本中每一分词的序列向量通过对问题文本和答案文本中每一分词的序列向量的注意力变换,获得题干文本中每一分词的隐层信息。即题干隐层信息;将问题文本中每一分词的序列向量通过对题干文本和答案文本中每一分词的序列向量的注意力变换,获得问题文本中每一分词的隐层信息,即问题隐层信息。
此外,由于答案文本一般为一个方程或者数字,本身信息较少,并且通过注意力变换,在题干隐层信息和问题隐层信息中都包含了答案文本的信息,本发明实施例未获取答案文本对应的隐层信息。
本发明实施例提供的方法,利用题干文本、问题文本和答案文本之间的相互关联性,基于注意力机制挖掘题干隐层信息和问题隐层信息,有助于提高知识推理路径的准确性。
基于上述任一实施例,图5为本发明实施例提供的步骤划分点判断方法的流程示意图,如图5所示,步骤1112具体包括:
步骤1112-1,将解析文本中任一分词的序列向量,分别与题干隐层信息和问题隐层信息进行注意力变换,得到解析文本中任一分词的隐层信息。
具体地,对解析文本中每一分词的词向量进行序列化,得到每一分词的序列向量。此处,序列化可以通过长短时记忆网络LSTM或者循环神经网络RNN等实现,本发明实施例对此不作具体限定。
在此基础上,对于解析文本中任一分词的序列向量,通过对步骤1111得到的题干文本中每一分词的隐层信息,以及问题文本中每一分词的隐层信息的注意力变换,得到解析文本中该分词的隐层信息。
步骤1112-2,将解析文本中任一分词的隐层信息输入至步骤划分点判断层的划分点分类层中,得到划分点分类层输出的该分词的划分点分类结果。
步骤1112-3,基于解析文本中每一分词的划分点分类结果,对解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
此处,划分点分类结果可以是条件划分点、结论划分点或非划分点。其中,条件划分点和结论划分点均属于步骤划分点。根据解析文本中每一分词的划分点分类结果,可以确定解析文本中的步骤划分点,并根据步骤划分点进行步骤分解。
基于上述任一实施例,步骤1112-3具体包括:基于解析文本中每一分词的划分点分类结果,确定解析文本中的结论划分点和条件划分点;基于结论划分点进行步骤划分,得到若干个步骤;基于任一步骤中的条件划分点,将该步骤划分为条件文本和结论文本,并确定该步骤的条件隐层信息和结论隐层信息。
具体地,解析文本中,默认每个步骤均存在从条件推理到结论的过程,因此结论划分点和条件划分点是交错分布的。基于结论划分点,可以进行步骤划分,将两个相邻的结论划分点之间的文本作为一个步骤的对应文本。在完成步骤划分后,针对任一步骤的对应文本,通过两个结论划分点之间的条件划分点,将该步骤的对应文本进一步划分为条件文本和结论文本,并确定该步骤的条件隐层信息和结论隐层信息。
参考图5,结论分步骤点i-1与结论分步骤点i之间的文本为步骤i的对应文本,其中结论分步骤点i-1与条件分步骤点i之间的文本为步骤i的条件文本,条件分步骤点i与结论分步骤点i之间的文本为步骤i的结论文本。
基于上述任一实施例,步骤推理层包括特征提取层和预测分类层;图6为本发明实施例提供的步骤推理方法的流程示意图,如图6所示,步骤112具体包括:
步骤1121,将任一步骤的条件隐层信息和结论隐层信息输入至步骤推理层的特征提取层中,得到特征提取层输出的条件特征序列和结论特征序列。
此处,特征提取层用于从对输入的任一步骤的条件隐层信息和结论隐层信息进行特征提取,并得到特征提取后的条件特征序列和结论特征序列。此处,条件特征序列对应于条件隐层信息,结论特征序列对应于结论隐层信息。特征提取层可以是通过卷积神经网络CNN实现的。
步骤1122,将该步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及条件特征序列和结论特征序列输入至步骤推理层的预测分类层,得到预测分类层输出的条件预测结果、结论预测结果和定理预测结果。
此处,预测分类层用于对输入的任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及条件特征序列和结论特征序列进行分析,以预测该步骤中所包含的条件类型、结论类型,以及由条件推理到结论所应用的定理类型,并输出对应的条件预测结果、结论预测结果和定理预测结果。
基于上述任一实施例,特征提取层包括条件特征提取层和结论特征提取层;步骤1121具体包括:将任一步骤的条件隐层信息输入至特征提取层的条件特征提取层中,得到条件特征提取层输出的条件特征序列;将该步骤的结论隐层信息,条件文本每一分词的序列向量,以及条件特征序列输入至特征提取层的结论特征提取层中,得到结论特征提取层输出的结论特征序列。
具体地,条件特征提取层用于对条件隐层信息进行特征提取,得到条件特征序列。结论特征提取层用于基于条件与结论之间的关联性,例如条件文本每一分词的序列向量,以及条件特征序列,对结论隐层信息进行特征提取,得到结论特征序列。
进一步地,在条件特征提取层内部,可以对于结论隐层信息,通过对条件文本每一分词的序列向量,以及条件特征序列的注意力变换,得到结论注意力特征,并对结论注意力特征进行特征提取,得到结论特征序列。
基于上述任一实施例,预测分类层包括条件分类层、结论分类层和定理分类层;图7为本发明实施例提供的预测分类方法的流程示意图,如图7所示,步骤1122具体包括:
步骤1122-1,将该步骤的条件特征序列输入至预测分类层的条件分类层,得到条件分类层输出的条件预测结果。
步骤1122-2,将该步骤的结论特征序列输入至预测分类层的结论分类层,得到结论分类层输出的结论预测结果。
具体地,条件分类层用于对条件特征序列进行分析,对步骤中包含的条件进行分类,并将分类结果作为该步骤的条件预测结果。此处条件预测结果用于表征该步骤中包含的条件的类型;结论分类层用于对结论特征序列进行分析,对步骤中包含的结论进行分类,并将分类结果作为该步骤的结论预测结果。此处结论预测结果用于表征该步骤中包含的结论的类型。
步骤1122-3,将该步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及条件特征序列和结论特征序列输入至预测分类层的定理分类层,得到定理分类层输出的定理预测结果。
具体地,定理分类层用于对条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及条件特征序列和结论特征序列进行分析,对步骤中包含的定理进行分类,并将分类结果作为该步骤的定理预测结果。此处定理预测结果用于表征该步骤中包含的定理的类型。
基于上述任一实施例,图8为本发明实施例提供的定理分类层的结构示意图,如图8所示,步骤1122-3具体包括:将定理特征进行自注意力转换,得到定理注意力特征;其中,定理特征是将该步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及条件特征序列和结论特征序列拼接得到的;将定理注意力特征输入至定理分类层的分类层,得到分类层输出的定理预测结果。
具体地,针对任一步骤,条件文本每一分词的序列向量即条件序列向量,结论文本的每一分词的序列向量即结论序列向量,将条件序列向量、结论序列向量、条件特征序列和结论特征序列进行拼接,得到定理特征。
对定理特征进行自注意力转换,得到转换后的定理注意力特征。随即将定理注意力特征输入到分类层中,对该步骤中包含的定理进行分类,得到分类结果,即定理预测结果。
基于上述任一实施例,该方法中,知识推理模型的损失函数包括步骤分解损失函数和步骤推理损失函数。
此处,步骤分解损失函数用于衡量步骤分解层对解析文本的步骤划分结果与标注结果之间的损失,具体可以体现为解析文本中每一分词的划分点分类结果与划分点标注之间的损失。
步骤推理损失函数用于衡量步骤推理层输出的每一步骤的步骤推理路径与标注的推理路径之间的损失,具体可以包括条件预测损失函数、结论预测损失函数和定理预测损失函数。
可以将步骤分解损失函数和步骤推理损失函数进行加权,得到知识推理模型整体的损失函数,针对知识推理模型进行参数优化。由此,定理分类层的定理预测损失也会对步骤分解层、条件分类层、定理分类层的参数进行优化,结论分类层的结论预测损失也会对步骤分解层、条件分类层的参数进行优化,条件分类层的条件预测损失也会对步骤分解层的参数进行优化。反之,步骤分解层的优化会对后续的预测准确度有提升。这相对于一般的模型(分别对分步骤,条件,结论,定理进行建模孤立预测)将会有很大效果提升。
需要注意的是,如果步骤分解层的条件划分点本身预测错误,模型整体的损失函数将会屏蔽条件预测损失函数,同样,对于结论预测损失函数和定理预测损失函数也是如此。
基于上述任一实施例,图9为本发明另一实施例提供的题目分析方法的流程示意图,如图9所示,该方法包括:
在完成知识推理模型的训练后,可以通过将待分析题目文本中的题干文本、问题文本、答案文本和解析文本输入到知识推理模型中进行预测,将得到的每个步骤的条件预测结果、结论预测结果和定理预测结果进行组合,就得到了知识推理路径,知识推理路径可以加强后续任务模型对题目的理解,从而提高任务模型的效果。
以数学知识点预测任务为例,可以将数学题目的输入直接替换为数学推理路径,比起让深度神经网络模型从题目文本中学到数学知识点,让模型从更抽象更简单的数学推理路径中得到数学知识点会容易的多。具体地,本发明实施例中知识点预测采用TextCNN作为深度神经网络,网络结构分为输入层、卷积层和分类层,输入层以数学推理路径的词串作为输入,将每个词都映射为词向量序列,卷积层以该词向量序列为输入,通过控制卷积核参数,抽取不同粒度的特征序列,分类输出层以特征序列作为输入,输出数学知识点的分类结果。
基于上述任一实施例,图10为本发明实施例提供的条件预测方法的流程示意图,图10中,解析文本中结论分步骤点i-1与条件分步骤点i之间的文本即步骤i的条件文本,将步骤i的条件文本中每一分词的词向量输入到序列化模块中,得到每一分词的序列向量,将每一分词的序列向量分别与题干隐层信息和问题隐层信息进行注意力变换,得到条件隐层信息。对条件隐层信息进行条件特征提取,得到条件特征序列。将条件特征序列输入到条件分类层中,得到条件预测结果。
基于上述任一实施例,图11为本发明实施例提供的结论预测方法的流程示意图,图11中,解析文本中条件分步骤点i与结论分步骤点i之间的文本即步骤i的结论文本,将步骤i的结论文本中每一分词的词向量输入到序列化模块中,得到每一分词的序列向量,将每一分词的序列向量分别与题干隐层信息、问题隐层信息、条件文本中每一分词的序列向量以及条件特征序列进行注意力变换,得到结论注意力特征。对结论注意力特征进行结论特征提取,得到结论特征序列。将结论特征序列输入到结论分类层中,得到结论预测结果。
基于上述任一实施例,题目分析方法可具体用于分析数学题。数学题主要分类两个大类,计算题和证明题,计算题根据所给的方程或者式子,通过一些恒等变换等公式转换,将复杂公式分解成简单可求的式子,最终得到答案;证明题根据已知条件,根据已知的条件关系,通过公理和推论(如几何的“平行于同一条直线的两直线相互平行”),推出下一个推论,如此反复,最终推出需要证明的结论。这两种类型其实都可以抽象为一种,那就是从题目中得到题干(已知条件)和设问(要求解的问题),寻找从题干到设问的路径(所用的定理,也就是解题路径)。
本发明实施例将数学的知识看作一个数学知识的网络图,图中只包含点和边,点就是更抽象的数学知识(可以是题干的已知条件,如原题的“三角形ABC与三角形EFG全等”,“三角形ABC≌三角形EFG”均可以抽象为“两个三角形全等”),而边是定理(如“全等三角形的性质”),边的两头都是点,其中一个“点-边-点”的组合就是“两个三角形全等(点)-全等三角形的性质(边)-两个三角形的底边相等(点)”。
上述数学知识的网络图中包含了数学所有的知识和定理,给定一个题目,抽取题干(已知的数学知识)和设问(所需要求得的数学知识),然后将题干和设问放到数学知识网络图中,从题干到设问的路径,就是这道数学题的解题路径,和人类做数学题的思路是一致的。
上述数学知识的网络图的构建方法有两种:一种是基于专家知识的人工标注,让专家将整个网络图画出来,这样准确性高,但是需要花费的人力成本太高,而且很可能网络图的鲁棒性不高。另一种是基于神经网络的知识网络图,将数学题的解析抽象为数学知识-定理的推理路径,也就是知识网络图中的一条路径,通过组合大量的数学题的解析,可以形成一个更为完整的鲁棒性高的数学知识网络。本发明实施例通过知识推理模型实现数学知识网络的构建以及推理路径的确定。
图12为本发明实施例提供的知识推理模型的结构示意图,如图12所示,知识推理模型中,隐层信息提取层用于基于输入的题干文本、问题文本和答案文本,进行隐层信息提取,并输出题干隐层信息和问题隐层信息;步骤划分点判断层用于基于输入的题干隐层信息和问题隐层信息,对解析文本进行步骤划分,并输出解析文本中每一步骤的条件文本、结论文本,以及条件隐层信息和结论隐层信息。将条件隐层信息输入到条件特征提取层进行特征提取后,将提取得到的条件特征序列输入条件分类层,得到条件预测结果;将结论隐层信息,以及条件序列向量和条件特征序列输入结论特征提取层进行特征提取后,将提取得到的结论特征序列输入结论分类层,得到结论预测结果;将条件序列向量、条件特征序列、结论序列向量和结论特征序列进行自注意力转换,得到定理注意力特征,将定理注意力特征输入定理分类层,得到定理预测结果。最终,将各个步骤的条件预测结果、结论预测结果以及定理预测结果进行整合,得到知识推理路径。
基于上述任一实施例,图13为本发明实施例提供的题目分析装置的结构示意图,该装置包括路径确定单元1310和题目分析单元1320;
其中,路径确定单元1310用于将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;
题目分析单元1320用于基于所述待分析题目文本的知识推理路径,进行题目分析。
本发明实施例提供的装置,通过知识推理模型获取待分析题目文本的知识推理路径,便于后续在题目分析时能够充分理解题目,从而提高题目分析的可靠性和准确性。
基于上述任一实施例,所述待分析题目文本包括题干文本、问题文本、答案文本和解析文本。
基于上述任一实施例,路径确定单元具体包括:
步骤分解单元,用于将所述题干文本、所述问题文本、所述答案文本和所述解析文本输入至所述知识推理模型的步骤分解层,得到所述步骤分解层输出的所述解析文本中每一步骤的步骤隐层信息;
步骤推理单元,用于将所述解析文本中任一步骤的步骤隐层信息输入所述知识推理模型的步骤推理层,得到所述步骤推理层输出的所述任一步骤的步骤推理路径。
基于上述任一实施例,所述解析文本中,任一步骤包括条件文本和结论文本,任一步骤的步骤隐层信息包括条件隐层信息和结论隐层信息。
基于上述任一实施例,步骤分解单元具体包括:
隐层信息提取子单元,用于将所述题干文本、所述问题文本、所述答案文本输入至所述步骤分解层的隐层信息提取层,得到所述隐层信息提取层输出的题干隐层信息和问题隐层信息;
步骤划分点判断层子单元,用于将所述解析文本,以及所述题干隐层信息和所述问题隐层信息输入至所述步骤分解层的步骤划分点判断层,得到所述步骤划分点判断层输出的所述解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
基于上述任一实施例,隐层信息提取子单元具体用于:
将所述题干文本中任一分词的序列向量分别与所述问题文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述题干文本中任一分词的隐层信息;
将所述问题文本中任一分词的序列向量分别与所述题干文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述问题文本中任一分词的隐层信息。
基于上述任一实施例,步骤划分点判断层子单元具体包括:
解析隐层信息模块,用于将所述解析文本中任一分词的序列向量,分别与所述题干隐层信息和所述问题隐层信息进行注意力变换,得到所述解析文本中任一分词的隐层信息;
步骤划分点分类模块,用于将所述解析文本中任一分词的隐层信息输入至所述步骤划分点判断层的划分点分类层中,得到所述划分点分类层输出的所述任一分词的划分点分类结果;
步骤划分模块,用于基于所述解析文本中每一分词的划分点分类结果,对所述解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
基于上述任一实施例,步骤划分模块具体用于:
基于所述解析文本中每一分词的划分点分类结果,确定所述解析文本中的结论划分点和条件划分点;
基于结论划分点进行步骤划分,得到若干个步骤;
基于任一步骤中的条件划分点,将所述任一步骤划分为条件文本和结论文本,并确定所述任一步骤的条件隐层信息和结论隐层信息。
基于上述任一实施例,步骤推理单元具体包括:
特征提取子单元,用于将任一步骤的条件隐层信息和结论隐层信息输入至所述步骤推理层的特征提取层中,得到所述特征提取层输出的条件特征序列和结论特征序列;
预测分类子单元,用于将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述步骤推理层的预测分类层,得到所述预测分类层输出的条件预测结果、结论预测结果和定理预测结果。
基于上述任一实施例,特征提取子单元具体用于:
将任一步骤的条件隐层信息输入至所述特征提取层的条件特征提取层中,得到所述条件特征提取层输出的所述条件特征序列;
将所述任一步骤的结论隐层信息,所述条件文本每一分词的序列向量,以及所述条件特征序列输入至所述特征提取层的结论特征提取层中,得到所述结论特征提取层输出的所述结论特征序列。
基于上述任一实施例,预测分类子单元具体包括:
条件分类模块,用于将所述任一步骤的条件特征序列输入至所述预测分类层的条件分类层,得到所述条件分类层输出的条件预测结果;
结论分类模块,用于将所述任一步骤的结论特征序列输入至所述预测分类层的结论分类层,得到所述结论分类层输出的结论预测结果;
定理分类模块,用于将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述预测分类层的定理分类层,得到所述定理分类层输出的定理预测结果。
基于上述任一实施例,定理分类模块具体用于:
将定理特征进行自注意力转换,得到定理注意力特征;其中,所述定理特征是将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列拼接得到的;
将所述定理注意力特征输入至所述定理分类层的分类层,得到所述分类层输出的所述定理预测结果。
基于上述任一实施例,所述知识推理模型的损失函数包括步骤分解损失函数和步骤推理损失函数。
图14为本发明实施例提供的电子设备的结构示意图,如图14所示,该电子设备可以包括:处理器(processor)1410、通信接口(Communications Interface)1420、存储器(memory)1430和通信总线1440,其中,处理器1410,通信接口1420,存储器1430通过通信总线1440完成相互间的通信。处理器1410可以调用存储器1430中的逻辑指令,以执行如下方法:将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;基于所述待分析题目文本的知识推理路径,进行题目分析。
此外,上述的存储器1430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;基于所述待分析题目文本的知识推理路径,进行题目分析。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (16)
1.一种题目分析方法,其特征在于,包括:
将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;
基于所述待分析题目文本的知识推理路径,进行题目分析。
2.根据权利要求1所述的题目分析方法,其特征在于,所述待分析题目文本包括题干文本、问题文本、答案文本和解析文本。
3.根据权利要求2所述的题目分析方法,其特征在于,所述将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径,具体包括:
将所述题干文本、所述问题文本、所述答案文本和所述解析文本输入至所述知识推理模型的步骤分解层,得到所述步骤分解层输出的所述解析文本中每一步骤的步骤隐层信息;
将所述解析文本中任一步骤的步骤隐层信息输入至所述知识推理模型的步骤推理层,得到所述步骤推理层输出的所述任一步骤的步骤推理路径。
4.根据权利要求3所述的题目分析方法,其特征在于,所述解析文本中,任一步骤包括条件文本和结论文本,任一步骤的步骤隐层信息包括条件隐层信息和结论隐层信息。
5.根据权利要求4所述的题目分析方法,其特征在于,所述将所述题干文本、所述问题文本、所述答案文本和所述解析文本输入至所述知识推理模型的步骤分解层,得到所述步骤分解层输出的所述解析文本中每一步骤的步骤隐层信息,具体包括:
将所述题干文本、所述问题文本、所述答案文本输入至所述步骤分解层的隐层信息提取层,得到所述隐层信息提取层输出的题干隐层信息和问题隐层信息;
将所述解析文本,以及所述题干隐层信息和所述问题隐层信息输入至所述步骤分解层的步骤划分点判断层,得到所述步骤划分点判断层输出的所述解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
6.根据权利要求5所述的题目分析方法,其特征在于,所述将所述题干文本、所述问题文本、所述答案文本输入至所述步骤分解层的隐层信息提取层,得到所述隐层信息提取层输出的题干隐层信息和问题隐层信息,具体包括:
将所述题干文本中任一分词的序列向量分别与所述问题文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述题干文本中任一分词的隐层信息;
将所述问题文本中任一分词的序列向量分别与所述题干文本和所述答案文本中每一分词的序列向量进行注意力变换,得到所述问题文本中任一分词的隐层信息。
7.根据权利要求5所述的题目分析方法,其特征在于,所述将所述解析文本,以及所述题干隐层信息和所述问题隐层信息输入至所述步骤分解层的步骤划分点判断层,得到所述步骤划分点判断层输出的所述解析文本中每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息,具体包括:
将所述解析文本中任一分词的序列向量,分别与所述题干隐层信息和所述问题隐层信息进行注意力变换,得到所述解析文本中任一分词的隐层信息;
将所述解析文本中任一分词的隐层信息输入至所述步骤划分点判断层的划分点分类层中,得到所述划分点分类层输出的所述任一分词的划分点分类结果;
基于所述解析文本中每一分词的划分点分类结果,对所述解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息。
8.根据权利要求7所述的题目分析方法,其特征在于,所述基于所述解析文本中每一分词的划分点分类结果,对所述解析文本进行步骤划分,得到每一步骤的条件文本和结论文本,以及条件隐层信息和结论隐层信息,具体包括:
基于所述解析文本中每一分词的划分点分类结果,确定所述解析文本中的结论划分点和条件划分点;
基于所述结论划分点进行步骤划分,得到若干个步骤;
基于任一步骤中的条件划分点,将所述任一步骤划分为条件文本和结论文本,并确定所述任一步骤的条件隐层信息和结论隐层信息。
9.根据权利要求4所述的题目分析方法,其特征在于,所述将所述解析文本中任一步骤的步骤隐层信息输入至所述知识推理模型的步骤推理层,得到所述步骤推理层输出的所述任一步骤的步骤推理路径,具体包括:
将任一步骤的条件隐层信息和结论隐层信息输入至所述步骤推理层的特征提取层中,得到所述特征提取层输出的条件特征序列和结论特征序列;
将所述任一步骤的条件文本的每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述步骤推理层的预测分类层,得到所述预测分类层输出的条件预测结果、结论预测结果和定理预测结果。
10.根据权利要求9所述的题目分析方法,其特征在于,所述将任一步骤的条件隐层信息和结论隐层信息输入至所述步骤推理层的特征提取层中,得到所述特征提取层输出的条件特征序列和结论特征序列,具体包括:
将任一步骤的条件隐层信息输入至所述特征提取层的条件特征提取层中,得到所述条件特征提取层输出的所述条件特征序列;
将所述任一步骤的结论隐层信息,所述条件文本的每一分词的序列向量,以及所述条件特征序列输入至所述特征提取层的结论特征提取层中,得到所述结论特征提取层输出的所述结论特征序列。
11.根据权利要求9所述的题目分析方法,其特征在于,所述基于所述任一步骤的条件文本的每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述步骤推理层的预测分类层,得到所述预测分类层输出的条件预测结果、结论预测结果和定理预测结果,具体包括:
将所述任一步骤的条件特征序列输入至所述预测分类层的条件分类层,得到所述条件分类层输出的条件预测结果;
将所述任一步骤的结论特征序列输入至所述预测分类层的结论分类层,得到所述结论分类层输出的结论预测结果;
将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述预测分类层的定理分类层,得到所述定理分类层输出的定理预测结果。
12.根据权利要求11所述的题目分析方法,其特征在于,所述将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列输入至所述的预测分类层的定理分类层,得到所述定理分类层输出的定理预测结果,具体包括:
将定理特征进行自注意力转换,得到定理注意力特征;其中,所述定理特征是将所述任一步骤的条件文本每一分词的序列向量,结论文本的每一分词的序列向量,以及所述条件特征序列和结论特征序列拼接得到的;
将所述定理注意力特征输入至所述定理分类层的分类层,得到所述分类层输出的所述定理预测结果。
13.根据权利要求3至12中任一项所述的题目分析方法,其特征在于,所述知识推理模型的损失函数包括步骤分解损失函数和步骤推理损失函数。
14.一种题目分析装置,其特征在于,包括:
路径确定单元,用于将待分析题目文本输入至知识推理模型中,得到所述知识推理模型输出的所述待分析题目文本的知识推理路径;其中,所述知识推理模型是基于样本题目文本及其样本知识推理路径训练得到的,所述知识推理路径表征从待分析题目的条件到结论的推理路径;
题目分析单元,用于基于所述待分析题目文本的知识推理路径,进行题目分析。
15.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至13中任一项所述的题目分析方法的步骤。
16.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至13中任一项所述的题目分析方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911274674.XA CN111126610B (zh) | 2019-12-12 | 2019-12-12 | 题目分析方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911274674.XA CN111126610B (zh) | 2019-12-12 | 2019-12-12 | 题目分析方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111126610A true CN111126610A (zh) | 2020-05-08 |
CN111126610B CN111126610B (zh) | 2023-12-01 |
Family
ID=70499921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911274674.XA Active CN111126610B (zh) | 2019-12-12 | 2019-12-12 | 题目分析方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126610B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111767708A (zh) * | 2020-07-09 | 2020-10-13 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题公式生成方法及装置 |
CN112069295A (zh) * | 2020-09-18 | 2020-12-11 | 科大讯飞股份有限公司 | 相似题推荐方法、装置、电子设备和存储介质 |
CN112069294A (zh) * | 2020-09-16 | 2020-12-11 | 科大讯飞股份有限公司 | 一种数学题处理方法、装置、设备及存储介质 |
CN116050412A (zh) * | 2023-03-07 | 2023-05-02 | 江西风向标智能科技有限公司 | 基于数学语义逻辑关系的高中数学题目的分割方法和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834958A (zh) * | 2015-05-11 | 2015-08-12 | 成都准星云学科技有限公司 | 一种对答案的步骤进行评判的方法和装置 |
US20170316322A1 (en) * | 2016-05-01 | 2017-11-02 | Indiggo Associates LLC | Knowledge inference apparatus and methods to determine emerging industrial trends and adapt strategic reasoning thereof |
CN109271529A (zh) * | 2018-10-10 | 2019-01-25 | 内蒙古大学 | 西里尔蒙古文和传统蒙古文双文种知识图谱构建方法 |
CN109614473A (zh) * | 2018-06-05 | 2019-04-12 | 安徽省泰岳祥升软件有限公司 | 应用于智能交互的知识推理方法及装置 |
CN109710737A (zh) * | 2018-12-21 | 2019-05-03 | 神思电子技术股份有限公司 | 一种基于结构化查询的智能推理方法 |
CN109886851A (zh) * | 2019-02-22 | 2019-06-14 | 科大讯飞股份有限公司 | 数学题批改方法及装置 |
CN109902183A (zh) * | 2019-02-13 | 2019-06-18 | 北京航空航天大学 | 一种基于多样图注意力机制的知识图谱嵌入方法 |
CN110096573A (zh) * | 2019-04-22 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种文本解析方法及相关设备 |
CN110110043A (zh) * | 2019-04-11 | 2019-08-09 | 中山大学 | 一种多跳视觉问题推理模型及其推理方法 |
CN110362671A (zh) * | 2019-07-16 | 2019-10-22 | 安徽知学科技有限公司 | 题目推荐方法、设备和存储介质 |
-
2019
- 2019-12-12 CN CN201911274674.XA patent/CN111126610B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834958A (zh) * | 2015-05-11 | 2015-08-12 | 成都准星云学科技有限公司 | 一种对答案的步骤进行评判的方法和装置 |
US20170316322A1 (en) * | 2016-05-01 | 2017-11-02 | Indiggo Associates LLC | Knowledge inference apparatus and methods to determine emerging industrial trends and adapt strategic reasoning thereof |
CN109614473A (zh) * | 2018-06-05 | 2019-04-12 | 安徽省泰岳祥升软件有限公司 | 应用于智能交互的知识推理方法及装置 |
CN109271529A (zh) * | 2018-10-10 | 2019-01-25 | 内蒙古大学 | 西里尔蒙古文和传统蒙古文双文种知识图谱构建方法 |
CN109710737A (zh) * | 2018-12-21 | 2019-05-03 | 神思电子技术股份有限公司 | 一种基于结构化查询的智能推理方法 |
CN109902183A (zh) * | 2019-02-13 | 2019-06-18 | 北京航空航天大学 | 一种基于多样图注意力机制的知识图谱嵌入方法 |
CN109886851A (zh) * | 2019-02-22 | 2019-06-14 | 科大讯飞股份有限公司 | 数学题批改方法及装置 |
CN110110043A (zh) * | 2019-04-11 | 2019-08-09 | 中山大学 | 一种多跳视觉问题推理模型及其推理方法 |
CN110096573A (zh) * | 2019-04-22 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种文本解析方法及相关设备 |
CN110362671A (zh) * | 2019-07-16 | 2019-10-22 | 安徽知学科技有限公司 | 题目推荐方法、设备和存储介质 |
Non-Patent Citations (4)
Title |
---|
ADI WIBOWO 等: "Application of Topic Based Vector Space Model with WordNet", pages 133 - 136 * |
史杰: "基于语义的全文检索优化和改进", no. 3, pages 138 - 2915 * |
王玉美, 阮晓钢: "基于BP网络的汉语句法分析专家系统", 昆明理工大学学报(理工版), no. 03 * |
王玉美, 阮晓钢: "基于神经网络的汉语文法分析专家系统的设计", 微计算机信息, no. 05 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111767708A (zh) * | 2020-07-09 | 2020-10-13 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题公式生成方法及装置 |
CN112069294A (zh) * | 2020-09-16 | 2020-12-11 | 科大讯飞股份有限公司 | 一种数学题处理方法、装置、设备及存储介质 |
CN112069294B (zh) * | 2020-09-16 | 2023-01-13 | 科大讯飞股份有限公司 | 一种数学题处理方法、装置、设备及存储介质 |
CN112069295A (zh) * | 2020-09-18 | 2020-12-11 | 科大讯飞股份有限公司 | 相似题推荐方法、装置、电子设备和存储介质 |
CN116050412A (zh) * | 2023-03-07 | 2023-05-02 | 江西风向标智能科技有限公司 | 基于数学语义逻辑关系的高中数学题目的分割方法和系统 |
CN116050412B (zh) * | 2023-03-07 | 2024-01-26 | 江西风向标智能科技有限公司 | 基于数学语义逻辑关系的高中数学题目的分割方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111126610B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188331B (zh) | 模型训练方法、对话系统评价方法、装置、设备及存储介质 | |
CN108376132B (zh) | 相似试题的判定方法及系统 | |
CN111126610B (zh) | 题目分析方法、装置、电子设备和存储介质 | |
CN107967254B (zh) | 知识点预测方法及装置、存储介质、电子设备 | |
CN110825875B (zh) | 文本实体类型识别方法、装置、电子设备和存储介质 | |
CN108182177A (zh) | 一种数学试题知识点自动化标注方法和装置 | |
EP3631797A1 (en) | Monitoring the use of language of a patient for identifying potential speech and related neurological disorders | |
CN110825867B (zh) | 相似文本推荐方法、装置、电子设备和存储介质 | |
JP6977901B2 (ja) | 学習材推薦方法、学習材推薦装置および学習材推薦プログラム | |
CN111310463B (zh) | 试题难度预估方法、装置、电子设备和存储介质 | |
CN107301164B (zh) | 数学公式的语义解析方法及装置 | |
EP3836034A1 (en) | Training method and device for machine translation model and storage medium | |
CN114254208A (zh) | 薄弱知识点的识别方法、学习路径的规划方法与装置 | |
CN111079018A (zh) | 习题个性化推荐方法、装置、设备、计算机可读存储介质 | |
CN114297399A (zh) | 知识图谱生成方法、系统、存储介质及电子设备 | |
CN115934955A (zh) | 一种电力标准知识图谱构建方法、知识问答系统及装置 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN111160606A (zh) | 试题难度预测方法及相关装置 | |
CN110765241B (zh) | 推荐题的超纲检测方法、装置、电子设备和存储介质 | |
CN113283488A (zh) | 一种基于学习行为的认知诊断方法及系统 | |
CN107992482B (zh) | 数学主观题解答步骤的规约方法及系统 | |
CN115795007A (zh) | 智能问答方法、智能问答装置、电子设备及存储介质 | |
CN115017886A (zh) | 文本匹配方法、文本匹配装置、电子设备及存储介质 | |
CN112732868B (zh) | 解答题的答案分析方法、电子设备及存储介质 | |
CN115292460A (zh) | 一种话题推荐方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |