CN110263328B - 一种学科能力类型标注方法、装置、存储介质及终端设备 - Google Patents

一种学科能力类型标注方法、装置、存储介质及终端设备 Download PDF

Info

Publication number
CN110263328B
CN110263328B CN201910429680.1A CN201910429680A CN110263328B CN 110263328 B CN110263328 B CN 110263328B CN 201910429680 A CN201910429680 A CN 201910429680A CN 110263328 B CN110263328 B CN 110263328B
Authority
CN
China
Prior art keywords
capability
word
test question
feature vector
question text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910429680.1A
Other languages
English (en)
Other versions
CN110263328A (zh
Inventor
刘静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An International Smart City Technology Co Ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN201910429680.1A priority Critical patent/CN110263328B/zh
Publication of CN110263328A publication Critical patent/CN110263328A/zh
Application granted granted Critical
Publication of CN110263328B publication Critical patent/CN110263328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及计算机技术领域,尤其涉及一种学科能力类型标注方法、标注装置、存储介质及终端设备。本发明提供的方法包括:获取数学试题文本,并对数学试题文本进行切词处理,得到构成数学试题文本的多个分词;利用预设的词向量生成模型生成各个分词的词向量,并将各个分词的词向量组成输入矩阵;将输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到学科能力分析模型输出的分析结果;将分析结果标注为数学试题文本对应的学科能力类型,以通过基于注意力机制和双向长短期记忆神经网络的学科能力分析模型来实现学科能力类型的自动化标注,降低学科能力类型标注的人工成本,提高学科能力类型标注的标注效率和准确率。

Description

一种学科能力类型标注方法、装置、存储介质及终端设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种学科能力类型标注方法、标注装置、计算机可读存储介质及终端设备。
背景技术
在数学教学中,为培养学生不同方面的能力,往往需要选择不同学科能力类型的数学试题对学生进行训练,因而,为实现针对性训练,则需要对数学试题进行学科能力类型的标注,而现有的学科能力类型标注方法主要依赖于人工手动标注,不仅标注成本高,而且标准效率较低,标注准确性也因人而异而存在较大的误差。
综上,如何提高数学试题中学科能力类型标注的效率和准确性成为本领域技术人员亟待解决的问题。
发明内容
本发明实施例提供了一种学科能力类型标注方法、标注装置、计算机可读存储介质及终端设备,能够实现学科能力类型的自动化标注,提高学科能力类型标注的标注效率和准确率。
本发明实施例第一方面,提供了一种学科能力类型标注方法,包括:
获取数学试题文本,并对所述数学试题文本进行切词处理,得到构成所述数学试题文本的多个分词;
利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵;
将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
将所述分析结果标注为所述数学试题文本对应的学科能力类型。
本发明实施例第二方面,提供了一种学科能力类型标注装置,包括:
切词处理模块,用于获取数学试题文本,并对所述数学试题文本进行切词处理,得到构成所述数学试题文本的多个分词;
向量生成模块,用于利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵;
结果输出模块,用于将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
类型标注模块,用于将所述分析结果标注为所述数学试题文本对应的学科能力类型。
本发明实施例第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如前述第一方面所述学科能力类型标注方法的步骤。
本发明实施例第四方面,提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现如下步骤:
获取数学试题文本,并对所述数学试题文本进行切词处理,得到构成所述数学试题文本的多个分词;
利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵;
将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
将所述分析结果标注为所述数学试题文本对应的学科能力类型。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例中,在需要对数学试题文本进行学科能力类型的标注时,可首先对该数学试题文本进行切词处理,其次可利用词向量模型对切词处理得到的分词构建词向量,然后将所构建的词向量组成输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到学科能力分析模型输出的分析结果,并将所得到的分析结果标注为该数学试题文本对应的学科能力类型,以通过基于注意力机制和双向长短期记忆神经网络的学科能力分析模型来实现学科能力类型的自动化标注,降低学科能力类型标注的人工成本,提高学科能力类型标注的标注效率和准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种学科能力类型标注方法的一个实施例流程图;
图2为本发明实施例中一种学科能力类型标注方法在一个应用场景下得到分析结果的流程示意图;
图3为本发明实施例中一种学科能力类型标注方法在一个应用场景下训练学科能力分析模型的流程示意图;
图4为本发明实施例中一种学科能力类型标注装置的一个实施例结构图;
图5为本发明一实施例提供的一种终端设备的示意图。
具体实施方式
本发明实施例提供了一种学科能力类型标注方法、标注装置、计算机可读存储介质及终端设备,用于实现学科能力类型的自动化标注,提高学科能力类型标注的标注效率和准确率。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例提供了一种学科能力类型标注方法,所述学科能力类型标注方法,包括:
步骤S101、获取数学试题文本,并对所述数学试题文本进行切词处理,得到构成所述数学试题文本的多个分词;
本发明实施例的执行主体为终端设备,所述终端设备包括但不限于:服务器、计算机、智能手机以及平板电脑等设备。具体地,在需要确定数学试题的学科能力类型时,可向所述终端设备中输入对应的数学试题文本,所述终端设备在获取到所述数学试题文本后,可首先对所述数学试题文本进行预处理,如可以采用jieba分词模型对所述数学试题文本进行切词处理,然后还可基于预设停用词表对切词后的数学试题文本进行去停用词处理等,以得到构成所述数学试题文本的各个分词,其中,所述预设停用词表可以是数学老师在现有中文停用词表基础上重构的符合数学题目规范的数学题停用词表。
步骤S102、利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵;
可以理解的是,在得到所述数学试题文本对应的各个分词后,则可使用预设的词向量生成模型来生成各个分词的词向量,在此,所述预设的词向量模型可以为使用word2vec技术构建的词向量模型,如可以为基于CBOW(Continuous Bag of Words)模型构建的词向量模型,也可以为基于Skip-gram模型构建的词向量模型。本发明实施例中,在得到各个分词的词向量之后,则可以按照各分词在所述数学试题文本中的出现顺序将各词向量组成输入矩阵,如可得到WordMatrix=(WordVec1,WordVec2,WordVec3,......,Wordyecn),其中,WordVec1为所述数学试题文本中出现的第一个分词所对应的词向量,WordVec2为所述数学试题文本中出现的第二个分词所对应的词向量,WordVecn为所述数学试题文本中出现的第n个分词所对应的词向量。
步骤S103、将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
步骤S104、将所述分析结果标注为所述数学试题文本对应的学科能力类型。
本发明实施例中,在得到各词向量组成的输入矩阵之后,即可以将所得到的输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,以得到所述学科能力分析模型输出的分析结果,并将所得到的分析结果标注为所述数学试题文本所对应的学科能力类型。其中,所标注的学科能力类型可以为抽象概括能力、逻辑推理能力、运算求解能力、空间想象能力、数据处理能力、实践操作能力、综合应用能力、建模能力和创新能力中的一个或者多个。
进一步地,如图2所示,所述将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果,可以包括:
步骤S201、将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,在所述学科能力分析模型的隐藏层中对所述输入矩阵的各词向量进行特征提取,得到各词向量对应的特征向量;
可以理解的是,在将所述输入矩阵输入至注意力机制和双向长短期记忆神经网络的学科能力分析模型后,所述学科能力分析模型的隐藏层会对所述输入矩阵的各词向量进行特征提取,以得到各词向量对应的特征向量。
步骤S202、将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值;
可以理解的是,在学科能力类型的标注中,不同的分词可能具有不同的重要性,而若未区分各个分词的重要性的话,则可能导致学科能力类型标注的错误,因此,本发明实施例中,所述学科能力分析模型的隐藏层在得到各词向量对应的特征向量后,即可以将各特征向量输入至所述学科能力分析模型的注意力层中,所述学科能力分析模型的注意力层则会计算各特征向量所对应的权重值,以通过注意力层为各个词向量计算对应的权重值,从而可通过权重值来区分各个分词的重要性,提高学科能力类型标注的准确性。
优选地,本发明实施例中,所述将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值,可以包括:
根据下述公式计算得到各特征向量对应的权重值:
其中,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数,WeightIMatrix为输入层的权重矩阵,CoupVec为各特征向量的加和,MainVecn为第n个特征向量,T为转置符号。
步骤S203、根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量;
本发明实施例中,在得到各特征向量对应的权重值后,则可根据所得到的权重值对各特征向量进行加权处理,如可根据特征向量A对应的权重值A对特征向量A进行加权处理、根据特征向量B对应的权重值B对特征向量B进行加权处理,等等,并根据加权处理后的特征向量得到所述数学试题文本对应的文本特征向量。
具体地,本发明实施例中,所述根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量,可以包括:
根据下式对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量:
其中,TextVecatt为所述文本特征向量,MainVecn为第n个特征向量,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数。
步骤S204、将所述文本特征向量输入至所述学科能力分析模型的输出层中,得到所述数学试题文本对应的分析结果。
具体地,本发明实施例中,所述将所述文本特征向量输入至所述学科能力分析模型的输出层中,得到所述数学试题文本对应的分析结果,可以包括:
步骤a、将所述文本特征向量输入至所述学科能力分析模型的输出层中,在所述输出层根据下式计算所述文本特征向量在各分析结果中的概率值;
其中,Probm为第m个分析结果的概率值,WeightOMatrix为输出层的权值矩阵,TextVecatt(m)为TextVecatt中第m个分量值,M为分析结果的数量;
步骤b、将概率值最大的分析结果确定为所述数学试题文本对应的分析结果。
优选地,如图3所示,本发明实施例中,所述学科能力分析模型可通过下述步骤训练得到:
步骤S301、选取预设数目的训练样本,每个训练样本包括一个输入矩阵和一个标准分析结果;
步骤S302、将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果;
步骤S303、根据所述训练分析结果与所述标准分析结果计算本轮训练的全局误差;
步骤S304、判断所述全局误差是否满足预设条件;
步骤S305、若所述全局误差满足所述预设条件,则确定所述学科能力分析模型训练完成;
步骤S306、若所述全局误差不满足所述预设条件,则调整所述学科能力分析模型的模型参数,并将模型参数调整后的学科能力分析模型确定为初始的学科能力分析模型,返回执行将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果的步骤以及后续步骤。
对于上述步骤S301,可以理解的是,在进行所述学科能力分析模型的训练之前,需要预先选取用于训练用的训练样本,即需要预先选取预设数目的训练样本,每一个训练样本包括一个输入矩阵和一个标准分析结果,所述标准分析结果可为各训练样本所对应的学科能力类型,而各训练样本所对应的学科能力类型则可由数学老师进行人工标注得到,如可由10个数学老师同时对各训练样本进行人工标注,得到多个人工标注结果后,将这些人工标注结果中次数最多的人工标注结果确定为某一训练样本对应的学科能力类型。可以理解的是,这些训练样本的数据量越大,对学科能力分析模型的训练效果将越好,因而,本发明实施例中,可尽可能选取多的训练样本。
对于上述步骤S302,可以理解的是,在选取完预设数目的训练样本后,则可将这些训练样本输入至初始的学科能力分析模型中,以得到各训练样本初始的训练分析结果,即得到各输入矩阵对应的初始学科能力类型,由于初始时该学科能力分析模型尚未训练完成,因此,此时输出的训练分析结果与标准分析结果之间会存在一定的偏差、误差。
对于上述步骤S303和步骤S304,在得到各训练分析结果之后,可以根据各训练分析结果与对应的标准分析结果计算本轮训练的全局误差,并判断该全局误差是否满足预设条件,如判断该全局误差是否小于5%。在此,所述预设条件可以在训练具体的学科能力分析模型时确定,例如,可以设定所述预设条件为全局误差小于特定阈值,该特定阈值可以是一个百分比数值,其中,该特定阈值越小,则最后训练完成得到的学科能力分析模型越稳定,预测精确度也将越高。
具体地,本发明实施例中,所述根据所述训练分析结果与所述标准分析结果计算本轮训练的全局误差,可以包括:
根据下述公式计算本轮训练的全局误差:
其中,Loss为所述全局误差,ExpProbi为第i个训练样本对应的标准分析结果,ActuProbi为第i个训练样本对应的训练分析结果,T为所述训练样本的个数。
对于上述步骤S305,可以理解的是,当本轮训练的全局误差满足所述预设条件时,例如,当本轮训练的全局误差小于5%时,则可以确定所述学科能力分析模型训练完成。
对于上述步骤S306,可以理解的是,当本轮训练的全局误差不满足所述预设条件时,例如,当本轮训练的全局误差为10%时,则可以调整所述学科能力分析模型的模型参数,并将模型参数调整后的学科能力分析模型确定为初始的学科能力分析模型,然后重新进行训练样本的训练,以通过反复调整学科能力分析模型的模型参数,并进行多次训练样本的训练,来使得后续根据训练分析结果与对应的标准分析结果计算得到的全局误差最小化,直到最终的全局误差满足所述预设条件。
本发明实施例中,在需要对数学试题文本进行学科能力类型的标注时,可首先对该数学试题文本进行切词处理,其次可利用词向量模型对切词处理得到的分词构建词向量,然后将所构建的词向量组成输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到学科能力分析模型输出的分析结果,并将所得到的分析结果标注为该数学试题文本对应的学科能力类型,以通过基于注意力机制和双向长短期记忆神经网络的学科能力分析模型来实现学科能力类型的自动化标注,降低学科能力类型标注的人工成本,提高学科能力类型标注的标注效率和准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
上面主要描述了一种学科能力类型标注方法,下面将对一种学科能力类型标注装置进行详细描述。
如图4所示,本发明实施例提供了一种学科能力类型标注装置,所述学科能力类型标注装置,包括:
切词处理模块401,用于获取数学试题文本,并对所述数学试题文本进行切词处理,得到构成所述数学试题文本的多个分词;
向量生成模块402,用于利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵;
结果输出模块403,用于将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
类型标注模块404,用于将所述分析结果标注为所述数学试题文本对应的学科能力类型。
进一步地,所述结果输出模块403,可以包括:
特征向量获取单元,用于将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,在所述学科能力分析模型的隐藏层中对所述输入矩阵的各词向量进行特征提取,得到各词向量对应的特征向量;
权重值确定单元,用于将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值;
加权处理单元,用于根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量;
结果输出单元,用于将所述文本特征向量输入至所述学科能力分析模型的输出层中,得到所述数学试题文本对应的分析结果。
优选地,所述权重值确定单元,具体用于根据下述公式计算得到各特征向量对应的权重值:
其中,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数,WeightIMatrix为输入层的权重矩阵,CoupVec为各特征向量的加和,MainVecn为第n个特征向量,T为转置符号。
可选地,所述加权处理单元,具体用于根据下式对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量:
其中,TextVecatt为所述文本特征向量,MainVecn为第n个特征向量,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数。
进一步地,所述结果输出单元,可以包括:
概率值计算子单元,用于将所述文本特征向量输入至所述学科能力分析模型的输出层中,在所述输出层根据下式计算所述文本特征向量在各分析结果中的概率值;
其中,Probm为第m个分析结果的概率值,WeightOMatrix为输出层的权值矩阵,TextVecatt(m)为TextVecatt中第m个分量值,M为分析结果的数量;
结果确定子单元,用于将概率值最大的分析结果确定为所述数学试题文本对应的分析结果。
优选地,所述学科能力类型标注装置,还可以包括:
训练样本选取模块,用于选取预设数目的训练样本,每个训练样本包括一个输入矩阵和一个标准分析结果;
训练分析结果获取模块,用于将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果;
全局误差计算模块,用于根据所述训练分析结果与所述标准分析结果计算本轮训练的全局误差;
模型参数调整模块,用于若所述全局误差不满足预设条件,则调整所述学科能力分析模型的模型参数,并将模型参数调整后的学科能力分析模型确定为初始的学科能力分析模型,返回执行将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果的步骤以及后续步骤;
训练完成确定模块,用于若所述全局误差满足所述预设条件,则确定所述学科能力分析模型训练完成。
可选地,所述全局误差计算模块,具体用于根据下述公式计算本轮训练的全局误差:
其中,Loss为所述全局误差,ExpProbi为第i个训练样本对应的标准分析结果,ActuProbi为第i个训练样本对应的训练分析结果,T为所述训练样本的个数。
图5是本发明一实施例提供的终端设备的示意图。如图5所示,该实施例的终端设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机可读指令52,例如学科能力类型标注程序。所述处理器50执行所述计算机可读指令52时实现上述各个学科能力类型标注方法实施例中的步骤,例如图1所示的步骤S101至步骤S104。或者,所述处理器50执行所述计算机可读指令62时实现上述各装置实施例中各模块/单元的功能,例如图4所示的模块401至模块404的功能。
示例性的,所述计算机可读指令52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令52在所述终端设备5中的执行过程。
所述终端设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是终端设备5的示例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51也可以是所述终端设备5的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机可读指令以及所述终端设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种学科能力类型标注方法,其特征在于,包括:
获取数学试题文本,并对所述数学试题文本进行切词处理,基于预设停用词表对切词后的数学试题文本进行去停用词处理,得到构成所述数学试题文本的多个分词;所述预设停用词表为符合数学题目规范的数学题停用词表;
利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵,包括:按照各分词在所述数学试题文本中的出现顺序将各词向量组成输入矩阵,得到WordMatrix=(WordVec1,WordVec2,WordVec3,……,WordVecn),其中,WordVec1为所述数学试题文本中出现的第一个分词所对应的词向量,WordVec2为所述数学试题文本中出现的第二个分词所对应的词向量,WordVecn为所述数学试题文本中出现的第n个分词所对应的词向量;
将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,在所述学科能力分析模型的隐藏层中对所述输入矩阵的各词向量进行特征提取,得到各词向量对应的特征向量;
将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值,包括:根据下述公式计算得到各特征向量对应的权重值:
其中,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数,WeightIMatrix为输入层的权重矩阵,CoupVec为各特征向量的加和,MainVecn为第n个特征向量,T为转置符号;
根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量;
将所述文本特征向量输入至所述学科能力分析模型的输出层中,在所述输出层根据下式计算所述文本特征向量在各分析结果中的概率值;
其中,Probm为第m个分析结果的概率值,WeightOMatrix为输出层的权值矩阵,TextVecatt(m)为TextVecatt中第m个分量值,M为分析结果的数量;
将概率值最大的分析结果确定为所述数学试题文本对应的分析结果;
将所述分析结果标注为所述数学试题文本对应的学科能力类型,所述学科能力类型包括抽象概括能力、逻辑推理能力、运算求解能力、空间想象能力、数据处理能力、实践操作能力、综合应用能力、建模能力和创新能力中的一个或者多个。
2.根据权利要求1所述的学科能力类型标注方法,其特征在于,所述根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量,包括:
根据下式对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量:
其中,TextVecatt为所述文本特征向量,MainVecn为第n个特征向量,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数。
3.根据权利要求1或2所述的学科能力类型标注方法,其特征在于,所述学科能力分析模型通过下述步骤训练得到:
选取预设数目的训练样本,每个训练样本包括一个输入矩阵和一个标准分析结果;
将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果;
根据所述训练分析结果与所述标准分析结果计算本轮训练的全局误差;
若所述全局误差不满足预设条件,则调整所述学科能力分析模型的模型参数,并将模型参数调整后的学科能力分析模型确定为初始的学科能力分析模型,返回执行将各所述训练样本输入至初始的学科能力分析模型中,得到所述初始的学科能力分析模型输出的训练分析结果的步骤以及后续步骤;
若所述全局误差满足所述预设条件,则确定所述学科能力分析模型训练完成。
4.根据权利要求3所述的学科能力类型标注方法,其特征在于,所述根据所述训练分析结果与所述标准分析结果计算本轮训练的全局误差,包括:
根据下述公式计算本轮训练的全局误差:
其中,Loss为所述全局误差,ExpProbi为第i个训练样本对应的标准分析结果,ActuProbi为第i个训练样本对应的训练分析结果,T为所述训练样本的个数。
5.一种学科能力类型标注装置,其特征在于,包括:
切词处理模块,用于获取数学试题文本,并对所述数学试题文本进行切词处理,基于预设停用词表对切词后的数学试题文本进行去停用词处理,得到构成所述数学试题文本的多个分词;所述预设停用词表为符合数学题目规范的数学题停用词表;
向量生成模块,用于利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵,包括:按照各分词在所述数学试题文本中的出现顺序将各词向量组成输入矩阵,得到WordMatrix=(WordVec1,WordVec2,WordVec3,……,WordVecn),其中,WordVec1为所述数学试题文本中出现的第一个分词所对应的词向量,WordVec2为所述数学试题文本中出现的第二个分词所对应的词向量,WordVecn为所述数学试题文本中出现的第n个分词所对应的词向量;
结果输出模块,用于将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,得到所述学科能力分析模型输出的分析结果;
类型标注模块,用于将所述分析结果标注为所述数学试题文本对应的学科能力类型,所述学科能力类型包括抽象概括能力、逻辑推理能力、运算求解能力、空间想象能力、数据处理能力、实践操作能力、综合应用能力、建模能力和创新能力中的一个或者多个;
所述结果输出模块,包括:
特征向量获取单元,用于将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,在所述学科能力分析模型的隐藏层中对所述输入矩阵的各词向量进行特征提取,得到各词向量对应的特征向量;
权重值确定单元,用于将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值,包括:根据下述公式计算得到各特征向量对应的权重值:
其中,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数,WeightIMatrix为输入层的权重矩阵,CoupVec为各特征向量的加和,MainVecn为第n个特征向量,T为转置符号;
加权处理单元,用于根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量;
结果输出单元,用于将所述文本特征向量输入至所述学科能力分析模型的输出层中,得到所述数学试题文本对应的分析结果;
所述结果输出单元,包括:
概率值计算子单元,用于将所述文本特征向量输入至所述学科能力分析模型的输出层中,在所述输出层根据下式计算所述文本特征向量在各分析结果中的概率值;
其中,Probm为第m个分析结果的概率值,WeightOMatrix为输出层的权值矩阵,TextVecatt(m)为TextVecatt中第m个分量值,M为分析结果的数量;
结果确定子单元,用于将概率值最大的分析结果确定为所述数学试题文本对应的分析结果。
6.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至5中任一项所述学科能力类型标注方法的步骤。
7.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:
获取数学试题文本,并对所述数学试题文本进行切词处理,基于预设停用词表对切词后的数学试题文本进行去停用词处理,得到构成所述数学试题文本的多个分词;所述预设停用词表为符合数学题目规范的数学题停用词表;
利用预设的词向量生成模型生成各个所述分词的词向量,并将各个所述分词的词向量组成输入矩阵,包括:按照各分词在所述数学试题文本中的出现顺序将各词向量组成输入矩阵,得到WordMatrix=(WordVec1,WordVec2,WordVec3,……,WordVecn),其中,WordVec1为所述数学试题文本中出现的第一个分词所对应的词向量,WordVec2为所述数学试题文本中出现的第二个分词所对应的词向量,WordVecn为所述数学试题文本中出现的第n个分词所对应的词向量;
将所述输入矩阵输入至基于注意力机制和双向长短期记忆神经网络的学科能力分析模型中,在所述学科能力分析模型的隐藏层中对所述输入矩阵的各词向量进行特征提取,得到各词向量对应的特征向量;
将各特征向量输入至所述学科能力分析模型的注意力层中,得到各特征向量对应的权重值,包括:根据下述公式计算得到各特征向量对应的权重值:
其中,WeightValn为第n个特征向量对应的权重值,N为特征向量的总个数,WeightIMatrix为输入层的权重矩阵,CoupVec为各特征向量的加和,MainVecn为第n个特征向量,T为转置符号;
根据所得到的权重值对各特征向量进行加权处理,得到所述数学试题文本对应的文本特征向量;
将所述文本特征向量输入至所述学科能力分析模型的输出层中,在所述输出层根据下式计算所述文本特征向量在各分析结果中的概率值;
其中,Probm为第m个分析结果的概率值,WeightOMatrix为输出层的权值矩阵,TextVecatt(m)为TextVecatt中第m个分量值,M为分析结果的数量;
将概率值最大的分析结果确定为所述数学试题文本对应的分析结果;
将所述分析结果标注为所述数学试题文本对应的学科能力类型,所述学科能力类型包括抽象概括能力、逻辑推理能力、运算求解能力、空间想象能力、数据处理能力、实践操作能力、综合应用能力、建模能力和创新能力中的一个或者多个。
CN201910429680.1A 2019-05-22 2019-05-22 一种学科能力类型标注方法、装置、存储介质及终端设备 Active CN110263328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910429680.1A CN110263328B (zh) 2019-05-22 2019-05-22 一种学科能力类型标注方法、装置、存储介质及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910429680.1A CN110263328B (zh) 2019-05-22 2019-05-22 一种学科能力类型标注方法、装置、存储介质及终端设备

Publications (2)

Publication Number Publication Date
CN110263328A CN110263328A (zh) 2019-09-20
CN110263328B true CN110263328B (zh) 2024-01-23

Family

ID=67915063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910429680.1A Active CN110263328B (zh) 2019-05-22 2019-05-22 一种学科能力类型标注方法、装置、存储介质及终端设备

Country Status (1)

Country Link
CN (1) CN110263328B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111177228B (zh) * 2020-02-13 2023-04-07 广州欧赛斯信息科技有限公司 基于学科评估的数据处理方法、系统、装置及电子设备
CN111444339B (zh) * 2020-02-29 2024-05-03 平安国际智慧城市科技股份有限公司 文本题目难度标注方法、装置及计算机可读存储介质
CN111930977A (zh) * 2020-08-04 2020-11-13 腾讯音乐娱乐科技(深圳)有限公司 识别敏感信息的方法、装置、设备及存储介质
CN112232657A (zh) * 2020-10-14 2021-01-15 高岩峰 一种多功能智能题库系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299268A (zh) * 2018-10-24 2019-02-01 河南理工大学 一种基于双通道模型的文本情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107908635B (zh) * 2017-09-26 2021-04-16 百度在线网络技术(北京)有限公司 建立文本分类模型以及文本分类的方法、装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299268A (zh) * 2018-10-24 2019-02-01 河南理工大学 一种基于双通道模型的文本情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Also Published As

Publication number Publication date
CN110263328A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
CN110263328B (zh) 一种学科能力类型标注方法、装置、存储介质及终端设备
US11423337B2 (en) Training distilled machine learning models
US20210089718A1 (en) Method for machine reading comprehension
US10692003B2 (en) Device placement optimization with reinforcement learning
KR102055355B1 (ko) 배치 정규화 레이어들
Hagemann Cluster-robust bootstrap inference in quantile regression models
CN108205699B (zh) 生成用于神经网络输出层的输出
WO2019164818A1 (en) Question answering from minimal context over documents
US10984319B2 (en) Neural architecture search
EP3602419B1 (en) Neural network optimizer search
US20200065656A1 (en) Training neural networks using a clustering loss
US11232263B2 (en) Generating summary content using supervised sentential extractive summarization
CN109739995B (zh) 一种信息处理方法及装置
US20220230065A1 (en) Semi-supervised training of machine learning models using label guessing
CN114742319A (zh) 法考客观题成绩预测方法、系统及存储介质
US20220108149A1 (en) Neural networks with pre-normalized layers or regularization normalization layers
WO2021147405A1 (zh) 客服语句质检方法及相关设备
WO2023158881A1 (en) Computationally efficient distillation using generative neural networks
US10635972B1 (en) Recurrent neural networks with rectified linear units
CN114528391A (zh) 问答对评分模型的训练方法、装置、设备及存储介质
US20190294967A1 (en) Circulant neural networks
CN115017321A (zh) 一种知识点预测方法、装置、存储介质以及计算机设备
CN112347242A (zh) 摘要生成方法、装置、设备及介质
Montenegro et al. Analytical expressions for the REM model of recognition memory
CN111242449A (zh) 一种企业情报流失预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant