CN113822040A - 一种主观题阅卷评分方法、装置、计算机设备及存储介质 - Google Patents

一种主观题阅卷评分方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN113822040A
CN113822040A CN202110903214.XA CN202110903214A CN113822040A CN 113822040 A CN113822040 A CN 113822040A CN 202110903214 A CN202110903214 A CN 202110903214A CN 113822040 A CN113822040 A CN 113822040A
Authority
CN
China
Prior art keywords
semantic
text
scoring
semantic analysis
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110903214.XA
Other languages
English (en)
Inventor
祁长生
孙建
高阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhuofan Technology Co ltd
Original Assignee
Shenzhen Zhuofan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhuofan Technology Co ltd filed Critical Shenzhen Zhuofan Technology Co ltd
Priority to CN202110903214.XA priority Critical patent/CN113822040A/zh
Publication of CN113822040A publication Critical patent/CN113822040A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

本发明属于人工智能中的自然语言处理技术领域,涉及一种应用于主观题阅卷的评分方法、装置、计算机设备及存储介质。本发明根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。

Description

一种主观题阅卷评分方法、装置、计算机设备及存储介质
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种应用于主观题阅卷的评分方法、装置、计算机设备及存储介质。
背景技术
近年来,电子信息技术不断发展并日益深入到不同的行业领域,并逐步取代繁复的人工操作,极大地提高了事务的处理效率。目前,通过自动扫描实现电子阅卷技术已经得到普遍应用,相比于传统的人工阅卷方式,电子阅卷在大幅提高阅卷速度的同时,能够有效地避免人为失误导致的阅卷错误,提高试卷评判的准确度与公平性。
然而,针对“主观题”的阅卷评分操作,由于其“主观题”本身存在非固定性因数,从而导致主观题的表述相当复杂性,仍然需要人工进行评分,但是,人工评分往往都是由某一位老师专门负责固定的一道主观题,效率低,而且浪费了大量的人力、物力资源。
发明内容
本发明实施例的目的在于提出一种应用于主观题阅卷的评分方法、装置、计算机设备及存储介质,以解决传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
为了解决上述技术问题,本发明实施例提供一种应用于主观题阅卷的评分方法,采用了如下所述的技术方案:
接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
读取本地数据库,在所述本地数据库中获取标准文本数据;
根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;
结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;
根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;
根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;
对所述简答文本数据进行预处理操作,得到关键文本数据;
根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;
根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;
整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。
为了解决上述技术问题,本发明实施例还提供一种应用于主观题阅卷的评分装置,采用了如下所述的技术方案:
请求获取模块,用于接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
标准数据获取模块,用于读取本地数据库,在所述本地数据库中获取标准文本数据;
固定文本得分模块,用于根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;
文本结合模块,用于结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;
填空语义分析模块,用于根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;
填空文本得分模块,用于根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;
预处理模块,用于对所述简答文本数据进行预处理操作,得到关键文本数据;
简答语义分析模块,用于根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;
简答得分模块,用于根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;
阅卷评分模块,用于整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。
为了解决上述技术问题,本发明实施例还提供一种计算机设备,采用了如下所述的技术方案:
包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上所述的应用于主观题阅卷的评分方法的步骤。
为了解决上述技术问题,本发明实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上所述的应用于主观题阅卷的评分方法的步骤。
与现有技术相比,本发明实施例主要有以下有益效果:
本发明提供了一种应用于主观题阅卷的评分方法,包括:接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;读取本地数据库,在所述本地数据库中获取标准文本数据;根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;对所述简答文本数据进行预处理操作,得到关键文本数据;根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。本发明根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
附图说明
为了更清楚地说明本发明中的方案,下面将对本发明实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的应用于主观题阅卷的评分方法的实现流程图;
图2是本发明实施例一提供的获取语义分析模型的实现流程图;
图3是本发明实施例一提供的第一特征表示向量获取方法的实现流程图;
图4是本发明实施例一提供的第二特征表示向量获取方法的实现流程图;
图5是本发明实施例一提供的应用于主观题阅卷的评分装置的结构示意图;
图6是根据本发明的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同;本文中在发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明;本发明的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本发明的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本发明方案,下面将结合附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1所示,示出了本发明实施例一提供的应用于主观题阅卷的评分方法的实现流程图,为了便于说明,仅示出与本发明相关的部分。
上述的应用于主观题阅卷的评分方法,包括以下步骤:
步骤S101:接收阅卷评分请求,阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
步骤S102:读取本地数据库,在本地数据库中获取标准文本数据;
步骤S103:根据正则表达式分别对固定文本数据进行相似度判断操作,得到各个固定文本数据相对应的固定文本得分;
步骤S104:结合填空文本数据以及与填空文本数据相对应的上下关联文本,得到填空句子文本;
步骤S105:根据语义分析模型对填空句子文本进行语义分析操作,得到填空语义特征;
步骤S106:根据余弦相似度算法对每个填空语义特征进行余弦相似度计算操作,得到与各个填空文本数据相对应的填空文本得分;
步骤S107:对简答文本数据进行预处理操作,得到关键文本数据;
步骤S108:根据语义分析模型对关键文本数据进行语义分析操作,得到简答语义特征;
步骤S109:根据余弦相似度算法对每个简答语义特征进行余弦相似度计算操作,得到与各个简答文本数据相对应的简答文本得分;
步骤S110:整合固定文本得分、填空文本得分以及简答文本得分,得到最终阅卷评分。
在本发明实施例中,对于固定答案问题判断内容与标答是否一致,通过一致性判断给出分数;对于非固定答案的填空题,则先联系答案周围的上下文,通过基于注意力编解码机制的循环迭代神经网络计算出包含答案句子的语义特征,比对具有最近余弦距离的标准答案语义特征,根据平均距离确定考生作答是否得分;对于简答题要先将考生答案的段落进行一些预处理,例如拆解为句子和词语、进行停用词去除操作来减少停用词对判断造成的干扰,根据简答题的得分点检索对应的考生答案子句,得到一个考生基本得分,通过基于注意力编解码机制的双塔循环迭代神经网络计算出包含得分点的子句语义情感是否同标准答案一致,最终整合各得分部分得出最终得分。
在本发明实施例中,语义分析操作可以是基于注意力编码机制的循环迭代神经网络计算出包含答案句子的语义特征,其中,该神经网络的计算过程可以是:
Step1:
inputs=(x1,x2,x3,…,xt),其中,
Figure BDA0003200551130000071
为输入符号表中的序号。
输入嵌入序列
Figure BDA0003200551130000072
seq.len为输入序列长度,embedding dimension为词嵌入维度。
输入嵌入序列由3个子嵌入组成:
Embeddingtoken=WordEmbedding(inputs)
EmbeddingSegment=SegmentEmbedding(inputs)
EmbeddingPosition=PositionEmbedding(inputs)
Embeddingtoken,EmbeddingSegment
Figure BDA0003200551130000073
Figure BDA0003200551130000074
最终输入序列为:
Figure BDA0003200551130000075
Figure BDA0003200551130000076
代表对应相加,
Figure BDA0003200551130000077
Step2:
设χ=Embedding:
分配权重
Figure BDA0003200551130000078
Figure BDA0003200551130000079
Figure BDA00032005511300000710
Figure BDA00032005511300000711
Figure BDA00032005511300000712
矩阵Wo用于吧MultiHeadAttention映射回之前的维度,
Figure BDA00032005511300000713
MultiHeadAttention=Concat(head1,…,headi)*Wo
Figure BDA00032005511300000714
Figure BDA00032005511300000715
即MultiHeadAttention=Linear(MultiHeadAttention)
Step3:
将结果合并输入数据,矩阵尺寸不变:
Xattention=χ+MultiHeadAttention,
Figure BDA0003200551130000081
计算Xattention行均值与方差:
Figure BDA0003200551130000082
Figure BDA0003200551130000083
其中⊙表示元素相乘,α和β为可训练参数,∈为一个正的极小值。
Setp4:
设函数g为:
Figure BDA0003200551130000084
LN计算完成后将数据传入一个前馈神经网络:
Xout=FFN(Xattention)=g(χ*W1+b1)*W2+b2
Figure BDA0003200551130000085
x∈Xattention
Figure BDA0003200551130000086
Figure BDA0003200551130000087
Steps5:
再次将结果合并:
Xout=Xattention+Xout
Figure BDA0003200551130000088
然后将计算结果归一化:
Xout=LN(Xout)
Steps6:
将Steps2~Steps5的计算过程重复12次,即可得到上述填空语义特征,应当理解的是,在下述根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征的步骤中,该神经网络的计算过程与上述过程相同。
在本发明实施例中,分句技术和停用词去除技术都是根据查表实现的,从大量的原始语料中提取出来。分句技术除了从语料中提取以外还考虑到了键盘打字存在的符号误用等情况。
在本发明实施例中,余弦相似度也称为余弦距离,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。从上述语义分析模型得到的结果就是句子的语义向量,也就是在语义空间中有长度有方向的语义向量。两个句子在语义上越相近,那么在方向上应该越一致。
在本发明实施例中,提供了一种应用于主观题阅卷的评分方法,包括:接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;读取数据库,在所述数据库中获取标准文本数据;根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;对所述简答文本数据进行预处理操作,得到关键文本数据;根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。本发明根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
继续参阅图2,示出了本发明实施例一提供的获取语义分析模型的实现流程图,为了便于说明,仅示出与本发明相关的部分。
在本发明实施例一的一些可选的实现方式中,在上述步骤S105之前,上述方法还包括:步骤S201、步骤S202、步骤S203以及步骤S304。
在步骤S201中,在本地数据库中获取样本文本,并确定样本文本中包含的每个分词。
在本发明实施例中,可以先从上述本地数据库中获取多个文本,确定由获取的多个文本所构成的训练集,则,针对训练集中的每个文本,可将该文本作为样本文本。
在本发明实施例中,确定该样本文本中包含的分词时,可先对该样本文本进行分词处理,以得到该样本文本中包含的每个分词。在对样本文本进行分词处理时,可采用任何分词方法,当然,也可将该样本文本中的每个字符都作为一个分词进行处理,应当理解,此处对分词处理的举例仅为方便理解,不用于限定本发明。
在步骤S202中,基于待训练的语义分析模型确定每个分词对应的词向量。
在本发明实施例中,语义分析模型可至少包括四层,分别是:语义表征层、属性表征层、属性相关性表示层、分类层。
在本发明实施例中,语义表征层中至少包括用于输出双向语义表示向量的子模型,如BERT(Bidirectional Encoder Representations from Transformers)模型等。可将每个分词输入语义分析模型中的语义表征层,得到语义表征层输出的每个分词分别对应的语义表示向量,作为每个分词对应的词向量。应当理解,用于输出语义表示向量的模型除了上述的BERT模型以外,还包括其他模型,此处对用于输出语义表示向量的模型的举例仅为方便理解,不用于限定本发明。
在步骤S203中,在本地数据库中获取语义属性,根据待训练的语义分析模型中包含语义属性对应的注意力矩阵,以及每个分词对应的词向量,确定样本文本涉及语义属性的第一特征表示向量。
在本发明实施例中,可将每个分词对应的词向量输入语义分析模型中的属性表征层,通过属性表征层中包含的该语义属性对应的注意力矩阵,对每个分词对应的词向量进行注意力加权,根据注意力加权后的每个分词对应的词向量,确定样本文本涉及该语义属性的第一特征表示向量。
在步骤S204中,根据待训练的语义分析模型中包含的用于表示不同语义属性之间的相关性的注意力矩阵,以及第一特征表示向量,确定样本文本涉及语义属性的第二特征表示向量。
在本发明实施例中,可将样本文本涉及每个语义属性的第一特征表示向量输入语义分析模型中的属性相关性表示层,通过属性相关性表示层中包含的上述注意力矩阵,对样本文本涉及每个语义属性的第一特征表示向量进行注意力加权,根据注意力加权后的各第一特征表示向量,确定样本文本涉及每个语义属性的第二特征表示向量。
在步骤S205中,根据待训练的语义分析模型以及第二特征表示向量,确定待训练的语义训练模型输出的分类结果,分类结果包括样本文本所属的语义属性以及样本文本所属的语义属性对应的情感极性。
在本发明实施例中,分类层至少包括隐层、全连接层和softmax层。
在本发明实施例中,可将样本文本涉及每个语义属性的第二特征表示向量依次输入分类层中的隐层、全连接层和softmax层,根据每个第二特征表示向量以及分类层的隐层、全连接层和softmax层中包含的与每个语义属性对应的分类参数,对样本文本进行分类,得到分类层输出的分类结果。
在本发明实施例中,分类结果至少包括样本文本所属的语义属性以及样本文本在其所属的语义属性上对应的情感极性。
在本发明实施例中,该情感极性可以采用数值进行量化,例如,数值越接近于1,则表示情感极性越倾向于标答情感极性,数值越接近于0,则表示情感极性越相反于标答情感极性,数值接近于0.5,则表示情感极性倾向于中性。
在步骤S206中,根据分类结果和样本文本预设的标注,对语义分析模型中的模型参数进行调整,得到语义分析模型。
在本发明实施例中,需要调整的模型参数至少包括上述的分类参数,还可包括上述的注意力矩阵。可采用传统的训练方法对语义分析模型中的模型参数进行调整。即,直接根据步骤S108得到的分类结果和针对样本文本预设的标注,确定分类结果对应的损失(以下将其称之为第一损失),并以该第一损失最小化为训练目标对语义分析模型中的模型参数进行调整,以完成对语义分析模型的训练。
在本发明实施例中,由于上述语义分析模型中已经加入了用于表示不同语义属性之间相关性的注意力矩阵,因此,采用上述传统的训练方法训练得到的语义分析模型可更加准确的对待分析文本的语义进行分析。
在本发明实施例一的一些可选的实现方式中,上述步骤S202具体包括下述步骤:
将每个分词输入至语义分析模型的语义表征层,得到语义表征层输出的每个分词分别对应的语义表示向量,作为每个分词对应的词向量。
在本发明实施例中,语义表征层至少包括用于输出语义表示向量的子模型,该子模型包括BERT模型。
继续参阅图3,示出了本发明实施例一提供的第一特征表示向量获取方法的实现流程图,为了便于说明,仅示出与本发明相关的部分。
在本发明实施例一的一些可选的实现方式中,上述步骤S202具体包括:步骤S301、步骤S302以及步骤S303。
在步骤S301中,将每个分词对应的词向量输入至语义分析模型中的属性表征层。
在本发明实施例中,在本发明实施例中,属性表征层中至少包含每个语义属性各自对应的注意力矩阵。
在步骤S302中,通过属性表征层中包含的语义属性对应的注意力矩阵,对每个分词对应的词向量进行注意力加权,得到加权词向量。
在本发明实施例中,可将每个分词对应的词向量输入语义分析模型中的属性表征层,通过属性表征层中包含的该语义属性对应的注意力矩阵,对每个分词对应的词向量进行注意力加权,根据注意力加权后的每个分词对应的词向量,确定样本文本涉及该语义属性的第一特征表示向量。
在步骤S303中,基于加权词向量确定样本文本涉及语义属性的第一特征表示向量。
在本发明实施例中,上述的第一特征表示向量可以表征该样本文本涉及该语义属性的概率以及在该语义属性上的情感极性。
继续参阅图4,示出了本发明实施例一提供的第二特征表示向量获取方法的实现流程图,为了便于说明,仅示出与本发明相关的部分。
在本发明实施例一的一些可选的实现方式中,在上述步骤S204中,具体包括:步骤S401、步骤S402以及步骤S403。
在步骤S401中,将第一特征表示向量输入至语义分析模型中的属性相关性表示层。
在本发明实施例中,语义分析模型中的属性相关性表示层中至少包含注意力矩阵,该注意力矩阵乘积结果用于表示不同语义属性之间的相关性,对于每一个词语其注意力值越高代表该词语在句子中的重要性越大,相关性计算过程中该词语所占分值比重越大。
在步骤S402中,通过属性相关性表示层中包含的用于表示不同语义属性之间的相关性的注意力矩阵,对样本文本涉及每个语义属性的第一特征表示向量进行注意力加权,得到加权特征表示向量。
在步骤S403中,基于加权特征表示向量确定样本文本涉及每个语义属性的第二特征表示向量。
在本发明实施例中,第二特征表示向量同样可以表征该样本文本涉及每个语义属性的概率以及在该语义属性上的情感极性,但与第一特征表示向量不同的是,第一特征表示向量是采用各自独立的每个语义属性对应的注意力矩阵对词向量加权得到的,因此,其表征的样本文本涉及每个语义属性的概率以及在该语义属性上的情感极性并未考虑不同语义属性之间的相关性。而第二特征表示向量是采用用于表示不同语义属性之间相关性的注意力矩阵对第一特征表示向量加权得到的,相当于由注意力矩阵引入了不同语义属性之间相关性的因素,因此,其表征的样本文本涉及每个语义属性的概率以及在该语义属性上的情感极性考虑了不同语义属性之间的相关性。
需要强调的是,为进一步保证上述最终阅卷评分的私密和安全性,上述最终阅卷评分还可以存储于一区块链的节点中。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本发明可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(RandomAccess Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
实施例二
进一步参考图5,作为对上述图2所示方法的实现,本发明提供了一种应用于主观题阅卷的评分装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所述的应用于主观题阅卷的评分装置100包括:
请求获取模块101,用于接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
标准数据获取模块102,用于读取本地数据库,在所述本地数据库中获取标准文本数据;
固定文本得分模块103,用于根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;
文本结合模块104,用于结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;
填空语义分析模块105,用于根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;
填空文本得分模块106,用于根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;
预处理模块107,用于对所述简答文本数据进行预处理操作,得到关键文本数据;
简答语义分析模块108,用于根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;
简答得分模块109,用于根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;
阅卷评分模块110,用于整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。
在本发明实施例中,对于固定答案问题判断内容与标答是否一致,通过一致性判断给出分数;对于非固定答案的填空题,则先联系答案周围的上下文,通过基于注意力编解码机制的循环迭代神经网络计算出包含答案句子的语义特征,比对具有最近余弦距离的标准答案语义特征,根据平均距离确定考生作答是否得分已经得分点;对于简答题要先将考生答案的段落进行一些预处理,例如拆解为句子和词语、进行停用词去除操作来减少停用词对判断造成的干扰,根据简答题的得分点检索对应的考生答案子句,得到一个考生基本得分,通过基于注意力编解码机制的双塔循环迭代神经网络计算出包含得分点的子句语义情感是否同标准答案一致,最终整合各得分部分得出最终得分。
在本发明实施例中,语义分析操作可以是基于注意力编码机制的循环迭代神经网络计算出包含答案句子的语义特征,其中,该神经网络的计算过程可以是:
Step1:
inputs=(x1,x2,x3,…,xt),其中,
Figure BDA0003200551130000161
为输入符号表中的序号。
输入嵌入序列
Figure BDA0003200551130000162
seq.len为输入序列长度,embedding dimension为词嵌入维度。
输入嵌入序列由3个子嵌入组成:
Embeddingtoken=WordEmbedding(inputs)
EmbeddingSegment=SegmentEmbedding(inputs)
EmbeddingPosition=PositionEmbedding(inputs)
Embeddingtoken,EmbeddingSegment
Figure BDA0003200551130000163
Figure BDA0003200551130000164
最终输入序列为:
Figure BDA0003200551130000171
Figure BDA0003200551130000172
代表对应相加,
Figure BDA0003200551130000173
Step2:
设χ=Embedding:
分配权重
Figure BDA0003200551130000174
Figure BDA0003200551130000175
Figure BDA0003200551130000176
Figure BDA0003200551130000177
Figure BDA0003200551130000178
矩阵Wo用于吧MultiHeadAttention映射回之前的维度,
Figure BDA0003200551130000179
MultiHeadAttention=Concat(head1,…,headi)*Wo
Figure BDA00032005511300001710
Figure BDA00032005511300001711
即MultiHeadAttention=Linear(MultiHeadAttention)
Step3:
将结果合并输入数据,矩阵尺寸不变:
Xattention=χ+MultiHeadAttention,
Figure BDA00032005511300001712
计算Xattention行均值与方差:
Figure BDA00032005511300001713
Figure BDA00032005511300001714
其中⊙表示元素相乘,α和β为可训练参数,∈为一个正的极小值。
Setp4:
设函数g为:
Figure BDA0003200551130000181
LN计算完成后将数据传入一个前馈神经网络:
Xout=FFN(Xattention)=g(χ*W1+b1)*W2+b2
Figure BDA0003200551130000182
x∈Xattention
Figure BDA0003200551130000183
Figure BDA0003200551130000184
Steps5:
再次将结果合并:
Xout=Xattention+Xout
Figure BDA0003200551130000185
然后将计算结果归一化:
Xout=LN(Xout)
Steps6:
将Steps2~Steps5的计算过程重复12次,即可得到上述填空语义特征,应当理解的是,在下述根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征的步骤中,该神经网络的计算过程与上述过程相同。
在本发明实施例中,分句技术和停用词去除技术都是根据查表实现的,从大量的原始语料中提取出来。分句技术除了从语料中提取以外还考虑到了键盘打字存在的符号误用等情况。
在本发明实施例中,余弦相似度也称为余弦距离,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。从上述语义分析模型得到的结果就是句子的语义向量,也就是在语义空间中有长度有方向的语义向量。两个句子在语义上越相近,那么在方向上应该越一致。
在本发明实施例中,提供了一种应用于主观题阅卷的评分装置,本发明根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
在本实施例的一些可选的实现方式中,上述应用于主观题阅卷的评分装置100还包括:分词确定模块、词向量确定模块、第一特征表示向量确定模块、第二特征表示向量确定模块、分类结果确定模块以及模型获取模块。其中:
分词确定模块,用于在本地数据库中获取样本文本,并确定样本文本中包含的每个分词;
词向量确定模块,用于基于待训练的语义分析模型确定每个分词对应的词向量;
第一特征表示向量确定模块,用于在本地数据库中获取语义属性,根据待训练的语义分析模型中包含语义属性对应的注意力矩阵,以及每个分词对应的词向量,确定样本文本涉及语义属性的第一特征表示向量;
第二特征表示向量确定模块,用于根据待训练的语义分析模型中包含的用于表示不同语义属性之间的相关性的注意力矩阵,以及第一特征表示向量,确定样本文本涉及语义属性的第二特征表示向量;
分类结果确定模块,用于根据待训练的语义分析模型以及第二特征表示向量,确定待训练的语义训练模型输出的分类结果,分类结果包括样本文本所属的语义属性以及样本文本所属的语义属性对应的情感极性;
模型获取模块,用于根据分类结果和样本文本预设的标注,对语义分析模型中的模型参数进行调整,得到语义分析模型。
在本发明实施例二的一些可选的实现方式中,上述词向量确定模块具体包括:语义表征子模块。其中:
语义表征子模块,用于将每个分词输入至语义分析模型的语义表征层,得到语义表征层输出的每个分词分别对应的双向语义表示向量,作为每个分词对应的词向量。
在本发明实施例二的一些可选的实现方式中,上述第一特征表示向量确定模块具体包括:属性表征子模块、注意力加权子模块以及第一特征表示向量确定子模块。其中:
属性表征子模块,用于将每个分词对应的词向量输入至语义分析模型中的属性表征层;
注意力加权子模块,用于通过属性表征层中包含的语义属性对应的注意力矩阵,对每个分词对应的词向量进行注意力加权,得到加权词向量;
第一特征表示向量确定子模块,用于基于加权词向量确定样本文本涉及语义属性的第一特征表示向量。
在本发明实施例二的一些可选的实现方式中,上述第二特征表示向量确定模块具体包括:属性相关性表示子模块、注意力加权子模块以及第二特征表示向量确定子模块。其中:
属性相关性表示子模块,用于将第一特征表示向量输入至语义分析模型中的属性相关性表示层;
注意力加权子模块,用于通过属性相关性表示层中包含的用于表示不同语义属性之间的相关性的注意力矩阵,对样本文本涉及每个语义属性的第一特征表示向量进行注意力加权,得到加权特征表示向量;
第二特征表示向量确定子模块,用于基于加权特征表示向量确定样本文本涉及每个语义属性的第二特征表示向量。
为解决上述技术问题,本发明实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备200包括通过系统总线相互通信连接存储器210、处理器220、网络接口230。需要指出的是,图中仅示出了具有组件210-230的计算机设备200,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器210至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器210可以是所述计算机设备200的内部存储单元,例如该计算机设备200的硬盘或内存。在另一些实施例中,所述存储器210也可以是所述计算机设备200的外部存储设备,例如该计算机设备200上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器210还可以既包括所述计算机设备200的内部存储单元也包括其外部存储设备。本实施例中,所述存储器210通常用于存储安装于所述计算机设备200的操作系统和各类应用软件,例如应用于主观题阅卷的评分方法的计算机可读指令等。此外,所述存储器210还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器220在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器220通常用于控制所述计算机设备200的总体操作。本实施例中,所述处理器220用于运行所述存储器210中存储的计算机可读指令或者处理数据,例如运行所述应用于主观题阅卷的评分方法的计算机可读指令。
所述网络接口230可包括无线网络接口或有线网络接口,该网络接口230通常用于在所述计算机设备200与其他电子设备之间建立通信连接。
本发明提供了一种计算机设备,根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
本发明还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的应用于主观题阅卷的评分方法的步骤。
本发明提供了一种计算机可读存储介质,根据不同的题型设置相应的评分计算方法,其中,根据语义分析模型对非固定答案的文本进行语义分析,已获得真实的语义信息,并基于真实的语义信息判断答题内容是否得分,最终整合各种题型的得分情况,得到最终的总分,从而有效释放人力、物力资源,极大解决了传统的主观题阅卷评分方法存在的效率低,而且浪费了大量的人力、物力资源的问题。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,附图中给出了本发明的较佳实施例,但并不限制本发明的专利范围。本发明可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本发明说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本发明专利保护范围之内。

Claims (10)

1.一种应用于主观题阅卷的评分方法,其特征在于,包括下述步骤:
接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
读取本地数据库,在所述本地数据库中获取标准文本数据;
根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;
结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;
根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;
根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;
对所述简答文本数据进行预处理操作,得到关键文本数据;
根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;
根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;
整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。
2.根据权利要求1所述的应用于主观题阅卷的评分方法,其特征在于,在所述根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征的步骤之前还包括:
在所述本地数据库中获取样本文本,并确定所述样本文本中包含的每个分词;
基于待训练的语义分析模型确定所述每个分词对应的词向量;
在所述本地数据库中获取语义属性,根据所述待训练的语义分析模型中包含所述语义属性对应的注意力矩阵,以及所述每个分词对应的词向量,确定所述样本文本涉及所述语义属性的第一特征表示向量;
根据所述待训练的语义分析模型中包含的用于表示不同语义属性之间的相关性的注意力矩阵,以及所述第一特征表示向量,确定所述样本文本涉及所述语义属性的第二特征表示向量;
根据所述待训练的语义分析模型以及所述第二特征表示向量,确定所述待训练的语义训练模型输出的分类结果,所述分类结果包括所述样本文本所属的语义属性以及所述样本文本所属的语义属性对应的情感极性;
根据所述分类结果和所述样本文本预设的标注,对所述语义分析模型中的模型参数进行调整,得到所述语义分析模型。
3.根据权利要求2所述的应用于主观题阅卷的评分方法,其特征在于,所述基于待训练的语义分析模型确定所述每个分词对应的词向量的步骤,具体包括:
将所述每个分词输入至所述语义分析模型的语义表征层,得到所述语义表征层输出的所述每个分词分别对应的语义表示向量,作为所述每个分词对应的词向量。
4.根据权利要求2所述的应用于主观题阅卷的评分方法,其特征在于,所述在所述本地数据库中获取语义属性,根据所述待训练的语义分析模型中包含所述语义属性对应的注意力矩阵,以及所述每个分词对应的词向量,确定所述样本文本涉及所述语义属性的第一特征表示向量的步骤,具体包括:
将所述每个分词对应的词向量输入至所述语义分析模型中的属性表征层;
通过所述属性表征层中包含的所述语义属性对应的注意力矩阵,对所述每个分词对应的词向量进行注意力加权,得到加权词向量;
基于所述加权词向量确定所述样本文本涉及所述语义属性的所述第一特征表示向量。
5.根据权利要求1所述的应用于主观题阅卷的评分方法,其特征在于,所述根据所述待训练的语义分析模型中包含的用于表示不同语义属性之间的相关性的注意力矩阵,以及所述第一特征表示向量,确定所述样本文本涉及所述语义属性的第二特征表示向量的步骤,具体包括:
将所述第一特征表示向量输入至所述语义分析模型中的属性相关性表示层;
通过所述属性相关性表示层中包含的用于表示不同语义属性之间的相关性的注意力矩阵,对所述样本文本涉及每个语义属性的第一特征表示向量进行注意力加权,得到加权特征表示向量;
基于所述加权特征表示向量确定所述样本文本涉及每个语义属性的第二特征表示向量。
6.根据权利要求1所述的应用于主观题阅卷的评分方法,其特征在于,在所述整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分的步骤之后,还包括:
将所述最终阅卷评分存储至区块链中。
7.一种应用于主观题阅卷的评分装置,其特征在于,包括:
请求获取模块,用于接收阅卷评分请求,所述阅卷评分请求至少携带有固定文本数据、填空文本数据或者简答文本数据中的一种或者多种组合;
标准数据获取模块,用于读取本地数据库,在所述本地数据库中获取标准文本数据;
固定文本得分模块,用于根据正则表达式分别对所述固定文本数据进行相似度判断操作,得到各个所述固定文本数据相对应的固定文本得分;
文本结合模块,用于结合所述填空文本数据以及与所述填空文本数据相对应的上下关联文本,得到填空句子文本;
填空语义分析模块,用于根据语义分析模型对所述填空句子文本进行语义分析操作,得到填空语义特征;
填空文本得分模块,用于根据余弦相似度算法对每个所述填空语义特征进行余弦相似度计算操作,得到与各个所述填空文本数据相对应的填空文本得分;
预处理模块,用于对所述简答文本数据进行预处理操作,得到关键文本数据;
简答语义分析模块,用于根据所述语义分析模型对所述关键文本数据进行所述语义分析操作,得到简答语义特征;
简答得分模块,用于根据所述余弦相似度算法对每个所述简答语义特征进行余弦相似度计算操作,得到与各个所述简答文本数据相对应的简答文本得分;
阅卷评分模块,用于整合所述固定文本得分、所述填空文本得分以及所述简答文本得分,得到最终阅卷评分。
8.根据权利要求7所述的应用于主观题阅卷的评分装置,其特征在于,所述装置还包括:
分词确定模块,用于在所述本地数据库中获取样本文本,并确定所述样本文本中包含的每个分词;
词向量确定模块,用于基于待训练的语义分析模型确定所述每个分词对应的词向量;
第一特征表示向量确定模块,用于在所述本地数据库中获取语义属性,根据所述待训练的语义分析模型中包含所述语义属性对应的注意力矩阵,以及所述每个分词对应的词向量,确定所述样本文本涉及所述语义属性的第一特征表示向量;
第二特征表示向量确定模块,根据所述待训练的语义分析模型中包含的用于表示不同语义属性之间的相关性的注意力矩阵,以及所述第一特征表示向量,确定所述样本文本涉及所述语义属性的第二特征表示向量;
分类结果确定模块,用于根据所述待训练的语义分析模型以及所述第二特征表示向量,确定所述待训练的语义训练模型输出的分类结果,所述分类结果包括所述样本文本所属的语义属性以及所述样本文本所属的语义属性对应的情感极性;
模型获取模块,用于根据所述分类结果和所述样本文本预设的标注,对所述语义分析模型中的模型参数进行调整,得到所述语义分析模型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一项所述的应用于主观题阅卷的评分方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一项所述的应用于主观题阅卷的评分方法的步骤。
CN202110903214.XA 2021-08-06 2021-08-06 一种主观题阅卷评分方法、装置、计算机设备及存储介质 Pending CN113822040A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110903214.XA CN113822040A (zh) 2021-08-06 2021-08-06 一种主观题阅卷评分方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110903214.XA CN113822040A (zh) 2021-08-06 2021-08-06 一种主观题阅卷评分方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN113822040A true CN113822040A (zh) 2021-12-21

Family

ID=78912912

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110903214.XA Pending CN113822040A (zh) 2021-08-06 2021-08-06 一种主观题阅卷评分方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN113822040A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185715A1 (zh) * 2022-03-31 2023-10-05 华为技术有限公司 一种评分方法及相关装置
CN117252739A (zh) * 2023-11-17 2023-12-19 山东山大鸥玛软件股份有限公司 一种评卷方法、系统、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977637A (zh) * 2017-12-11 2018-05-01 上海启思教育科技服务有限公司 一种多题型的智能阅卷系统
CN110096702A (zh) * 2019-04-22 2019-08-06 安徽省泰岳祥升软件有限公司 一种主观题评分方法及装置
CN110196893A (zh) * 2019-05-05 2019-09-03 平安科技(深圳)有限公司 基于文本相似度的非主观题阅卷方法、装置及存储介质
CN112115736A (zh) * 2019-06-19 2020-12-22 广东小天才科技有限公司 一种基于图像识别的作业批改方法、系统和智能终端
CN112686053A (zh) * 2020-12-30 2021-04-20 平安普惠企业管理有限公司 一种数据增强方法、装置、计算机设备及存储介质
CN112700203A (zh) * 2019-10-23 2021-04-23 北京易真学思教育科技有限公司 智能阅卷方法及装置
WO2021082953A1 (zh) * 2019-10-29 2021-05-06 平安科技(深圳)有限公司 机器阅读理解方法、设备、存储介质及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977637A (zh) * 2017-12-11 2018-05-01 上海启思教育科技服务有限公司 一种多题型的智能阅卷系统
CN110096702A (zh) * 2019-04-22 2019-08-06 安徽省泰岳祥升软件有限公司 一种主观题评分方法及装置
CN110196893A (zh) * 2019-05-05 2019-09-03 平安科技(深圳)有限公司 基于文本相似度的非主观题阅卷方法、装置及存储介质
CN112115736A (zh) * 2019-06-19 2020-12-22 广东小天才科技有限公司 一种基于图像识别的作业批改方法、系统和智能终端
CN112700203A (zh) * 2019-10-23 2021-04-23 北京易真学思教育科技有限公司 智能阅卷方法及装置
WO2021082953A1 (zh) * 2019-10-29 2021-05-06 平安科技(深圳)有限公司 机器阅读理解方法、设备、存储介质及装置
CN112686053A (zh) * 2020-12-30 2021-04-20 平安普惠企业管理有限公司 一种数据增强方法、装置、计算机设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185715A1 (zh) * 2022-03-31 2023-10-05 华为技术有限公司 一种评分方法及相关装置
CN117252739A (zh) * 2023-11-17 2023-12-19 山东山大鸥玛软件股份有限公司 一种评卷方法、系统、电子设备及存储介质
CN117252739B (zh) * 2023-11-17 2024-03-12 山东山大鸥玛软件股份有限公司 一种评卷方法、系统、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
WO2021218028A1 (zh) 基于人工智能的面试内容精炼方法、装置、设备及介质
CN112328761B (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
CN112287069B (zh) 基于语音语义的信息检索方法、装置及计算机设备
CN112468659B (zh) 应用于电话客服的质量评价方法、装置、设备及存储介质
CN111694937A (zh) 基于人工智能的面试方法、装置、计算机设备及存储介质
CN112671985A (zh) 基于深度学习的坐席质检方法、装置、设备及存储介质
CN113822040A (zh) 一种主观题阅卷评分方法、装置、计算机设备及存储介质
CN112686053A (zh) 一种数据增强方法、装置、计算机设备及存储介质
CN112084779B (zh) 用于语义识别的实体获取方法、装置、设备及存储介质
CN112085091B (zh) 基于人工智能的短文本匹配方法、装置、设备及存储介质
CN113707299A (zh) 基于问诊会话的辅助诊断方法、装置及计算机设备
CN114647741A (zh) 工艺自动决策和推理方法、装置、计算机设备及存储介质
CN113505601A (zh) 一种正负样本对构造方法、装置、计算机设备及存储介质
CN112860919A (zh) 基于生成模型的数据标注方法、装置、设备及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN115757731A (zh) 对话问句改写方法、装置、计算机设备及存储介质
CN115934955A (zh) 一种电力标准知识图谱构建方法、知识问答系统及装置
CN113505786A (zh) 试题拍照评判方法、装置及电子设备
CN113705207A (zh) 语法错误识别方法及装置
CN112052424A (zh) 一种内容审核方法及装置
CN115238077A (zh) 基于人工智能的文本分析方法、装置、设备及存储介质
CN114398466A (zh) 基于语义识别的投诉分析方法、装置、计算机设备及介质
CN109933788B (zh) 类型确定方法、装置、设备和介质
CN113032519A (zh) 一种句子相似度判断方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination