CN111221939B - 评分方法、装置和电子设备 - Google Patents
评分方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111221939B CN111221939B CN201911163381.4A CN201911163381A CN111221939B CN 111221939 B CN111221939 B CN 111221939B CN 201911163381 A CN201911163381 A CN 201911163381A CN 111221939 B CN111221939 B CN 111221939B
- Authority
- CN
- China
- Prior art keywords
- text
- similarity
- scored
- standard
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种评分方法、装置和电子设备;包括:获取待评分文本和预设的标准文本;提取特征数据;将特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;计算待评分文本和标准文本的检索相似度;根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。该方法分别提取待评分文本和标准文本的特征数据,输入至相似度分析模型中,得到语义相似度和文本相似度,计算待评分文本和标准文本的检索相似度,根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。该方式中,不仅考虑了文本特征,还考虑了语义特征,根据检索相似度确定待评分文本的评分,可以减少评分时间,增加评分的可靠性。
Description
技术领域
本发明涉及深度学习技术领域,尤其是涉及一种评分方法、装置和电子设备。
背景技术
相关技术中,多数主观题阅卷采用人工评分或机器评分完成。其中,人工评分中,评分标准以描述性语言居多,答卷人回答出相近的意思也可以得分,由于评分人员对评分标准的解读和理解,对答卷人语言表达的理解有所区别,评分人员只能主观判断题目和标准答案的含义,以此来对比答卷人的回答,导致评分过程比较模糊,难以做到客观地评分,并且阅卷需要耗费很长的时间,可靠性不高。现有的机器评分一般通过提取浅层文本特征进行评分,提取的特征较为单一,导致评分结果的可靠性不高。
发明内容
有鉴于此,本发明的目的在于提供一种评分方法、装置和电子设备,以减少评分时间,增加评分的可靠性。
第一方面,本发明实施例提供了一种评分方法,包括:获取待评分文本和预设的标准文本;提取待评分文本和标准文本的特征数据;特征数据包括语义特征和文本特征;将待评分文本和标准文本的特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;相似度数据包括语义相似度和文本相似度;计算待评分文本和标准文本的检索相似度;根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。
在本发明较佳的实施例中,上述提取待评分文本和标准文本的语义特征的步骤,包括:提取待评分文本和标准文本的句向量;从句向量中确定待评分文本和标准文本的语义特征。
在本发明较佳的实施例中,上述提取待评分文本和标准文本的句向量的步骤,包括:将待评分文本和标准文本输入至预先设定的预训练语言模型BERT中,输出待评分文本和标准文本的句向量。
在本发明较佳的实施例中,上述从句向量中确定待评分文本和标准文本的语义特征的步骤,包括:将句向量输入至预先设定的双向长短期记忆网络中,输出句向量对应的语义特征;对双向长短期记忆网络输出的语义特征降维,得到待评分文本和标准文本的语义特征。
在本发明较佳的实施例中,上述相似度分析模型通过以下步骤建立:基于预设的训练集确定训练文本和答案文本;训练文本携带有标准语义相似度和标准文本相似度;提取训练文本和答案文本的特征数据;特征数据包括语义特征和文本特征;将训练文本和答案文本的语义特征输入至第一预设子网络中,得到训练语义相似度;将训练文本和答案文本的文本特征输入至第二预设子网络中,得到训练文本相似度;根据训练语义相似度和标准语义相似度调整第一预设子网络的参数;根据训练文本相似度和标准文本相似度调整第二预设子网络的参数;继续执行基于预设的训练集确定训练文本和答案文本的步骤,直至训练语义相似度和标准语义相似度在预设范围内,并且训练文本相似度和标准文本相似度的误差在预设范围内,得到相似度分析模型。
在本发明较佳的实施例中,上述计算待评分文本和标准文本的检索相似度的步骤,包括:确定待评分文本和标准文本的词语序列特征;根据待评分文本和标准文本的词语序列特征计算待评分文本和标准文本的检索相似度。
在本发明较佳的实施例中,上述根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分的步骤,包括:判断检索相似度是否大于预设的相似度阈值;如果是,则将检索相似度和文本相似度组合,得到第一组合相似度;将第一组合相似度输入至预先设定的第一注意力模型中,输出待评分文本的评分;如果否,则将检索相似度和语义相似度组合,得到第二组合相似度;将第二组合相似度输入至预先设定的第二注意力模型中,输出待评分文本的评分。
第二方面,本发明实施例还提供一种评分装置,包括:文本获取模块,用于获取待评分文本和预设的标准文本;特征数据提取模块,用于提取待评分文本和标准文本的特征数据;特征数据包括语义特征和文本特征;第一相似度计算模块,用于将待评分文本和标准文本的特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;相似度数据包括语义相似度和文本相似度;第二相似度计算模块,用于计算待评分文本和标准文本的检索相似度;评分确定模块,用于根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。
第三方面,本发明实施例还提供一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的计算机可执行指令,处理器执行计算机可执行指令以实现上述评分方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述评分方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供的评分方法、装置和电子设备,分别提取待评分文本和标准文本的特征数据,输入至相似度分析模型中,得到语义相似度和文本相似度,计算待评分文本和标准文本的检索相似度,根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。该方式中,不仅考虑了文本特征,还考虑了语义特征,根据检索相似度确定待评分文本的评分,可以减少评分时间,增加评分的可靠性。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种评分方法的流程图;
图2为本发明实施例提供的另一种评分方法的流程图;
图3为本发明实施例提供的一种深层语义特征提取算法结构图;
图4为本发明实施例提供的一种相似度分析模型构建的流程图;
图5为本发明实施例提供的一种评分模型算法的结构图;
图6为本发明实施例提供的一种评分方法的总体结构图;
图7为本发明实施例提供的一种相似度分析模型的结构示意图;
图8为本发明实施例提供的一种评分装置的结构示意图;
图9为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
简答题是考试中重要的内容,因为其可以考查学生的知识积累、逻辑思维、分析能力、语言表达能力等,考查内容比较重要,能够反映出学生的学习效果。考试评分作为教学中的重要环节之一,是阶段性考核的有效方法,也是考查教师教学水平和学生学习效果的有效手段,评分最关键的在于客观性和公正性。在考试中,多数主观题阅卷还是采用人工评分完成。评分标准是描述性居多,考生回答出相近的意思也可以得分,由于评分人员对评分标准的解读和理解,对答卷人语言表达的理解有所区别,阅卷教师只能主观判断题目和标准答案的含义,以此来对比学生的回答,导致评分过程比较模糊,难以做到客观,并且阅卷需要耗费很长的时间。此外,随着网上公开课以及慕课的兴起,越来越多的用户参与到网上学习,网上考试也迫切需要自动评分的技术方法。所以,研究客观权威、省时快速的简答题评分方法对教育有非常重要的意义。
除了人工评分之外,机器评分目前越来越收到重视,现有的机器评分都是从浅层语言学角度尝试提取浅层文本特征,并且使用深度学习将学生答案和标准答案表示为包含语义信息的句子向量,计算向量间的相似度获得文本间的语义相似度,这种机器评分方法提取的特征较为单一,导致评分结果的可靠性不高。例如,将N-gram(N元语法)共现特征应用在简答题答案自动评价上,利用这种评价方法中的N-gram共现思想,使用N-gram-eval(N元语法评价)、Bleu-eval(Bilingual Evaluation Understudy-eval,双语评估替换评价)、Nist-eval(National Institute of standards and Technology-eval,国家标准与技术评价)三种评价指标,采用BLEU(Bilingual Evaluation Understudy,双语评估替换)特征集或ROUGE(recall-oriented understanding for gisting evaluation,基于召回率的相似性度量方法)特征集,比较两个文本的相似程度;运用了词性共现特征、命名实体共现特征、N-gram共现特征来计算文本相似度特征。使用深度学习中的skip-thought(跳过思维)和paragraph vector(段落向量)方法将学生答案和标准答案表示为包含语义信息的句子向量。
综上,现有的打分方法需要耗费很长的时间,并且可靠性不高;基于此,本发明实施例提供的一种评分方法、装置和电子设备,该技术可以应用于主观题自动阅卷领域,具体涉及一种面向模糊语义和多相似度的简答题评分方法。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种评分方法进行详细介绍。
实施例1
参见图1所示的一种评分方法的流程图,该方法包括如下步骤:
步骤S102,获取待评分文本和预设的标准文本。
待评分文本是指被评分的文本,例如,学生写的简答题答案。标准文本用于对待评分文本打分,例如,简答题对应的标准答案。需要说明的是,待评分文本与标准文本对应,对于一个标准文本可能会有很多份的待评分文本。
步骤S104,提取待评分文本和标准文本的特征数据;上述特征数据包括语义特征和文本特征。
分别对待评分文本和标准文本提取特征数据。特征数据是指表达文本某一方面的特征,一般通过构建特征向量的方式确定特征数据。特征数据包括语义特征和文本特征。语义特征用于表征文本内的语言含义,文本特征指的是一些简单的单词、句子等表层文本特征,如词汇特征和句子特征,词汇特征包括:词性数量比例、命名实体和关键词等特征。提取特征数据的方法可以为构建文本的句向量,然后通过解析句向量,从句向量汇总提取特征数据。
步骤S106,将待评分文本和标准文本的特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;上述相似度数据包括语义相似度和文本相似度。
相似度分析模型可以根据输入的特征数据给出对应的相似度数据。例如,根据输入的待评分文本和标准文本的语义特征,分析上述待评分文本和标准文本的语义特征的相似程度,输出待评分文本和标准文本的语义相似度评分;根据输入的待评分文本和标准文本的文本特征,分析上述待评分文本和标准文本的文本特征的相似程度,输出待评分文本和标准文本的文本相似度评分。
步骤S108,计算待评分文本和标准文本的检索相似度。
检索相似度是基于文本检索的相似度,用于说明待评分文本和标准文本全文是否相似,如果相似,则说明文本的浅层特征(也就是文本特征)相似比较明显;如果不相似,则说明文本的深层特征(也就是语义特征)相似比较明显。
步骤S110,根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。
首先根据检索相似度确定待评分文本和标准文本的文本特征相似比较明显,还是待评分文本和标准文本的语义特征相似比较明显,选择对应的相似度和检索相似度一起,确定待评分文本的评分。也就是如果检索相似度说明待评分文本和标准文本的文本特征的文本相似度比较明显,则根据文本相似度和检索相似度确定待评分文本的评分;如果检索相似度说明待评分文本和标准文本的文本特征的语义相似度比较明显,则根据语义相似度和检索相似度确定待评分文本的评分。
本发明实施例提供的一种评分方法,分别提取待评分文本和标准文本的特征数据,输入至相似度分析模型中,得到语义相似度和文本相似度,计算待评分文本和标准文本的检索相似度,根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。该方式中,不仅考虑了文本特征,还考虑了语义特征,根据检索相似度确定待评分文本的评分,可以减少评分时间,增加评分的可靠性。
实施例2
本发明实施例还提供另一种评分方法;该方法在上述实施例方法的基础上实现;该方法重点描述根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分的具体实现方式。
如图2所示的另一种评分方法的流程图,该方法包括如下步骤:
步骤S202,获取待评分文本和预设的标准文本。
对于获得的待评分文本和预设的标准文本,首先需要进行预处理,预处理包括字符去重、分句、去特殊符号等。
步骤S204,提取待评分文本和标准文本的特征数据;上述特征数据包括语义特征和文本特征。
特征数据包括语义特征和文本特征。对于文本特征,主要就是根据不同的文本特征采用对应的方法提取,例如,文本特征包括词性数量比例、命名实体和关键词等特征,根据文本特征的要求,对待评分文本和标准文本进行检索即可。对于语义特征,需要通过预训练语言模型BERT(Bidirectional Encoder Representation from Transformers)和LSTM(Long Short-Term Memory,长短期记忆网络)进行提取,可以通过步骤A1-步骤A2执行:
步骤A1,提取待评分文本和标准文本的句向量。
通过BERT提取待评分文本和标准文本的句向量,即将待评分文本和标准文本输入至预先设定的预训练语言模型BERT中,输出待评分文本和标准文本的句向量。
语义特征提取算法可以参见图3所示的一种深层语义特征提取算法结构图。如图3所示,首先需要对输入的文本(这里输入的文本是指待评分文本和标准文本)进行预处理,将文本进行分句,正则匹配消去特殊符号。然后使用文本集对预训练语言模型BERT进行微调训练。
步骤A2,从句向量中确定待评分文本和标准文本的语义特征。
如图3所示,将文本每句话通过BERT转化成句向量表示,每个句向量为768维,然后输入双向LSTM层。以此类推,将每一个答案文本循环输入BLSTM(Bidirectional LongShort-Term Memory,双向长短期记忆网络)层,以此类推,将每一个答案文本循环输入BLSTM,BLSTM输出句向量对应的语义特征。
采用了BERT构建包含词语的精确含义和上下文特征的句向量,然后使用双向长短期记忆网络高效的特征提取能力,将句向量组合而成的高维和稀疏矩阵进行降维和特征提取,充分挖掘文本深层特征;对提取的语义特征进行降维,然后计算语义相似度特征。
步骤S206,将待评分文本和标准文本的特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;上述相似度数据包括语义相似度和文本相似度。
首先说明相似度分析模型中语义相似度的计算方法,采用Keras框架实现网络模型,双向LSTM输出一个三维张量。将学生答案文本和标准答案文本各自输入BLSTM,得到两个输出张量,将两个张量进行相似度计算(输入自定义cosin(余弦)层或者MLP(Multi-Layer Perception,多层感知器)层),每一层后添加Dropout层防止过拟合。
最终将计算出的相似度特征和学生答案提取出的语义特征共同送入Dense(全连接)层进行softmax分类,得到评分结果。其中,句向量输入过程中,尝试了以下几种方法:直接连接、卷积层、LSTM、双向LSTM。通过原理初步分析,认为直接连接向量维度过大,达到了7680维以上,由于维度过高,上层神经网络难以捕获前后文信息。卷积层偏重于表达空间相近的信息,但文本每句话句首相近的特征不明显。选择了双向LSTM模型,并在之后添加了池化层,以降低数据维度。
对于相似度分析模型,可以通过步骤B1-步骤B7训练:
步骤B1,基于预设的训练集确定训练文本和答案文本;训练文本携带有标准语义相似度和标准文本相似度;
训练文本和答案文本用于进行训练,每一个训练文本都标注了对应的标准语义相似度和标准文本相似度。标准语义相似度和标准文本相似度分别用于对计算语义相似度的模块和计算文本相似度的模块进行参数调整。
步骤B2,提取训练文本和答案文本的特征数据;特征数据包括语义特征和文本特征;
提取训练文本和答案文本的特征数据,训练文本和答案文本的语义特征用于计算语义相似度,训练文本和答案文本的文本特征与用于计算文本相似度。
步骤B3,将训练文本和答案文本的语义特征输入至第一预设子网络中,得到训练语义相似度;
第一预设子网络用于根据训练文本和答案文本的语义特征计算语义相似度。
步骤B4,将训练文本和答案文本的文本特征输入至第二预设子网络中,得到训练文本相似度;
第一预设子网络用于根据训练文本和答案文本的文本特征计算语文本相似度。
步骤B5,根据训练语义相似度和标准语义相似度调整第一预设子网络的参数;
根据第一预设子网络输出的语义相似度和训练文本携带的标准语义相似度做出对比并计算误差,根据误差调整第一预设子网络的参数。
步骤B6,根据训练文本相似度和标准文本相似度调整第二预设子网络的参数;
根据第二预设子网络输出的文本相似度和训练文本携带的标准文本相似度做出对比并计算误差,根据误差调整第二预设子网络的参数。
步骤B7,继续执行基于预设的训练集确定训练文本和答案文本的步骤,直至训练语义相似度和标准语义相似度在预设范围内,并且训练文本相似度和标准文本相似度的误差在预设范围内,得到相似度分析模型。
重复提取训练集的训练文本和答案文本,以调整相似度分析模型中的第一预设子网络和第二预设子网络的参数,直至训练语义相似度和标准语义相似度在预设范围内,并且训练文本相似度和标准文本相似度的误差在预设范围内,结束参数调整的步骤,得到相似度分析模型。需要说明的是,结束参数调整还有其他方式,例如,调整次数达到预设的次数上限,训练集中的训练文本全部训练完毕等。
相似度分析模型的构建过程参见图4所示的一种相似度分析模型构建的流程图和图5所示的一种评分模型算法的结构图,如图4和图5所示,对于学生答案文本(也就是上文的训练文本)集合,进行分数标注,形成带标注数据集。对数据进行预处理,包括去特殊符号,然后分句,分词,词性标注、命名实体标注等。按照6:2:2的比例划分训练集和验证集。分别对于模型B、C部分进行训练。用微调后的BERT将文本转化成句向量,输入深度学习模型C部分进行训练。对文本抽取浅层语言特征,包括单词共现、命名实体共现、文本长度等特征。其中,共现是指共同出现,在初期的自然语言处理中作为量化计算的方法。命名实体就是人名、机构名、地名以及其他所有以名称为标识的实体,更广泛的实体还包括数字、日期、货币、地址等。这里用了狭义命名实体。分别计算深层语义特征相似度和浅层特征相似度。然后将浅层特征相似度和深层语义相似度分别与神经网络提取的语义特征进行拼接后,进行总体模型训练。
步骤S208,计算待评分文本和标准文本的检索相似度。
检索相似度通过基于全文检索的文本检索算法计算,通过步骤C1-步骤C2执行:
步骤C1,确定待评分文本和标准文本的词语序列特征;
词语序列特征是指将词语序列组合得到的特征,对比待评分文本和标准文本的词语序列特征,即可确定对应的检索相似度。
步骤C2,根据待评分文本和标准文本的词语序列特征计算待评分文本和标准文本的检索相似度。
检索相似度的确定算法可以是SCOW算法(Sequence Of Words Algorithm,词序算法)。
步骤S210,判断检索相似度是否大于预设的相似度阈值。如果是,则执行步骤S212;如果否,则执行步骤S216。
在计算出检索相似度K后,需要判断检索相似度和相似度阈值的大小,其中,K值是通过SCOW检索相似度计算得到的,阈值是根据训练集选择取得一个较优值,选取标准是使得相似度最终计算值与分数正相关性最准确的阈值。
步骤S212,将检索相似度和文本相似度组合,得到第一组合相似度。
如果述检索相似度K大于阈值,说明文本特征相似比较明显,相似度判断文本相似度,与深度神经网络提取出的语义特征拼接,输入下一层。
步骤S214,将第一组合相似度输入至预先设定的第一注意力模型中,输出待评分文本的评分。
拼接后的特征,输入注意力层(即第一注意力模型或者第二注意力模型)然后进行分类。注意力层可以根据训练数据集,计算分配各维度特征的权重,达到较好的评分准确率。训练数据较少时,相似度特征的权重较大;而训练数据较多时,深度神经网路提取的语义特征权重较大。输入注意力层的输出即为待评分文本的评分。
注意力层是在深度学习网络中,添加了一层Attention(注意力)层。Attention机制通俗的说,对于某个时刻的输出y,它在输入x上各个部分上的注意力,这里的注意力也就是权重,即输入x的各个部分对某时刻输入y贡献的权重。
这里将拼接后的特征输入第一注意力模型然后进行分类,第一注意力模型的输出即为待评分文本的评分。
步骤S216,将检索相似度和语义相似度组合,得到第二组合相似度。
如果检索相似度K小于阈值时,说明文本特征相似不明显,相似度判断部分语义相似度,与深度神经网络提取出的语义特征拼接,输入下一层。
步骤S218,将第二组合相似度输入至预先设定的第二注意力模型中,输出待评分文本的评分。
将拼接后的特征输入第二注意力模型然后进行分类,第二注意力模型的输出即为待评分文本的评分。
本发明实施例提供的评分方法的总体结构,可以参见图6所示的一种评分方法的总体结构图,如图6所示,从图中可以发现,该评分模块主要包括评分模型的构建和训练。具体的模型构建方法主要基于第三章提出的模型实现方法,对答案文本的浅层文本特征相似度和深度语义相似度分别进行计算,然后根据模糊检索算法的计算值与阈值比较,选择相似度,与语义特征拼接后映射得到最终的评分。因此需要分别构建模型的C、D部分,构建过程如图4所示。
本发明实施例提供的相似度分析模型,可以参见图7所示的一种相似度分析模型的结构示意图,相似度分析模型包括两个部分。深度学习部分吸取了现有的评分模型优点,基于文本句子级别的语义特征,并包含文本的上下文信息。为了使评分更准确,结合了浅层文本特征比较的方法,将两部分算法模型融合后,能够更加完善地衡量答案的优劣。模型融合方法方面,本实施例选择了后期融合的方式,因为两部分模型抽取的信息维度和权重不同,虽以深度学习模型为主,但还是难以确定相关比例。后期融合时,两部分模型输出的部分皆为相似度信息,根据阈值判断选取最优相似度信息,然后结合深度神经网路提取的语义特征向量,引入注意力机制,最终计算评分。
本发明实施例提供的评分方法,在文本向量特征构建方面采用了BERT构建包含词语的精确含义和上下文特征的句向量,然后使用双向LSTM高效的特征提取能力,将句向量组合而成的高维和稀疏矩阵进行降维和特征提取,充分挖掘文本深层特征;对提取的特征进行降维,然后计算语义相似度特征。
该方式中,对浅层语言特征进行量化,充分考虑深层语义特征和浅层文本特征,然后引入基于文本检索相似度的算法,对多相似度进行选择,结合语义特征通过回归或分类算法计算最终得分,形成简答题评分算法模型。经过模型训练得到最优的算法模型,然后进行实验验证。然后根据模型进行简答题评分系统的设计与实现。提出评分系统的整体架构,对整体架构各模块分别做介绍。本实施例采用了三个相似度计算,分别是深层语义相似度、浅层文本相似度、SCOW检索相似度进行最优选择,并对每种相似度计算进行了改进,以增加算法的准确性。
该方式中,为了有效地解决现有评分方法对文本特征维度提取难以全面,以及模型泛化能力弱的问题,本实施例在构建相似度分析模型时,重视答案语义信息和评分标准,采用针对性的神经网路和计算相似度的方法。对学生答案提取语义特征向量后,对标准答案也提取语义特征向量,共同输入深度学习模型进行伴随训练,以提取语义特征和计算语义相似度。然后结合传统浅层文本特征相似度,对评分模型进行补充。对于相似度特征选择,引入了改进的文本检索概率相似度评分方法进行阈值判断,融合模型对于评分的准确度有较大提升。
需要说明的是,上述各方法实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
实施例3
对应于上述方法实施例,本发明实施例提供了一种评分装置,如图8所示的一种评分装置的结构示意图,该装置包括:
文本获取模块81,用于获取待评分文本和预设的标准文本;
特征数据提取模块82,用于提取待评分文本和标准文本的特征数据;特征数据包括语义特征和文本特征;
第一相似度计算模块83,用于将待评分文本和标准文本的特征数据输入至预先设定的相似度分析模型中,得到待评分文本和标准文本的相似度数据;相似度数据包括语义相似度和文本相似度;
第二相似度计算模块84,用于计算待评分文本和标准文本的检索相似度;
评分确定模块85,用于根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。
本发明实施例提供的一种评分装置,分别提取待评分文本和标准文本的特征数据,输入至相似度分析模型中,得到语义相似度和文本相似度,计算待评分文本和标准文本的检索相似度,根据语义相似度、文本相似度和检索相似度,确定待评分文本的评分。该方式中,不仅考虑了文本特征,还考虑了语义特征,根据检索相似度确定待评分文本的评分,可以减少评分时间,增加评分的可靠性。
在一些实施例中,特征数据提取模块,用于:提取待评分文本和标准文本的句向量;从句向量中确定待评分文本和标准文本的语义特征。
在一些实施例中,特征数据提取模块,用于:将待评分文本和标准文本输入至预先设定的预训练语言模型BERT中,输出待评分文本和标准文本的句向量。
在一些实施例中,特征数据提取模块,用于:将句向量输入至预先设定的双向长短期记忆网络中,输出句向量对应的语义特征;对双向长短期记忆网络输出的语义特征降维,得到待评分文本和标准文本的语义特征。
在一些实施例中,相似度分析模型通过模型建立模块建立,上述模型建立模块,用于:基于预设的训练集确定训练文本和答案文本;训练文本携带有标准语义相似度和标准文本相似度;提取训练文本和答案文本的特征数据;特征数据包括语义特征和文本特征;将训练文本和答案文本的语义特征输入至第一预设子网络中,得到训练语义相似度;将训练文本和答案文本的文本特征输入至第二预设子网络中,得到训练文本相似度;根据训练语义相似度和标准语义相似度调整第一预设子网络的参数;根据训练文本相似度和标准文本相似度调整第二预设子网络的参数;继续执行基于预设的训练集确定训练文本和答案文本的步骤,直至训练语义相似度和标准语义相似度在预设范围内,并且训练文本相似度和标准文本相似度的误差在预设范围内,得到相似度分析模型。
在一些实施例中,第二相似度计算模块,用于:确定待评分文本和标准文本的词语序列特征;根据待评分文本和标准文本的词语序列特征计算待评分文本和标准文本的检索相似度。
在一些实施例中,评分确定模块,用于:判断检索相似度是否大于预设的相似度阈值;如果是,则将检索相似度和文本相似度组合,得到第一组合相似度;将第一组合相似度输入至预先设定的第一注意力模型中,输出待评分文本的评分;如果否,则将检索相似度和语义相似度组合,得到第二组合相似度;将第二组合相似度输入至预先设定的第二注意力模型中,输出待评分文本的评分。
本发明实施例提供的评分装置,与上述实施例提供的评分方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
实施例4
本发明实施例还提供了一种电子设备,用于运行上述评分方法;参见图9所示的一种电子设备的结构示意图,该电子设备包括存储器100和处理器101,其中,存储器100用于存储一条或多条计算机指令,一条或多条计算机指令被处理器101执行,以实现上述评分方法。
进一步地,图9所示的电子设备还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
其中,存储器100可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述评分方法,具体实现可参见方法实施例,在此不再赘述。
本发明实施例所提供的评分方法、装置和电子设备的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和/或电子设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (7)
1.一种评分方法,其特征在于,包括:
获取待评分文本和预设的标准文本;
提取所述待评分文本和所述标准文本的特征数据;所述特征数据包括语义特征和文本特征;
将所述待评分文本和所述标准文本的特征数据输入至预先设定的相似度分析模型中,得到所述待评分文本和所述标准文本的相似度数据;所述相似度数据包括语义相似度和文本相似度;
计算所述待评分文本和所述标准文本的检索相似度;
根据所述语义相似度、所述文本相似度和所述检索相似度,确定所述待评分文本的评分;
所述相似度分析模型通过以下步骤建立:
基于预设的训练集确定训练文本和答案文本;所述训练文本携带有标准语义相似度和标准文本相似度;
提取所述训练文本和所述答案文本的特征数据;所述特征数据包括语义特征和文本特征;
将所述训练文本和所述答案文本的语义特征输入至第一预设子网络中,得到训练语义相似度;
将所述训练文本和所述答案文本的文本特征输入至第二预设子网络中,得到训练文本相似度;
根据所述训练语义相似度和所述标准语义相似度调整所述第一预设子网络的参数;
根据所述训练文本相似度和所述标准文本相似度调整所述第二预设子网络的参数;
继续执行基于预设的训练集确定训练文本和答案文本的步骤,直至所述训练语义相似度和所述标准语义相似度在预设范围内,并且所述训练文本相似度和所述标准文本相似度的误差在预设范围内,得到相似度分析模型;
计算所述待评分文本和所述标准文本的检索相似度的步骤,包括:
确定所述待评分文本和所述标准文本的词语序列特征;
根据所述待评分文本和所述标准文本的词语序列特征计算所述待评分文本和所述标准文本的检索相似度;
根据所述语义相似度、所述文本相似度和所述检索相似度,确定所述待评分文本的评分的步骤,包括:
判断所述检索相似度是否大于预设的相似度阈值;
如果是,则将所述检索相似度和所述文本相似度组合,得到第一组合相似度;
将所述第一组合相似度输入至预先设定的第一注意力模型中,输出所述待评分文本的评分;
如果否,则将所述检索相似度和所述语义相似度组合,得到第二组合相似度;
将所述第二组合相似度输入至预先设定的第二注意力模型中,输出所述待评分文本的评分。
2.根据权利要求1所述的方法,其特征在于,提取所述待评分文本和所述标准文本的语义特征的步骤,包括:
提取所述待评分文本和所述标准文本的句向量;
从所述句向量中确定所述待评分文本和所述标准文本的语义特征。
3.根据权利要求2所述的方法,其特征在于,提取所述待评分文本和所述标准文本的句向量的步骤,包括:
将所述待评分文本和所述标准文本输入至预先设定的预训练语言模型BERT中,输出所述待评分文本和所述标准文本的句向量。
4.根据权利要求2所述的方法,其特征在于,从所述句向量中确定所述待评分文本和所述标准文本的语义特征的步骤,包括:
将所述句向量输入至预先设定的双向长短期记忆网络中,输出所述句向量对应的语义特征;
对所述双向长短期记忆网络输出的语义特征降维,得到所述待评分文本和所述标准文本的语义特征。
5.一种评分装置,其特征在于,包括:
文本获取模块,用于获取待评分文本和预设的标准文本;
特征数据提取模块,用于提取所述待评分文本和所述标准文本的特征数据;所述特征数据包括语义特征和文本特征;
第一相似度计算模块,用于将所述待评分文本和所述标准文本的特征数据输入至预先设定的相似度分析模型中,得到所述待评分文本和所述标准文本的相似度数据;所述相似度数据包括语义相似度和文本相似度;
第二相似度计算模块,用于计算所述待评分文本和所述标准文本的检索相似度;
评分确定模块,用于根据所述语义相似度、所述文本相似度和所述检索相似度,确定所述待评分文本的评分;
所述相似度分析模型通过以下步骤建立:基于预设的训练集确定训练文本和答案文本;所述训练文本携带有标准语义相似度和标准文本相似度;提取所述训练文本和所述答案文本的特征数据;所述特征数据包括语义特征和文本特征;将所述训练文本和所述答案文本的语义特征输入至第一预设子网络中,得到训练语义相似度;将所述训练文本和所述答案文本的文本特征输入至第二预设子网络中,得到训练文本相似度;根据所述训练语义相似度和所述标准语义相似度调整所述第一预设子网络的参数;根据所述训练文本相似度和所述标准文本相似度调整所述第二预设子网络的参数;继续执行基于预设的训练集确定训练文本和答案文本的步骤,直至所述训练语义相似度和所述标准语义相似度在预设范围内,并且所述训练文本相似度和所述标准文本相似度的误差在预设范围内,得到相似度分析模型;
第二相似度计算模块,用于确定所述待评分文本和所述标准文本的词语序列特征;根据所述待评分文本和所述标准文本的词语序列特征计算所述待评分文本和所述标准文本的检索相似度;
评分确定模块,用于判断所述检索相似度是否大于预设的相似度阈值;如果是,则将所述检索相似度和所述文本相似度组合,得到第一组合相似度;将所述第一组合相似度输入至预先设定的第一注意力模型中,输出所述待评分文本的评分;如果否,则将所述检索相似度和所述语义相似度组合,得到第二组合相似度;将所述第二组合相似度输入至预先设定的第二注意力模型中,输出所述待评分文本的评分。
6.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现权利要求1至4任一项所述的评分方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1至4任一项所述的评分方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911163381.4A CN111221939B (zh) | 2019-11-22 | 2019-11-22 | 评分方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911163381.4A CN111221939B (zh) | 2019-11-22 | 2019-11-22 | 评分方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111221939A CN111221939A (zh) | 2020-06-02 |
CN111221939B true CN111221939B (zh) | 2023-09-08 |
Family
ID=70811141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911163381.4A Active CN111221939B (zh) | 2019-11-22 | 2019-11-22 | 评分方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111221939B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814838B (zh) * | 2020-06-17 | 2024-05-17 | 新奥数能科技有限公司 | 系统评分方法、装置、可读介质及电子设备 |
CN111985836B (zh) * | 2020-08-31 | 2024-04-05 | 平安医疗健康管理股份有限公司 | 医保评分指标体系构建方法、装置、设备及存储介质 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
CN112184032A (zh) * | 2020-09-30 | 2021-01-05 | 广州思酷信息科技有限公司 | 一种用于对主观题进行智能评分的方法及系统 |
CN112417884A (zh) * | 2020-11-05 | 2021-02-26 | 广州平云信息科技有限公司 | 一种基于知识增强和知识迁移的句子语义相关度判断方法 |
CN112508405B (zh) * | 2020-12-07 | 2024-07-02 | 云南电网有限责任公司普洱供电局 | 配电网作业管控的评价方法、装置、计算机设备及介质 |
CN112686020B (zh) * | 2020-12-29 | 2024-06-04 | 科大讯飞股份有限公司 | 作文评分方法、装置、电子设备及存储介质 |
CN113962519A (zh) * | 2021-09-10 | 2022-01-21 | 中国计量大学 | 一种企业产品标准技术指标风险识别方法及其系统 |
CN114417861A (zh) * | 2022-01-18 | 2022-04-29 | 平安健康保险股份有限公司 | 客服回复文本评分方法及装置、存储介质、计算机设备 |
CN114419736B (zh) * | 2022-03-10 | 2022-07-15 | 成都西交智汇大数据科技有限公司 | 一种实验评分方法、系统、设备及可读存储介质 |
CN116384454B (zh) * | 2023-02-08 | 2023-09-29 | 大连理工大学 | 一种基于fpga的长短期记忆网络硬件加速方法 |
CN117034954B (zh) * | 2023-10-09 | 2024-02-06 | 华南师范大学 | 文本评分方法、装置、设备以及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017188039A (ja) * | 2016-04-08 | 2017-10-12 | Kddi株式会社 | 複数の類似度算出によってテキストの点数を推定するプログラム、装置及び方法 |
WO2017177901A1 (zh) * | 2016-04-12 | 2017-10-19 | 芋头科技(杭州)有限公司 | 一种语义匹配方法及智能设备 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN108363687A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市脑洞科技有限公司 | 主观题评分及其模型的构建方法、电子设备及存储介质 |
CN109101494A (zh) * | 2018-08-10 | 2018-12-28 | 哈尔滨工业大学(威海) | 一种用于中文句子语义相似度计算的方法,设备以及计算机可读存储介质 |
CN109213999A (zh) * | 2018-08-20 | 2019-01-15 | 成都佳发安泰教育科技股份有限公司 | 一种主观题评分方法 |
CN110309503A (zh) * | 2019-05-21 | 2019-10-08 | 昆明理工大学 | 一种基于深度学习bert--cnn的主观题评分模型及评分方法 |
CN110309306A (zh) * | 2019-06-19 | 2019-10-08 | 淮阴工学院 | 一种基于wsd层级记忆网络的文档建模分类方法 |
CN110413741A (zh) * | 2019-08-07 | 2019-11-05 | 山东山大鸥玛软件股份有限公司 | 一种面向主观题的智能阅卷方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
US10741093B2 (en) * | 2017-06-09 | 2020-08-11 | Act, Inc. | Automated determination of degree of item similarity in the generation of digitized examinations |
CN108920455A (zh) * | 2018-06-13 | 2018-11-30 | 北京信息科技大学 | 一种汉语自动生成文本的自动评价方法 |
-
2019
- 2019-11-22 CN CN201911163381.4A patent/CN111221939B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017188039A (ja) * | 2016-04-08 | 2017-10-12 | Kddi株式会社 | 複数の類似度算出によってテキストの点数を推定するプログラム、装置及び方法 |
WO2017177901A1 (zh) * | 2016-04-12 | 2017-10-19 | 芋头科技(杭州)有限公司 | 一种语义匹配方法及智能设备 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN108363687A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市脑洞科技有限公司 | 主观题评分及其模型的构建方法、电子设备及存储介质 |
CN109101494A (zh) * | 2018-08-10 | 2018-12-28 | 哈尔滨工业大学(威海) | 一种用于中文句子语义相似度计算的方法,设备以及计算机可读存储介质 |
CN109213999A (zh) * | 2018-08-20 | 2019-01-15 | 成都佳发安泰教育科技股份有限公司 | 一种主观题评分方法 |
CN110309503A (zh) * | 2019-05-21 | 2019-10-08 | 昆明理工大学 | 一种基于深度学习bert--cnn的主观题评分模型及评分方法 |
CN110309306A (zh) * | 2019-06-19 | 2019-10-08 | 淮阴工学院 | 一种基于wsd层级记忆网络的文档建模分类方法 |
CN110413741A (zh) * | 2019-08-07 | 2019-11-05 | 山东山大鸥玛软件股份有限公司 | 一种面向主观题的智能阅卷方法 |
Non-Patent Citations (1)
Title |
---|
刘逸雪 ; 卢雨轩 ; 丁亮 ; 汪星明 ; .基于Bi-LSTM的数学主观题自动阅卷方法.管理观察.2018,(02),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111221939A (zh) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111221939B (zh) | 评分方法、装置和电子设备 | |
CN109740148B (zh) | 一种BiLSTM结合Attention机制的文本情感分析方法 | |
CN111104789B (zh) | 文本评分方法、装置和系统 | |
WO2019153737A1 (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN111738004A (zh) | 一种命名实体识别模型的训练方法及命名实体识别的方法 | |
CN112270196B (zh) | 实体关系的识别方法、装置及电子设备 | |
CN111563384B (zh) | 面向电商产品的评价对象识别方法、装置及存储介质 | |
CN111444700A (zh) | 一种基于语义文档表达的文本相似度量方法 | |
CN108491389B (zh) | 点击诱饵标题语料识别模型训练方法和装置 | |
CN110929038A (zh) | 基于知识图谱的实体链接方法、装置、设备和存储介质 | |
CN114818717B (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN115357719B (zh) | 基于改进bert模型的电力审计文本分类方法及装置 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN111368082A (zh) | 一种基于层次网络的领域自适应词嵌入的情感分析方法 | |
CN113707299A (zh) | 基于问诊会话的辅助诊断方法、装置及计算机设备 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN107958068A (zh) | 一种基于实体知识库的语言模型平滑方法 | |
CN111291558A (zh) | 一种基于非成对学习的图像描述自动评价方法 | |
CN117633518A (zh) | 一种产业链构建方法及系统 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN113051886A (zh) | 一种试题查重方法、装置、存储介质及设备 | |
Akula et al. | Credibility of social-media content using bidirectional long short-term memory-recurrent neural networks | |
CN113919338B (zh) | 处理文本数据的方法及设备 | |
CN117151089A (zh) | 新词发现方法、装置、设备和介质 | |
Jiang et al. | Network public comments sentiment analysis based on multilayer convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |