CN108171358B - 成绩预测方法及装置、存储介质、电子设备 - Google Patents

成绩预测方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN108171358B
CN108171358B CN201711208749.5A CN201711208749A CN108171358B CN 108171358 B CN108171358 B CN 108171358B CN 201711208749 A CN201711208749 A CN 201711208749A CN 108171358 B CN108171358 B CN 108171358B
Authority
CN
China
Prior art keywords
historical
vector
predicted
test question
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711208749.5A
Other languages
English (en)
Other versions
CN108171358A (zh
Inventor
黄振亚
苏喻
阴钰
刘淇
陈恩红
胡国平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN201711208749.5A priority Critical patent/CN108171358B/zh
Publication of CN108171358A publication Critical patent/CN108171358A/zh
Application granted granted Critical
Publication of CN108171358B publication Critical patent/CN108171358B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供一种成绩预测方法及装置、存储介质、电子设备。所述方法包括:获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征。如此方案,有助于提高成绩预测的准确性。

Description

成绩预测方法及装置、存储介质、电子设备
技术领域
本公开涉及人工智能技术领域,具体地,涉及一种成绩预测方法及装置、存储介质、电子设备。
背景技术
随着大数据和人工智能的发展,个性化学习模式得以广泛应用,它能够评估学生的知识能力,预测学生在各试题上的得分情况,确定学生的薄弱项,为学生推荐个性化的学习资源,使学习变得简单高效。
目前,常用的成绩预测方法大多需要预先对试题进行知识点标注,基于知识点预测学生的做题成绩,即预测学生做对待预测试题的概率。下面对现有的成绩预测方法进行举例说明:
1.基于认知诊断的方法
以DINA模型(英文:Deterministic Inputs,Noisy and Gate,中文:确定性连续技能诊断模型)为例,可以引入试题知识点关联信息Q矩阵,以此表示试题标注了哪些知识点,通过建模诊断学生对知识点的掌握程度,进而根据学生对知识点的掌握程度、以及待预测试题的知识点关联信息,预测学生的做题成绩。该模型中,学生对知识点的掌握程度可以表示为一个多维知识点的能力向量,每一维表示该学生是否掌握了对应知识点,可以用0-1离散值表示,例如,“1”表示掌握了知识点,“0”表示未掌握知识点。
2.基于知识追踪(英文:Knowledge Tracing,简称:KT)的方法
对试题进行知识点标注后,当学生针对某个知识点进行了多道试题的练习时,KT模型可以利用马尔科夫性质建模这一过程,诊断该学生对这一知识点的掌握变化过程,例如,变化过程可以是从未掌握到掌握。
3.基于协同过滤的方法
对学生历史做题记录的得分矩阵进行低秩分解,去冗余得到表示学生特征的学生矩阵、表示试题特征的试题矩阵,然后合并学生矩阵以及试题矩阵,可以得到一个新的得分矩阵,新的得分矩阵可以填充原始得分矩阵中的空缺值,即预测出对应试题的得分。其中,试题特征可以体现为相似试题、相似知识点的教研经验,学生特征可以体现为相似学生的教研经验。低秩分解的方法可以是SVD(英文:Singular value decomposition,中文:奇异值分解)法、概率矩阵分解方法、非负矩阵分解方法等。
上述基于知识点实现的成绩预测方法,存在以下问题:
目前大多由教研人员或一线教师,通过人工方式为每道试题标注合适的知识点,如此方法对标注人员的要求较高,耗时耗力,且随着新试题的加入需要持续投入人力进行标注,可实施性较差;此外,人工标注的主观性较强,针对同一试题,很容易出现不同标注人员的标注结果不一致的情况。
另外,虽然很多试题考察的是相同的知识点,但是试题的难易程度不同,学生的成绩也可能会有多不同,故,单纯的通过知识点进行成绩预测,很可能因为信息缺失较大影响成绩预测的效果,导致预测结果不准确。
发明内容
本公开的主要目的是提供一种成绩预测方法及装置、存储介质、电子设备,有助于提高成绩预测的准确性。
为了实现上述目的,本公开提供一种成绩预测方法,所述方法包括:
获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;
将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;
所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征。
可选地,所述历史做题记录表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,则获得所述当前知识状态向量的方式为:
确定第i个时刻的历史知识状态向量hi对应的权重值αi
利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
可选地,所述确定第i个时刻的历史知识状态向量hi对应的权重值αi,包括:
基于所述待预测试题的表征向量以及第i个时刻的历史试题的表征向量,计算所述待预测试题与所述第i个时刻的历史试题的相似度,作为所述第i个时刻的历史知识状态向量hi对应的权重值αi
可选地,计算所述历史知识状态向量hi的方式为:
对第i个时刻的历史试题的表征向量以及第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure BDA0001484190710000031
经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure BDA0001484190710000032
计算得到所述第i个时刻的历史知识状态向量hi
可选地,获得所述待预测试题的表征向量、所述历史试题的表征向量的方式为:
对试题e的题面进行分词处理,得到单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词;
对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量;
基于每个单词的表征向量确定所述试题e的表征向量。
可选地,所述神经网络为双向LSTM网络,所述经由神经网络提取每个单词的表征向量,包括:
经由正向LSTM网络提取单词wj的正向表征向量
Figure BDA0001484190710000041
以及经由反向LSTM网络提取单词wj的反向表征向量
Figure BDA0001484190710000042
利用
Figure BDA0001484190710000043
Figure BDA0001484190710000044
拼接得到单词wj的表征向量vj
可选地,所述基于每个单词的表征向量确定所述试题e的表征向量,包括:
在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到所述试题e的表征向量。
可选地,构建所述成绩预测模型的方式为:
获取样本历史试题以及样本历史试题对应的真实成绩;
提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量;
利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
本公开提供一种成绩预测装置,所述装置包括:
试题获取模块,用于获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;
模型处理模块,用于将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;
所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征。
可选地,所述历史做题记录表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,所述模型处理模块包括:
权重值确定模块,用于确定第i个时刻的历史知识状态向量hi对应的权重值αi
当前知识状态向量计算模块,用于利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
可选地,所述权重值确定模块,用于基于所述待预测试题的表征向量以及第i个时刻的历史试题的表征向量,计算所述待预测试题与所述第i个时刻的历史试题的相似度,作为所述第i个时刻的历史知识状态向量hi对应的权重值αi
可选地,所述当前知识状态向量计算模块,用于对第i个时刻的历史试题的表征向量以及第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure BDA0001484190710000051
经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure BDA0001484190710000052
计算得到所述第i个时刻的历史知识状态向量hi
可选地,所述模型处理模块包括:
分词处理模块,用于对试题e的题面进行分词处理,得到单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词;
单词表征向量提取模块,用于对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量;
试题表征向量确定模块,用于基于每个单词的表征向量确定所述试题e的表征向量。
可选地,所述神经网络为双向LSTM网络,
所述单词表征向量提取模块,用于经由正向LSTM网络提取单词wj的正向表征向量
Figure BDA0001484190710000061
以及经由反向LSTM网络提取单词wj的反向表征向量
Figure BDA0001484190710000062
利用
Figure BDA0001484190710000063
Figure BDA0001484190710000064
拼接得到单词wj的表征向量vj
可选地,所述试题表征向量确定模块,用于在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到所述试题e的表征向量。
可选地,所述装置还包括:
成绩预测模型构建模块,用于获取样本历史试题以及样本历史试题对应的真实成绩;提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量;利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
本公开提供一种存储介质,其中存储有多条指令,所述指令由处理器加载,执行上述成绩预测方法的步骤。
本公开提供一种电子设备,所述电子设备包括;
上述的存储介质;以及
处理器,用于执行所述存储介质中的指令。
本公开方案中,可以获取待预测试题,并从中提取表示待预测试题个性化特征的表征向量;还可以获取学生的历史做题记录,并基于此提取表示学生当前知识掌握水平的当前知识状态向量;然后利用二者进行成绩预测,有助于体现试题个性化特征对成绩预测的影响,进而提高成绩预测的准确性。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为本公开方案成绩预测方法的流程示意图;
图2为本公开方案中提取试题的表征向量的流程示意图;
图3为本公开方案中提取当前知识状态向量的流程示意图;
图4为本公开方案成绩预测装置的构成示意图;
图5为本公开方案用于成绩预测的电子设备的结构示意图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
参见图1,示出了本公开成绩预测方法的流程示意图。可以包括以下步骤:
S101,获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩。
结合实际应用可知,即使针对相同的知识点,例如,都是考察函数知识点的试题,学生在难易程度相差较大的试题上的成绩可能会有所不同,对应于此,本公开方案可以通过待预测试题的表征向量,反映试题的难易程度、区分度等个性化特征,并基于此进行成绩预测,有助于体现试题难易程度对成绩预测的影响,进而提高成绩预测的准确性。
作为一种示例,试题之间的差异可以体现为试题题面的文本描述之间的差异,故,可以从待预测试题的题面中提取待预测试题的表征向量。
需要说明的是,除了考虑待预测试题的表征向量之外,本公开方案还可以分析学生的历史做题记录,得到该学生在不同时刻的历史知识状态向量。可以理解地,不同时刻的知识状态向量可以表示学生在不同时刻的知识掌握水平。
作为一种示例,学生的历史做题记录可以包括:历史试题、历史试题对应的成绩,可以表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,1≤i≤T。可以理解地,历史做题记录可以是学生在线的做题记录,也可以是学生线下的做题记录,本公开方案对此可不做具体限定。其中,试题的成绩可以理解为学生做对试题的概率,可以用“0”表示做错了试题,用“1”表示做对了试题;或者,还可以对学生的真实成绩进行归一化处理,越接近1表示学生做对试题的概率越高,本公开方案对试题成绩的表现形式可不做具体限定。
作为一种示例,待预测试题可以视为第(T+1)时刻的试题,表示为eT+1,本公开方案即为了得到eT+1的预测成绩
Figure BDA0001484190710000081
S102,将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩。
本公开方案可以预先利用学生的样本历史做题记录,构建成绩预测模型,进而将历史做题记录、待预测试题作为输入,由模型处理后输出待预测试题eT+1的预测成绩
Figure BDA0001484190710000082
可以理解地,用于构建模型的样本历史做题记录、进行成绩预测的历史做题记录,二者可以相同,亦可不同,本公开方案对此可不做具体限定。
下面对本公开方案中模型处理的过程进行解释说明。
1.由模型提取待预测试题的表征向量
参见图2,示出了本公开中提取试题的表征向量的流程示意图。可以通过该方法提取待预测试题eT+1的表征向量,亦可通过该方法提取历史试题ei的表征向量。所述方法可以包括以下步骤:
S201,对试题e的题面进行分词处理,得到所述试题e的单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词,1≤j≤N。
作为一种示例,可以利用带有学科词典和停用词的分词器,对待预测试题的题面进行分词处理。可以理解地,学科词典指的是含有学科专有词的词典,例如,数学学科词典含有函数、定义域、单调递增等数学专有词。停用词指的是在分词过程中会被过滤掉的无用词,例如,的、若等。在实际应用过程中,可以直接使用现有的学科词典、停用词进行分词处理;或者,也可以结合使用需求构建学科词典、停用词,本公开方案对此可不做具体限定。
S202,对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量。
作为一种示例,可以先对单词wj进行向量化表示,如利用Word Embedding技术将单词wj初始化为一个d0维的向量,即,待预测试题eT+1可以转换为一个由N组词向量构成的矩阵,矩阵的维度可以表示为N×d0。其中,d0为超参数。
获得单词wj的词向量后,可以经由神经网络提取单词wj的表征向量。作为一种示例,提取表征向量的神经网络可以是:CNN(英文:Convolutional Neural Network,中文:卷积神经网络)、单向LSTM(英文:Long Short-Term Memory,中文:长短期记忆)网络、双向LSTM网络,本公开方案对此可不做具体限定。
以双向LSTM网络为例,提取单词表征向量的过程可以体现为:经由正向LSTM网络提取单词wj的正向表征向量
Figure BDA0001484190710000101
经由反向LSTM网络提取单词wj的反向表征向量
Figure BDA0001484190710000102
再利用
Figure BDA0001484190710000103
Figure BDA0001484190710000104
拼接得到单词wj的表征向量vj。其中,
Figure BDA0001484190710000105
Figure BDA0001484190710000106
的向量维度均为dv,dv为超参数。
可以理解地,单词wj的正向表征向量
Figure BDA0001484190710000107
与前一单词wj-1的正向表征向量
Figure BDA0001484190710000108
当前单词wj的词向量相关,具体计算过程可体现为下组公式1:
Figure BDA0001484190710000109
Figure BDA00014841907100001010
Figure BDA00014841907100001011
Figure BDA00014841907100001012
Figure BDA00014841907100001013
其中,ij、fj、oj表示LSTM网络中的输入门、遗忘门和输出门三种结构;cj表示神经网络中的记忆单元;σ(x)表示非线性Sigmoid激活函数;·表示元素乘法运算;
Figure BDA00014841907100001014
为网络参数,可以通过模型训练得到。
可以理解地,单词wj的反向表征向量
Figure BDA00014841907100001015
与前一单词wj+1的反向表征向量
Figure BDA00014841907100001016
当前单词wj的词向量相关,具体计算过程可参照上文公式1,此处不再详述。
作为一种示例,针对双向LSTM网络,可以通过拼接方式得到单词wj的表征向量vj=concatenate
Figure BDA00014841907100001017
本公开方案对此可不做具体限定。
此外,利用CNN、单向LSTM网络提取单词表征向量的过程,可结合相关技术实现,此处不再详述。
S203,基于每个单词的表征向量确定所述试题e的表征向量。
作为一种示例,可以拼接各单词的表征向量,作为试题的表征向量;或者,为了去冗余,可以尽量抽取有用信息作为试题的表征向量,如利用元素级最大化运算确定试题的表征向量,具体地,可以在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到试题的表征向量,即试题e的表征向量x=max(v1,v2,…,vj,…,vN);或者,还可以计算N个单词表征向量每一维的平均值,得到试题的表征向量,本公开方案对确定试题表征向量的方式可不作具体限定。
按照以上方法可以得到待预测试题eT+1的表征向量xT+1,若以双向LSTM网络为例,待预测试题eT+1的表征向量xT+1的维度为2dv
2.由模型提取学生的当前知识状态向量
本公开方案中,当前知识状态向量用于表示学生当前的知识掌握水平,可由基于历史做题记录得到的历史知识状态向量计算得到。参见图3,示出了本公开中提取当前知识状态向量的流程示意图。可以包括以下步骤:
S301,确定第i个时刻的历史知识状态向量hi对应的权重值αi
S302,利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
为了提取当前知识状态向量,可先基于学生的历史做题记录,得到如下两方面信息:
(1)计算第i个时刻的历史知识状态向量hi
作为一种示例,可以对第i个时刻的历史试题ei的表征向量xi、第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure BDA0001484190710000111
然后经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure BDA0001484190710000112
计算得到所述第i个时刻的历史知识状态向量hi
提取第i个时刻的历史试题ei的表征向量xi的过程,可参见上文图2处所做介绍,此处不再赘述。
作为一种示例,可以通过以下两种方案,实现表征向量与成绩向量的融合:
a.不同成绩可以用相同的成绩向量表示,例如,成绩向量可以用一个与表征向量xi维度相同的全0向量或者全1向量表示,然后通过设置表征向量xi与成绩向量的位置,来体现不同成绩对融合向量的影响。例如,成绩向量为全0向量,可以通过公式2表示融合向量
Figure BDA0001484190710000121
Figure BDA0001484190710000122
b.不同成绩可以用不同的成绩向量表示,然后利用表征向量xi与成绩向量相乘的方式,得到融合向量
Figure BDA0001484190710000123
本公开方案对融合处理的过程可不做具体限定,只要融合向量既能体现表征向量,又能体现成绩向量即可。经融合处理后,历史做题记录S可以表示为
Figure BDA0001484190710000124
得到融合向量
Figure BDA0001484190710000125
后,可以利用单向LSTM网络提取学生在第i个时刻的历史知识状态向量hi,其中,hi的向量维度为dh,dh为超参数。
以正向LSTM网络为例,第i个时刻的历史知识状态向量hi,与前一个时刻(i-1)的历史知识状态向量hi-1、当前时刻的融合向量
Figure BDA0001484190710000126
相关,具体计算过程可体现为下组公式3:
Figure BDA0001484190710000127
Figure BDA0001484190710000128
Figure BDA0001484190710000129
Figure BDA00014841907100001210
hi=oi·tanh(ci)
其中,ii、fi、oi表示LSTM网络中的输入门、遗忘门和输出门三种结构;ci表示神经网络中的记忆单元;σ(x)表示非线性Sigmoid激活函数,·表示元素乘法运算;
Figure BDA0001484190710000131
为网络参数,可以通过模型训练得到。
(2)确定第i个时刻的历史知识状态向量hi对应的权重值αi
作为一种示例,可以通过人为方式设置各历史知识状态向量对应的权重值;或者,可以基于待预测试题的表征向量xT+1、第i个时刻的历史试题的表征向量xi,计算待预测试题与第i个时刻的历史试题的相似度,作为第i个时刻的历史知识状态向量hi对应的权重值αi。例如,可以计算二者的余弦相似度、或者通过双向插值等方法计算相似度,本公开方案对于确定hi对应的权重值αi的方式、相似度的计算方式,可不做具体限定。
综上,获得hi以及αi后,便可通过计算加权和的方式,得到学生的当前知识状态向量
Figure BDA0001484190710000132
3.由模型输出待预测试题eT+1的预测成绩
Figure BDA0001484190710000133
作为一种示例,可以通过下组公式4得到预测成绩
Figure BDA0001484190710000134
yT+1=ReLU(W1·[hatt,xT+1]+b1)
Figure BDA0001484190710000135
其中,yT+1表示预测成绩的综合特征向量;ReLU(x)表示神经网络中的ReLU激活函数;σ(x)表示Sigmoid激活函数;W1、W2、b1、b2为模型参数,可以通过模型训练得到。
需要说明的是,考虑到不同的历史试题对待预测试题的成绩预测所做的贡献可能会有多不同,本公开方案优选基于注意力机制实现成绩预测。也就是说,预测学生在某道试题上的成绩时,可以更多的关注该学生历史上在相似试题上的成绩,即同一学生在相似试题上的成绩较为一致。
综上所述,本公开方案可以结合待预测试题的表征向量、学生的历史知识状态向量,进行成绩预测,有助于体现试题个性化特征对成绩预测的影响,进而提高成绩预测的准确性。此外,本公开方案在实际应用中还具有较好的扩展性,针对存在冷启动问题的学生、试题来说,不需要重新进行模型训练,有助于节省在线学习系统的时间和性能开销。其中,存在冷启动问题的学生指的是,在模型训练过程中未出现过的学生;存在冷启动问题的试题指的是,在模型训练过程中未出现过的试题。
需要说明的是,现有的成绩预测方法也通过一些相关参数来体现试题的个性化特征,例如,基于知识追踪实现成绩预测的方法中,可以用试题得分的平均值表示试题难度、用试题得分的方差表示试题区分度,本公开方案通过试题表征向量表示试题的难易程度、区分度等个性化特征,显然不同于现有技术,且相对用试题得分表示试题的个性化特征,本公开方案的表征向量更为准确客观。
下面对本公开方案构建成绩预测模型的过程进行解释说明。
1.获取样本历史试题以及样本历史试题对应的真实成绩。
本公开方案中的样本历史试题以及样本历史试题对应的真实成绩,可以表示为S′={(e′1,r′1),(e′2,r′2),…,(e′k,r′k),…,(e′M,r′M)},e′k表示第k个时刻的样本历史试题,r′k表示第k个时刻的样本历史试题对应的真实成绩,1≤k≤M。如上文所做介绍,e′k以及r′k可以采集学生在线的做题记录获得,也可以采集学生线下的做题记录获得;此外,S与S′二者包括的历史试题可以相同,亦可不同,本公开方案对此可不做具体限定。
2.提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量。
本公开方案中,除e′1之外,S′中的任一样本历史试题均可作为当前样本历史试题,例如,当前样本历史试题为e′k,则{e′1,e′2,…,e′k-1}即为当前样本历史试题之前的样本历史试题。
提取当前样本历史试题e′k的表征向量的过程,提取样本历史知识状态向量的过程,可参照上文所做介绍,此处不再赘述。
3.利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
如上文所做介绍,基于当前样本历史试题的表征向量、样本历史知识状态向量,可以得到当前样本历史试题e′k的预测成绩
Figure BDA0001484190710000151
具体过程可参见上文所做介绍,此处不再赘述。
本公开方案中,可以利用当前样本历史试题的预测成绩、当前样本历史试题的真实成绩设置模型训练的目标函数,当二者之间满足预设条件时,即表示模型训练完成。可以理解地,二者之间满足预设条件,可以为二者之间的误差达到最小;或者,二者之间的误差不大于预设值,本公开方案对此可不做具体限定。作为一种示例,成绩预测模型的目标函数可以为最小均方误差;或者,可以使用如下公式5所示负对数极大似然估计目标函数进行模型训练,本公开方案对目标函数的表现形式可不做具体限定。
Figure BDA0001484190710000152
其中,
Figure BDA0001484190710000153
表示样本历史试题e′k的预测成绩,r′k表示样本历史试题e′k的真实成绩,P表示参与模型训练的学生数目。
参见图4,示出了本公开成绩预测装置的构成示意图。所述装置可以包括:
试题获取模块401,用于获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;
模型处理模块402,用于将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;
所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征。
可选地,所述历史做题记录表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,所述模型处理模块包括:
权重值确定模块,用于确定第i个时刻的历史知识状态向量hi对应的权重值αi
当前知识状态向量计算模块,用于利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
可选地,所述权重值确定模块,用于基于所述待预测试题的表征向量以及第i个时刻的历史试题的表征向量,计算所述待预测试题与所述第i个时刻的历史试题的相似度,作为所述第i个时刻的历史知识状态向量hi对应的权重值αi
可选地,所述当前知识状态向量计算模块,用于对第i个时刻的历史试题的表征向量以及第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure BDA0001484190710000161
经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure BDA0001484190710000162
计算得到所述第i个时刻的历史知识状态向量hi
可选地,所述模型处理模块包括:
分词处理模块,用于对试题e的题面进行分词处理,得到单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词;
单词表征向量提取模块,用于对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量;
试题表征向量确定模块,用于基于每个单词的表征向量确定所述试题e的表征向量。
可选地,所述神经网络为双向LSTM网络,
所述单词表征向量提取模块,用于经由正向LSTM网络提取单词wj的正向表征向量
Figure BDA0001484190710000171
以及经由反向LSTM网络提取单词wj的反向表征向量
Figure BDA0001484190710000172
利用
Figure BDA0001484190710000173
Figure BDA0001484190710000174
拼接得到单词wj的表征向量vj
可选地,所述试题表征向量确定模块,用于在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到所述试题e的表征向量。
可选地,所述装置还包括:
成绩预测模型构建模块,用于获取样本历史试题以及样本历史试题对应的真实成绩;提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量;利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
参见图5,示出了本公开用于成绩预测的电子设备500的结构示意图。参照图5,电子设备500包括处理组件501,其进一步包括一个或多个处理器,以及由存储介质502所代表的存储设备资源,用于存储可由处理组件501的执行的指令,例如应用程序。存储介质502中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件501被配置为执行指令,以执行上述成绩预测方法。
电子设备500还可以包括一个电源组件503,被配置为执行电子设备500的电源管理;一个有线或无线网络接口504,被配置为将电子设备500连接到网络;和一个输入输出(I/O)接口505。电子设备500可以操作基于存储在存储介质502的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。

Claims (18)

1.一种成绩预测方法,其特征在于,所述方法包括:
获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;
将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;
所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征,从所述待预测试题的题面中提取得到。
2.根据权利要求1所述的方法,其特征在于,所述历史做题记录表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,则获得所述当前知识状态向量的方式为:
确定第i个时刻的历史知识状态向量hi对应的权重值αi
利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
3.根据权利要求2所述的方法,其特征在于,所述确定第i个时刻的历史知识状态向量hi对应的权重值αi,包括:
基于所述待预测试题的表征向量以及第i个时刻的历史试题的表征向量,计算所述待预测试题与所述第i个时刻的历史试题的相似度,作为所述第i个时刻的历史知识状态向量hi对应的权重值αi
4.根据权利要求2所述的方法,其特征在于,计算所述历史知识状态向量hi的方式为:
对第i个时刻的历史试题的表征向量以及第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure FDA0003167505530000011
经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure FDA0003167505530000025
计算得到所述第i个时刻的历史知识状态向量hi
5.根据权利要求3或4所述的方法,其特征在于,获得所述待预测试题的表征向量、所述历史试题的表征向量的方式为:
对试题e的题面进行分词处理,得到单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词;
对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量;
基于每个单词的表征向量确定所述试题e的表征向量。
6.根据权利要求5所述的方法,其特征在于,所述神经网络为双向LSTM网络,所述经由神经网络提取每个单词的表征向量,包括:
经由正向LSTM网络提取单词wj的正向表征向量
Figure FDA0003167505530000021
以及经由反向LSTM网络提取单词wj的反向表征向量
Figure FDA0003167505530000022
利用
Figure FDA0003167505530000023
Figure FDA0003167505530000024
拼接得到单词wj的表征向量vj
7.根据权利要求5所述的方法,其特征在于,所述基于每个单词的表征向量确定所述试题e的表征向量,包括:
在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到所述试题e的表征向量。
8.根据权利要求1所述的方法,其特征在于,构建所述成绩预测模型的方式为:
获取样本历史试题以及样本历史试题对应的真实成绩;
提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量;
利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
9.一种成绩预测装置,其特征在于,所述装置包括:
试题获取模块,用于获取学生的历史做题记录以及待预测试题,所述历史做题记录包括历史试题以及该历史试题对应的成绩;
模型处理模块,用于将所述历史做题记录和所述待预测试题作为输入,经由成绩预测模型,得到学生的当前知识状态向量以及所述待预测试题的表征向量,并基于所述当前知识状态向量以及所述待预测试题的表征向量,输出所述待预测试题的预测成绩;
所述当前知识状态向量用于表示学生当前的知识掌握水平,由基于所述历史做题记录得到的历史知识状态向量计算得到;所述待预测试题的表征向量用于表示所述待预测试题的个性化特征,从所述待预测试题的题面中提取得到。
10.根据权利要求9所述的装置,其特征在于,所述历史做题记录表示为S={(e1,r1),(e2,r2),…,(ei,ri),…,(eT,rT)},ei表示第i个时刻的历史试题,ri表示第i个时刻的历史试题对应的成绩,所述模型处理模块包括:
权重值确定模块,用于确定第i个时刻的历史知识状态向量hi对应的权重值αi
当前知识状态向量计算模块,用于利用所述历史知识状态向量hi以及对应的权重值αi进行加权和计算,得到所述当前知识状态向量。
11.根据权利要求10所述的装置,其特征在于,
所述权重值确定模块,用于基于所述待预测试题的表征向量以及第i个时刻的历史试题的表征向量,计算所述待预测试题与所述第i个时刻的历史试题的相似度,作为所述第i个时刻的历史知识状态向量hi对应的权重值αi
12.根据权利要求10所述的装置,其特征在于,
所述当前知识状态向量计算模块,用于对第i个时刻的历史试题的表征向量以及第i个时刻的历史试题对应的成绩向量,进行融合处理,得到第i个时刻的融合向量
Figure FDA0003167505530000032
经由单向LSTM网络,利用第(i-1)个时刻的历史知识状态向量hi-1以及第i个时刻的融合向量
Figure FDA0003167505530000031
计算得到所述第i个时刻的历史知识状态向量hi
13.根据权利要求9至12任一项所述的装置,其特征在于,所述模型处理模块包括:
分词处理模块,用于对试题e的题面进行分词处理,得到单词序列e={w1,w2,…,wj,…,wN},wj表示第j个单词;
单词表征向量提取模块,用于对每个单词进行向量化处理,再经由神经网络提取每个单词的表征向量;
试题表征向量确定模块,用于基于每个单词的表征向量确定所述试题e的表征向量。
14.根据权利要求13所述的装置,其特征在于,所述神经网络为双向LSTM网络,
所述单词表征向量提取模块,用于经由正向LSTM网络提取单词wj的正向表征向量
Figure FDA0003167505530000041
以及经由反向LSTM网络提取单词wj的反向表征向量
Figure FDA0003167505530000045
利用
Figure FDA0003167505530000044
Figure FDA0003167505530000042
拼接得到单词wj的表征向量vj。
15.根据权利要求13所述的装置,其特征在于,
所述试题表征向量确定模块,用于在各维度上,比较N个单词的表征向量,选取每一维上的最大值,得到所述试题e的表征向量。
16.根据权利要求9所述的装置,其特征在于,所述装置还包括:
成绩预测模型构建模块,用于获取样本历史试题以及样本历史试题对应的真实成绩;
提取当前样本历史试题的表征向量,以及基于所述当前样本历史试题之前的样本历史试题得到的样本历史知识状态向量;利用所述当前样本历史试题的表征向量以及所述样本历史知识状态向量,得到所述当前样本历史试题的预测成绩,直至所述当前样本历史试题的预测成绩与所述当前样本历史试题的真实成绩之间满足预设条件,训练得到所述成绩预测模型。
17.一种存储介质,其中存储有多条指令,其特征在于,所述指令由处理器加载,执行权利要求1至8任一项所述方法的步骤。
18.一种电子设备,其特征在于,所述电子设备包括;
权利要求17所述的存储介质;以及
处理器,用于执行所述存储介质中的指令。
CN201711208749.5A 2017-11-27 2017-11-27 成绩预测方法及装置、存储介质、电子设备 Active CN108171358B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711208749.5A CN108171358B (zh) 2017-11-27 2017-11-27 成绩预测方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711208749.5A CN108171358B (zh) 2017-11-27 2017-11-27 成绩预测方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN108171358A CN108171358A (zh) 2018-06-15
CN108171358B true CN108171358B (zh) 2021-10-01

Family

ID=62524529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711208749.5A Active CN108171358B (zh) 2017-11-27 2017-11-27 成绩预测方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN108171358B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961816B (zh) * 2018-07-19 2020-03-24 泰华智慧产业集团股份有限公司 基于优化lstm模型的道路停车泊位预测方法
CN109242140A (zh) * 2018-07-24 2019-01-18 浙江工业大学 一种基于LSTM_Attention网络的交通流预测方法
CN109299380B (zh) * 2018-10-30 2021-07-02 浙江工商大学 在线教育平台中基于多维特征的习题个性化推荐方法
CN109543841A (zh) * 2018-11-09 2019-03-29 北京泊远网络科技有限公司 深度学习方法、装置、电子设备及计算机可读介质
US20200202226A1 (en) * 2018-12-20 2020-06-25 Fuji Xerox Co., Ltd. System and method for context based deep knowledge tracing
CN110019686B (zh) * 2019-04-11 2021-06-29 北京任学教育科技有限公司 知识点掌握度的确定方法、装置、设备和存储介质
CN110264091B (zh) * 2019-06-24 2023-10-20 中国科学技术大学 学生认知诊断方法
CN110570941B (zh) * 2019-07-17 2020-08-14 北京智能工场科技有限公司 一种基于文本语义向量模型评估心理状态的系统和装置
CN110428010B (zh) * 2019-08-05 2022-09-06 中国科学技术大学 知识追踪方法
CN110443427B (zh) * 2019-08-12 2023-11-07 浙江蓝鸽科技有限公司 基于认知知识谱的成绩预测方法及其系统
CN110852390A (zh) * 2019-11-13 2020-02-28 山东师范大学 一种基于校园行为序列的学生成绩分类预测方法及系统
CN111222684B (zh) * 2019-11-19 2023-10-20 上海零寅信息科技有限公司 一种基于大数据环境下的成绩预测系统
CN111179675B (zh) * 2019-12-30 2022-09-06 安徽知学科技有限公司 个性化练习题推荐方法、系统、计算机设备以及存储介质
CN111709551B (zh) * 2020-05-11 2023-04-25 广州大学 基于相似度的学生测试数据处理方法、系统、装置及介质
CN111695680B (zh) * 2020-06-15 2023-11-10 北京百度网讯科技有限公司 成绩预测方法、成绩预测模型训练方法、装置及电子设备
CN112288145B (zh) * 2020-10-15 2022-08-05 河海大学 基于多视角认知诊断的学生成绩预测方法
CN114418443A (zh) * 2022-01-28 2022-04-29 华南师范大学 试卷质量的检测方法、系统、装置和存储介质
CN114461787B (zh) * 2022-04-13 2022-10-21 北京东大正保科技有限公司 一种试题分发方法和系统
CN116166998B (zh) * 2023-04-25 2023-07-07 合肥师范学院 一种联合全局和局部特征的学生表现预测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488142A (zh) * 2015-11-24 2016-04-13 科大讯飞股份有限公司 成绩信息录入方法及系统
CN106157204A (zh) * 2016-06-20 2016-11-23 山东师范大学 一种基于bp神经网络模型的学生学业成绩预测方法及系统
CN107274020A (zh) * 2017-06-15 2017-10-20 北京师范大学 一种基于协同过滤思想的学习者学科总测成绩预测系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040193446A1 (en) * 2003-03-27 2004-09-30 Mayer Steven Lloyd System and method for managing a patient treatment program including a prescribed drug regimen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488142A (zh) * 2015-11-24 2016-04-13 科大讯飞股份有限公司 成绩信息录入方法及系统
CN106157204A (zh) * 2016-06-20 2016-11-23 山东师范大学 一种基于bp神经网络模型的学生学业成绩预测方法及系统
CN107274020A (zh) * 2017-06-15 2017-10-20 北京师范大学 一种基于协同过滤思想的学习者学科总测成绩预测系统及方法

Also Published As

Publication number Publication date
CN108171358A (zh) 2018-06-15

Similar Documents

Publication Publication Date Title
CN108171358B (zh) 成绩预测方法及装置、存储介质、电子设备
CN107967254B (zh) 知识点预测方法及装置、存储介质、电子设备
US10997503B2 (en) Computationally efficient neural network architecture search
CN109344404B (zh) 情境感知的双重注意力自然语言推理方法
CN106202068B (zh) 基于多语平行语料的语义向量的机器翻译方法
CN108376132B (zh) 相似试题的判定方法及系统
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
US20230027526A1 (en) Method and apparatus for classifying document based on attention mechanism and semantic analysis
JP6969443B2 (ja) 学習品質推定装置、方法、及びプログラム
Tang et al. Modelling student behavior using granular large scale action data from a MOOC
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
CN111401105B (zh) 一种视频表情识别方法、装置及设备
CN111428448A (zh) 文本生成方法、装置、计算机设备及可读存储介质
CN114818891A (zh) 小样本多标签文本分类模型训练方法及文本分类方法
CN116595151A (zh) 基于先验知识启发大语言模型的图像推理问答方法
CN110197213B (zh) 基于神经网络的图像匹配方法、装置和设备
CN114742319A (zh) 法考客观题成绩预测方法、系统及存储介质
CN113420117B (zh) 一种基于多元特征融合的突发事件分类方法
CN114722833A (zh) 一种语义分类方法及装置
CN110852071A (zh) 知识点检测方法、装置、设备及可读存储介质
CN113283334A (zh) 一种课堂专注度分析方法、装置和存储介质
CN108959467B (zh) 一种基于强化学习的问句和答案句相关度的计算方法
CN115795017A (zh) 一种对话系统离线在线融合应用方法及系统
Rao Are you asking the right questions? Teaching Machines to Ask Clarification Questions
CN113505603A (zh) 适用于司法考试主观题的多任务学习智能阅卷方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant