CN116523402A - 一种基于多模态数据的网络学习资源质量评估方法及系统 - Google Patents
一种基于多模态数据的网络学习资源质量评估方法及系统 Download PDFInfo
- Publication number
- CN116523402A CN116523402A CN202310489130.5A CN202310489130A CN116523402A CN 116523402 A CN116523402 A CN 116523402A CN 202310489130 A CN202310489130 A CN 202310489130A CN 116523402 A CN116523402 A CN 116523402A
- Authority
- CN
- China
- Prior art keywords
- network
- learning resource
- network learning
- information
- quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001303 quality assessment method Methods 0.000 title claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims abstract description 47
- 238000004458 analytical method Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000004364 calculation method Methods 0.000 claims description 76
- 239000013598 vector Substances 0.000 claims description 74
- 238000000034 method Methods 0.000 claims description 45
- 238000004422 calculation algorithm Methods 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 21
- 238000013441 quality evaluation Methods 0.000 claims description 21
- 125000004122 cyclic group Chemical group 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000004821 distillation Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 241000287127 Passeridae Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000013070 direct material Substances 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于多模态数据的网络学习资源质量评估方法及系统,包括网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块、网络学习资源质量分析报告生成模块,分别采用学习资源信息门控循环单元、三级Transformer动态注意力网络、循环信息差神经网络RIDNN、BERT预训练模型和TextCNN模型对网络学习资源进行处理;然后通过LSTM Transformer网络生成网络学习资源质量分析报告。本发明可以实现网络学习资源质量的智能评价,帮助资源建设者多维度掌握资源内容质量,促进网络学习资源内容及时更新优化。
Description
技术领域
本发明属于计算机科学与技术应用领域,具体地说是一种面向开放知识社区中的协同编辑型文档类资源内容的质量智能评估方法,可用于开放知识社区资源质量的评估、预警和优化。
背景技术
网络学习资源是“互联网”+教育体系的核心要素。近年来,开放知识社区以“共建、共享、开放、联通”的特性吸引了各知识领域的专家、研究者和爱好者参与到知识协同构建社区。典型的开放知识社区有维基百科(Wikipedia)、Google Knol、Github、百度百科、学习元平台、语雀平台等。该类社区在大量用户的协同编辑中生成了知识共享文档,促进了知识的传承、流通、创作和进化。然而,开放知识社区也因用户群体的知识水平不平衡性和复杂性,致使协同编辑生成的网络学习资源存在一定的质量问题。爆炸性增长的网络学习资源质量良莠不齐,不利于知识的创作和传播。
针对开放知识社区中的网络学习资源质量的可靠性问题,各平台主要采用人工审核及参与用户协同共管的方式实现对资源内容质量的保障。例如,维基百科采用“人在回路、参与者审核、管理权限等级划分”的资源质量管控模式,同时利用约束规则实现内容编辑的规范性,达到保障网络学习资源高质量的目的。网络学习资源质量保障相关技术包括:面向学习元平台的审核技术、基于语义基因和信任评估的内容协同编辑的可信度计算、内容进化智能控制模型技术、资源内容协同编辑技术和版本控制技术。但是,现有的技术忽视了用户群体协同编辑的行为数据,未能有效利用网络学习资源共享传播过程中产生的交互行为数据,而且忽略了网络学习资源不同版本之间内容本身的变化,同时市面也比较缺乏该类资源质量的分析报告自动生成技术。
指数级增长的网络学习资源和用户群体,使得资源内容的审核工作变得繁重。传统依靠人工审核和机器学习技术的方法不可持续,给知识的创作者、建设者和管理者带来了较大的工作负担。因此,可以结合目前较为前沿的人工智能技术,探索一种可以有效减轻开放知识社区中网络学习资源质量评估任务的智能化方法。
发明内容
发明目的:本发明要解决的技术问题是:开放知识社区中网络学习资源质量智能化评估的问题。本方法提供了一种可以从资源的编辑行为数据、用户交互行为数据、内容数据和评论数据等多个方面的信息综合生成资源质量评估分析报告的方法,以实现帮助资源内容建设者和管理者减轻网络学习资源内容编辑和审核的负担。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于多模态数据的网络学习资源质量评估方法,基于网络学习资源的编辑、更新、访问等离散型外显行为数据,提取网络学习资源质量核心要素项的特征向量。以网络学习资源不同版本内容的文本型数据为关键信息抽取节点,对网络学习资源的标题、摘要、关键词等语义信息进行特征抽取。再将上述两种特征作为学习资源评分预测的特征输入,通过本发明设计的评分预测算法进行评分预测;以网络学习资源的相关评论信息为资源质量评价的参考依据,对评论数据进行情感倾向分析和评价归类。以网络学习资源的不同版本为时间节点,提取该时间段内的评论关键信息,结合上述计算结果,生成网络学习资源质量的分析报告。本发明的网络学习资源质量评估方法,可以实现网络学习资源质量的智能评价,帮助资源建设者多维度掌握资源内容质量,促进网络学习资源内容及时更新优化,具体包括以下步骤:
步骤1,采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征。
步骤2,采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示。
步骤3:采用循环信息差神经网络RIDNN对步骤1得到的网络学习资源质量核心要素项特征和步骤2得到的网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分。
步骤4,通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类。
步骤5:根据步骤1得到的网络学习资源质量核心要素项特征、步骤2得到的网络学习资源语义特征表示、步骤3得到的学习资源质量预测评分以及步骤4得到的网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。
优选的:步骤1中采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取的方法,包括以下步骤:
步骤11,将网络学习资源质量核心要素项编码作为循环网络的输入Xt,Xt表示第t版本的网络学习资源质量核心要素项输入。
步骤12,计算ft,ft用于保留第t-1版和第t版学习资源核心要素项的增益信息。
ft=sigmoid(Xt-Xt-1)
其中,ft表示不同版本学习资源要素项增益信息特征,sigmoid表示神经网络非线性激活函数,Xt表示第t版学习资源要素项特征。
步骤13,计算ot,ot用于第t版学习资源核心要素项信息过滤。
ot=(1-sigmoid(Whoht-1+WxoXt))⊙tanh(Whoht-1+WxoXt)
其中,ot表示当前核心要素项经过信息过滤后保留重要信息的特征,Who表示隐藏层参数,ht-1表示隐藏向量,Wxo表示输入层参数,⊙表示矩阵点积。
步骤14,计算mt,mt用于保留当前学习资源特征Xt和历史特征ht-1提取中的有效信息。
mt=sigmoid(Whoht-1+WxoXt)
其中,mt表示从当前学习资源特征Xt和历史特征ht-1提取的特征向量。
步骤15,计算Ct,Ct用于将历史数据信息作为下一个网络单元输入,以实现历史多个版本重要信息的留存。
Ct=Ct-1⊙ft+ot
其中,Ct表示从历史数据信息中保留的第t版本时的重要信息特征。
步骤16,计算ht,ht为当前版本学习资源信息和历史版本学习资源信息提取所得的隐藏层特征。
ht=tanh(Ct)⊙mt
其中,ht表示当前版本学习资源信息和历史版本学习资源信息提取的隐藏层特征,Ct表示第t版本时的重要信息特征,tanh表示双曲正切函数。
步骤17,计算yt,yt为第t版学习资源核心要素项的特征表示,该特征提取是由隐藏向量ht经过前馈神经网络计算所得,将得到的yt作为资源质量评分预测算法的输入。
yt=Whyht+bty
其中,yt表示第t版本学习资源的评分预测,Why表示前馈神经网络的隐藏层参数,ht表示前馈神经网络的隐藏层向量,bty表示前馈神经网络的偏置项。
优选的:步骤2中采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示的方法,包括以下步骤:
步骤21:将网络学习资源的标题、关键词和摘要通过已经预训练好的词向量将相关内容表示为输入特征矩阵Xt1。
步骤22:将t-1时刻的输出向量表示y′t-1作为t-1版本的有效信息与t版本的特征进行有效融合,其计算公式为:
步骤23:将X′t1作为输入向量,输入到Transformer Encoder架构中进行第一级的特征计算,其计算公式表示为:ht1=TransformEncoder(X′t1)。
步骤24:将第一级计算所得隐藏层向量ht1输入第二级Transformer Encoder结构中,以实现关联章节目录信息,其计算公式表示为:其中X′t2表示章节目录内容经过预训练词向量嵌入后的输入。
步骤25:将第二级计算所得隐藏层向量ht2输入第三级Transformer Encoder结构中,以实现关联资源内容信息,其计算公式表示为:其中X′t3表示资源内容经过预训练词向量嵌入后的输入,y′t表示最终经过训练之后所得t版本网络学习资源语义特征表示。
使用的注意力机制采用mask函数对其进行优化,
其中R,Z为超参数,x为输入值。
优选的:步骤3中采用循环信息差神经网络RIDNN得到学习资源质量预测评分的方法,包括以下步骤:
步骤31:将步骤1得到的网络学习资源质量核心要素项特征yt和步骤2得到的网络学习资源语义特征表示y′t作为循环信息差神经网络RIDNN的输入。yt和y′t特征首先是进行了向量拼接,其计算公式为其中Yt表示两者特征融合之后的特征。
步骤32:计算Ft。将第t版本的融合特征向量Yt与第t-1版本的融合特征向量Yt-1做信息差,其计算公式为Ft=sigmoid(Yt-Yt-1)。
步骤33:计算Mt。结合信息差特征和当前版本的特征,计算Mt,以实现当前版本中信息变化量的蒸馏。其计算公式为Mt=Ft⊙tanh(Mt)。
步骤34:计算Ht。计算隐藏层向量Ht,即可作为下一阶段历史信息的输入,也可作为输出向量。其计算公式为
步骤35:计算 表示为学习资源质量预测评分,该数值主要是基于Ht的前馈神经网络计算所得。其计算公式为/>
采用均方根误差函数作为损失函数,其计算公式为:
其中n为网络学习资源数量。
优选的:步骤4中通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类的方法,包括以下步骤:
步骤41:对评论数据进行处理,通过BERT预训练模型,将评论数据编码为对应的词向量E1。
步骤42:将评论数据词向量E1输入门控循环神经网络GRU,以捕捉评论数据中的上下级信息,其计算公式为E2=GRU(E1)。
步骤43:将GRU模型输出向量E2输入全连接神经网络进行特征表示,以使得输出特征维度与TextCNN模块输出特征维度匹配。其计算公式(4-2)为Y1=WEYE2+bEY。
步骤44:对评论数据进行处理,通过jieba分词和预训练BERT模型对评论数据进行编码,编码后特征矩阵为E3。
步骤45:将特征矩阵E3输入到TextCNN网络结构中,以获得较好的文本分类效果。其计算公式为E4=TextCNN(E3)。
步骤46:将TextCNN输出的特征E4进行全连接神经网络计算,以使得输出特征维度与GRU模块输出特征维度匹配,其计算公式为Y2=W′EYE4+b′EY。
步骤47:进行多标签文本预测,预测向量
步骤48:将预测标签与真实标签yi进行损失函数计算,通过反向传播算法对参数进行求解优化。损失函数公式为/>
优选的:步骤5中通过LSTM Transformer网络生成网络学习资源质量分析报告的方法,包括以下步骤:
步骤51:首先以设置评论数据选取的时间节点,并使用预训练模型对评论数据进行词向量嵌入,该向量表示为Er。
步骤52:将Er输入多层LSTM结构中,以捕捉不同评论中的时间信息,并提高单纯使用Transformer模型的信息表示能力,输出新的特征表示EL。
步骤53:将Er输入Transformer编码层,以捕捉不同词语之间的位置信息,输出新的特征表示ET。
步骤54:将EL和Er特征进行融合,通过Transformer编码层输出新的特征表示E′T,通过Transformer编码层再次深度提取评论中所蕴含的信息。
步骤55:将E′T输入Transformer解码层,并将评价维度指标词作为最终输出的引导。经过Transformer解码层提取大量评论数据中的关键信息,最终从每个评价维度生成一句在该评价维度的整体性评语。
一种基于多模态数据的网络学习资源质量评估系统,采用上述基于多模态数据的网络学习资源质量评估方法,包括网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块、网络学习资源质量分析报告生成模块,其中:
所述网络学习资源质量核心要素项特征提取模块用于采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征。
所述网络学习资源语义特征表示模块用于采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示。
所述学习资源质量预测评分模块用于采用循环信息差神经网络RIDNN对得到的网络学习资源质量核心要素项特征和网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分。
所述网络学习资源评价维度分类模块用于通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类。
所述网络学习资源质量分析报告生成模块用于根据得到的网络学习资源质量核心要素项特征、网络学习资源语义特征表示、学习资源质量预测评分以及网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。
本发明相比现有技术,具有以下有益效果:
(1)本发明综合了用户协同创作时产生的编辑行为数据和网络学习资源分享时产生的用户交互行为数据特征,可以实现有效地捕获不同版本之间网络学习资源外显数据信息,具有较高的资源质量评分预测的准确性。
(2)本发明从网络学习资源相关的评论数据出发,以网络学习资源质量评价指标体系为分类参考,设计了BERT预训练模型+TextCNN的算法模型对评论数据信息进行有效的提取,较之常规的文本语义提取技术有较好的效果。
(3)本发明提出LSTM+Transformer的算法模型,该算法综合考虑了评论数据的时间信息和评价维度信息,可生成网络学习资源质量评估文本,实现有效地帮助学习资源建设者过滤无用信息,达到动态调整优化学习资源的目的。
附图说明
图1为本发明提出的网络学习资源质量核心要素项特征提取模块。
图2为本发明提出的网络学习资源语义特征表示模块。
图3为本发明提出的学习资源质量预测评分模块。
图4为本发明提出的网络学习资源评价维度分类模块。
图5为本发明提出的网络学习资源质量分析报告生成模块。
图6为本发明的系统框图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种基于多模态数据的网络学习资源质量评估方法,基于网络学习资源质量核心要素项特征提取RIGRU算法和网络学习资源文本内容特征提取TLTDA算法,将上述两者特征融合输入网络学习评分预测RIDNN算法进行网络学习资源的评分预测。从学习资源相关的评论信息中提取评价信息特征,应用BERT预训练模型+TextCNN的算法模型进行评论多维度分类。通过LSTM+Transformer的算法模型生成网络学习资源质量评估的文本,最终以模板类评估和自然语言文本评价作为网络学习资源质量评估分析报告。如图6所示,包括以下步骤:
步骤1,采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征。
网络学习资源质量核心要素项主要包括:学习资源内容编辑次数、版本更新次数、浏览量、收藏量、批注量、点赞数、点踩数、批注量、评论数量、关联知识社区量、关联知识群量、协作用户量。
传统循环神经网络在网络学习资源质量核心要素项特征提取时网络结构过于复杂,忽略了学习资源不同版本之间的信息增益,导致特征表示不准的问题。为解决上述问题,本发明设计了一种提取网络学习资源质量核心要素项特征的算法模型,该算法主要由学习资源信息门控循环单元(Resource Information Gate Recurrent Unit,简称RIGRU)组合而成,网络学习资源质量核心要素项提取RIGTU算法指的是由学习资源信息门控循环单元(Resource Information Gate Recurrent Unit,简称RIGRU)组合而成的网络结构。该网络结构能够有效提取离散型核心要素项的信息和时间序列信息,相对于长短期记忆模型和门控循环网络,该网络结构较为简单,符合当前的应用场景,且计算效率较高。如图1所示。
采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取的方法,包括以下步骤:
步骤11,将网络学习资源质量核心要素项编码作为循环网络的输入Xt,Xt表示第t版本的网络学习资源质量核心要素项输入。为了尽可能保留核心要素项信息,此处编码方式直接将离散数值拼接作为特征向量。
步骤12,计算ft,ft用于保留第t-1版和第t版学习资源核心要素项的增益信息。其计算公式为:
ft=sigmoid(Xt-Xt-1)
其中,ft表示不同版本学习资源要素项增益信息特征,sigmoid表示神经网络非线性激活函数,Xt表示第t版学习资源要素项特征。
步骤13,计算ot,ot用于第t版学习资源核心要素项信息过滤。其计算公式为:
ot=(1-sigmoid(Whoht-1+WxoXt))⊙ tanh(Whoht-1+WxoXt)
其中,ot表示当前核心要素项经过信息过滤后保留重要信息的特征,Who表示隐藏层参数,ht-1表示隐藏向量,Wxo表示输入层参数,⊙表示矩阵点积。
步骤14,计算mt,mt用于保留当前学习资源特征Xt和历史特征ht-1提取中的有效信息。其计算公式为:
mt=sigmoid(Whoht-1+WxoXt)
其中,mt表示从当前学习资源特征Xt和历史特征ht-1提取的特征向量。
步骤15,计算Ct,Ct用于将历史数据信息作为下一个网络单元输入,以实现历史多个版本重要信息的留存。其计算公式为:
Ct=Ct-1⊙ft+ot
其中,Ct表示从历史数据信息中保留的第t版本时的重要信息特征。
步骤16,计算ht,ht为当前版本学习资源信息和历史版本学习资源信息提取所得的隐藏层特征。其计算公式为:
ht=tanh(Ct)⊙mt
其中,ht表示当前版本学习资源信息和历史版本学习资源信息提取的隐藏层特征,Ct表示第t版本时的重要信息特征。
步骤17,计算yt,yt为第t版学习资源核心要素项的特征表示,该特征提取是由隐藏向量ht经过前馈神经网络计算所得,将得到的yt作为资源质量评分预测算法的输入。其计算公式为:
yt=Whyht+bty
其中,yt表示第t版本学习资源的评分预测,Why表示前馈神经网络的隐藏层参数,ht表示前馈神经网络的隐藏层向量,bty表示前馈神经网络的偏置项。
步骤2,采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示。
网络学习资源内容是评价学习资源质量评估最直接的素材。本发明从学习资源的标题、关键词、摘要、章节目录和内容等方面,设计了以标题、章节目录、段落内容的三级关联关系融合特征,将三者特征嵌入Transformerer Encoder+动态attention的网络结构中,最终输出的特征向量作为资源质量评分预测算法的输入。
Transformerer在文本特征提取的方面具有一定的优势。具体到网络学习资源内容质量评估的应用场景,因标题决定了资源的章节目录,而章节目录决定了资源的内容安排。因此需要考虑三者之间的关联关系,故本发明改进设计了特征的输入和Transformer中的动态attention使用机制,尽可能保留对资源质量评估有效的信息。同时考虑不同版本之间资源的标题、章节和内容都可能会有相应的调整,因此本模块考虑了不同版本之间内容的信息变化,以有效地提高不同版本之间学习资源的特征表示的准确性。该表示算法名称为三级Transformer动态attention算法(Three Level Transformer Dynamic Attention,简称TLTDA),该算法综合考虑了标题、章节目录和文本内容之间层层递进关系,可有效提取不同层级内容的信息。如图2所示。
采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示的方法,包括以下步骤:
步骤21:将网络学习资源的标题、关键词和摘要通过已经预训练好的词向量将相关内容表示为输入特征矩阵Xt1。
步骤22:将t-1时刻的输出向量表示y′t-1作为t-1版本的有效信息与t版本的特征进行有效融合,其计算公式为:
步骤23:将X′t1作为输入向量,输入到Transformer Encoder架构中进行第一级的特征计算,其计算公式表示为:ht1=TransformEncoder(X′t1)。
步骤24:将第一级计算所得隐藏层向量ht1输入第二级Transformer Encoder结构中,以实现关联章节目录信息,其计算公式表示为:其中X′t2表示章节目录内容经过预训练词向量嵌入后的输入。
步骤25:将第二级计算所得隐藏层向量ht2输入第三级Transformer Encoder结构中,以实现关联资源内容信息,其计算公式表示为:其中X′t3表示资源内容经过预训练词向量嵌入后的输入,y′t表示最终经过训练之后所得t版本网络学习资源语义特征表示。
特别说明,为了减少历史信息中对当前版本资源质量影响较小的信息以提高算法计算效率,本设计中使用的注意力机制采用mask函数对其进行优化,以实现注意力的动态调整机制。mask函数计算公式为:
其中R,Z为超参数,x为输入值。
步骤3:采用循环信息差神经网络RIDNN对步骤1得到的网络学习资源质量核心要素项特征和步骤2得到的网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分。
本发明设计的网络学习资源质量评分预测算法是综合了核心要素项的离散型数据特征和文本型资源内容数据特征两个方面的考虑,以实现尽可能的模拟人类对网络学习资源质量评估的过程。
本发明设计了循环信息差神经网络(Recurrent Information DifferenceNeural Network,简称RIDNN)的算法,以实现通过不同版本之间信息的变化预测网络学习资源质量评分。RIDNN算法设计如图3所示,该网络结构是基于网络学习资源特定场景设计的神经网络算法,可有效地过滤不同版本学习资源历史信息中的无用信息,并提升评分预测的准确性。整体流程设计如下:
步骤31:将步骤1得到的网络学习资源质量核心要素项特征yt和步骤2得到的网络学习资源语义特征表示y′t作为循环信息差神经网络RIDNN的输入。因为不同版本之间核心要素项信息和资源内容信息是叠加的,因此本算法采用信息差的方式,将历史数据中的信息进行过滤,以保证信息的准确性和计算的性能。yt和y′t特征首先是进行了向量拼接,其计算公式为其中Yt表示两者特征融合之后的特征。
步骤32:计算Ft。将第t版本的融合特征向量Yt与第t-1版本的融合特征向量Yt-1做信息差,以挖掘不同版本之间信息变化的规律,其计算公式为Ft=sigmoid(Yt-Yt-1)。
步骤33:计算Mt。结合信息差特征和当前版本的特征,计算Mt,以实现当前版本中信息变化量的蒸馏。其计算公式为Mt=Ft⊙tanh(Mt)。
步骤34:计算Ht。计算隐藏层向量Ht,即可作为下一阶段历史信息的输入,也可作为输出向量。其计算公式为
步骤35:计算 表示为学习资源质量预测评分,该数值主要是基于Ht的前馈神经网络计算所得。其计算公式为/>
上述三个模块为一个整体,因此需要在整体计算之后才能进行求解。本设计采用均方根误差函数作为损失函数,其计算公式为:
其中n为网络学习资源数量。三个模块整体计算之后,方可通过反向传播算法进行参数求解。
步骤4,通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类。
通过文献调研、专家问询以及对学习元平台评论数据的整理和分析,本设计把网络学习资源质量评价指标体系分为七大维度。该七大维度分别是内容准确性、内容完整性、内容难易性、内容逻辑性、内容时效性、内容有效性、内容有用性和内容新颖性。因评论内容包含的评价包含多维指标信息,且评论情感倾向可以分为正向和负向,故本任务可以视为14类的多标签分类任务。
本发明设计了BERT预训练模型+TextCNN的算法模型,以解决网络学习资源评价多标签分类的任务。采用BERT预训练模型可以有效地解决一词多义和忽略上下文语义信息的问题。算法模型如图4所示,以解决网络学习资源评价多标签分类的任务。网络学习资源质量评价指标体系分为了七大维度:内容准确性、内容完整性、内容难易性、内容逻辑性、内容时效性、内容有效性、内容有用性和内容新颖性。整体流程如下:
步骤41:对评论数据进行处理,通过BERT预训练模型,将评论数据编码为对应的词向量E1。
步骤42:将评论数据词向量E1输入门控循环神经网络(Gated Recurrent NeuralNetwork简称GRU),以捕捉评论数据中的上下级信息,其计算公式为E2=GRU(E1)。
步骤43:将GRU模型输出向量E2输入全连接神经网络进行特征表示,以使得输出特征维度与TextCNN模块输出特征维度匹配。其计算公式(4-2)为Y1=WEYE2+bEY。
步骤44:对评论数据进行处理,通过jieba分词和预训练BERT模型对评论数据进行编码,编码后特征矩阵为E3。
步骤45:将特征矩阵E3输入到TextCNN网络结构中,以获得较好的文本分类效果。其计算公式为E4=TextCNN(E3)。
步骤46:将TextCNN输出的特征E4进行全连接神经网络计算,以使得输出特征维度与GRU模块输出特征维度匹配,其计算公式为Y2=W′EYE4+b′EY。
步骤47:进行多标签文本预测,预测向量
步骤48:将预测标签与真实标签yi进行损失函数计算,通过反向传播算法对参数进行求解优化。损失函数公式为/>
步骤5:根据步骤1得到的网络学习资源质量核心要素项特征、步骤2得到的网络学习资源语义特征表示、步骤3得到的学习资源质量预测评分以及步骤4得到的网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。
网络学习资源质量分析报告生成模块主要将网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块得到的信息进行整合,同时设计了LSTM+Transformer的算法模型,以LSTM补充历史评论信息和提高基于注意力的信息表示,最终为资源建设者提供分析报告,帮助资源建设者实现及时精准地优化资源。发明设计的网络学习资源质量分析报告自动生成整体结构流程,如图5所示,通过LSTM将历史评论信息进行特征提取,从而提高基于注意力的信息表示。结合Transformer算法的编码和解码模块,辅以七大资源质量评价指标词,自动生成网络学习资源质量评估文本。步骤如下:
步骤51:首先以设置评论数据选取的时间节点,例如,可以将第t-1时刻和第t时刻之间的所有评论整理为评论文本文档,并使用预训练模型对评论数据进行词向量嵌入,该向量表示为Er。
步骤52:将Er输入多层LSTM结构中,以捕捉不同评论中的时间信息,并提高单纯使用Transformer模型的信息表示能力,输出新的特征表示EL。
步骤53:将Er输入Transformer编码层,以捕捉不同词语之间的位置信息,输出新的特征表示ET。
步骤54:将EL和Er特征进行融合,通过Transformer编码层输出新的特征表示E′T,通过Transformer编码层再次深度提取评论中所蕴含的信息。
步骤55:将E′T输入Transformer解码层,并将14类评价维度指标词作为最终输出的引导。经过Transformer解码层提取大量评论数据中的关键信息,最终从每个评价维度生成一句在该评价维度的整体性评语。
步骤56:将网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块得到的信息融合到资源质量分析报告中,以帮助资源建设者精准有效地优化资源质量。整个分析报告的结构如图5中网络学习资源评估分析报告所示。
一种基于多模态数据的网络学习资源质量评估系统,采用上述基于多模态数据的网络学习资源质量评估方法,包括网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块、网络学习资源质量分析报告生成模块,其中:
所述网络学习资源质量核心要素项特征提取模块用于采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征。学习资源核心要素项是指能够反映学习资源在协作与分享过程中产生的交互行为数据,如内容编辑次数、版本更新次数、浏览量、批注量等数据。核心要素项特征主要是基于该类数据以特定结构的神经网络算法模型进行提取。
所述网络学习资源语义特征表示模块用于采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示。学习资源内容信息是指学习资源内容本身所包含的信息,如标题、关键词、摘要、内容、章节目录等信息。资源语义特征表示主要是基于该类信息以BERT预训练模型对文本的特征进行提取。评论数据关键信息抽取指以学习资源前后版本发布的时间为时间段,将该时间段内与学习资源相关的所有评论数据作为输入,利用LSTM+Transformer编码和解码的方式,生成学习资源质量评价的自然语言表述,以帮助资源建设者快速定位问题。
所述学习资源质量预测评分模块用于采用循环信息差神经网络RIDNN对得到的网络学习资源质量核心要素项特征和网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分。学习资源质量预测评分模块主要从学习资源核心要素项和学习资源内容两个方面设计对应的特征提取算法,再以向量拼接的方式输入学习资源质量评分预测算法模块,从而实现学习资源质量的评分预测。学习资源质量评分预测算法指将学习资源核心要素项特征和学习资源语义特征进行拼接,拼接后的向量作为该算法模块的输入。该算法模块主要采用循环神经网络+前馈神经网络的方式进行学习资源质量评分预测。
所述网络学习资源评价维度分类模块用于通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类。网络学习资源评价维度分类模块主要从学习资源相关的评论信息中提取评价信息特征进行评价维度分类。抽取评论数据所获得的关键信息作为网络学习资源质量分析报告生成模块中分析报告的重要组成部分。评价维度归类指将与学习资源相关的评论数据按照学习资源评价指标体系进行分类统计。分类算法主要采用BERT预训练模型+TextCNN的算法模型实现学习资源质量评价指标多分类任务,以输出当前评论所属的评价指标维度和情感倾向。
所述网络学习资源质量分析报告生成模块用于根据得到的网络学习资源质量核心要素项特征、网络学习资源语义特征表示、学习资源质量预测评分以及网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。网络学习资源质量分析报告生成模块主要将评分预测和评价信息进行整合,通过模板化的评估信息输出和引导类评价信息输出结合的方式,为资源建设者提供分析报告,帮助资源建设者实现及时精准地优化资源。
网络学习资源质量分析报告生成模块中的模板化评估信息输出指将学习资源质量预测的评分和评价维度归类信息作为一种固定搭配的输出。例如,在学习资源质量分析报告中以“学习资源质量评估分数为XX,目前在内容准确性方面负向评论XX条,在内容完整性方面负向评论XX条”。其中XX由步骤(2)中的算法完成之后统计所得。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种基于多模态数据的网络学习资源质量评估方法,其特征在于,包括以下步骤:
步骤1,采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征;
步骤2,采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示;
步骤3:采用循环信息差神经网络RIDNN对步骤1得到的网络学习资源质量核心要素项特征和步骤2得到的网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分;
步骤4,通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类;
步骤5:根据步骤1得到的网络学习资源质量核心要素项特征、步骤2得到的网络学习资源语义特征表示、步骤3得到的学习资源质量预测评分以及步骤4得到的网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。
2.根据权利要求1所述基于多模态数据的网络学习资源质量评估方法,其特征在于:步骤1中采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取的方法,包括以下步骤:
步骤11,将网络学习资源质量核心要素项编码作为循环网络的输入Xt,Xt表示第t版本的网络学习资源质量核心要素项输入;
步骤12,计算ft,ft用于保留第t-1版和第t版学习资源核心要素项的增益信息;
ft=sigmoid(Xt-Xt-1)
其中,ft表示不同版本学习资源要素项增益信息特征,sigmoid表示神经网络非线性激活函数,Xt表示第t版学习资源要素项特征;
步骤13,计算ot,ot用于第t版学习资源核心要素项信息过滤;
ot=(1-sigmoid(Whoht-1+WxoXt))⊙tanh(Whoht-1+WxoXt)
其中,ot表示当前核心要素项经过信息过滤后保留重要信息的特征,Who表示隐藏层参数,ht-1表示隐藏向量,Wxo表示输入层参数,⊙表示矩阵点积;
步骤14,计算mt,mt用于保留当前学习资源特征Xt和历史特征ht-1提取中的有效信息;
mt=sigmoid(Whoht-1+WxoXt)
其中,mt表示从当前学习资源特征Xt和历史特征ht-1提取的特征向量;
步骤15,计算Ct,Ct用于将历史数据信息作为下一个网络单元输入,以实现历史多个版本重要信息的留存;
Ct=Ct-1⊙ft+ot
其中,Ct表示从历史数据信息中保留的第t版本时的重要信息特征;
步骤16,计算ht,ht为当前版本学习资源信息和历史版本学习资源信息提取所得的隐藏层特征;
ht=tanh(Ct)⊙mt
其中,ht表示当前版本学习资源信息和历史版本学习资源信息提取的隐藏层特征,Ct表示第t版本时的重要信息特征,tanh表示双曲正切函数;
步骤17,计算yt,yt为第t版学习资源核心要素项的特征表示,该特征提取是由隐藏向量ht经过前馈神经网络计算所得,将得到的yt作为资源质量评分预测算法的输入;
yt=Whyht+bty
其中,yt表示第t版本学习资源的评分预测,Why表示前馈神经网络的隐藏层参数,ht表示前馈神经网络的隐藏层向量,bty表示前馈神经网络的偏置项。
3.根据权利要求2所述基于多模态数据的网络学习资源质量评估方法,其特征在于:步骤2中采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示的方法,包括以下步骤:
步骤21:将网络学习资源的标题、关键词和摘要通过已经预训练好的词向量将相关内容表示为输入特征矩阵Xt1;
步骤22:将t-1时刻的输出向量表示y′t-1作为t-1版本的有效信息与t版本的特征进行有效融合,其计算公式为:
步骤23:将X′t1作为输入向量,输入到Transformer Encoder架构中进行第一级的特征计算,其计算公式表示为:ht1=TransformEncoder(X′t1);
步骤24:将第一级计算所得隐藏层向量ht1输入第二级Transformer Encoder结构中,以实现关联章节目录信息,其计算公式表示为:其中X′t2表示章节目录内容经过预训练词向量嵌入后的输入;
步骤25:将第二级计算所得隐藏层向量ht2输入第三级Transformer Encoder结构中,以实现关联资源内容信息,其计算公式表示为:其中X′t3表示资源内容经过预训练词向量嵌入后的输入,y′t表示最终经过训练之后所得t版本网络学习资源语义特征表示;
使用的注意力机制采用mask函数对其进行优化,
其中R,Z为超参数,x为输入值。
4.根据权利要求3所述基于多模态数据的网络学习资源质量评估方法,其特征在于:步骤3中采用循环信息差神经网络RIDNN得到学习资源质量预测评分的方法,包括以下步骤:
步骤31:将步骤1得到的网络学习资源质量核心要素项特征yt和步骤2得到的网络学习资源语义特征表示y′t作为循环信息差神经网络RIDNN的输入;yt和y′t特征首先是进行了向量拼接,其计算公式为其中Yt表示两者特征融合之后的特征;
步骤32:计算Ft;将第t版本的融合特征向量Yt与第t-1版本的融合特征向量Yt-1做信息差,其计算公式为Ft=sigmoid(Yt-Yt-1);
步骤33:计算Mt;结合信息差特征和当前版本的特征,计算Mt,以实现当前版本中信息变化量的蒸馏;其计算公式为Mt=Ft⊙tanh(Mt);
步骤34:计算Ht;计算隐藏层向量Ht,即可作为下一阶段历史信息的输入,也可作为输出向量;其计算公式为
步骤35:计算 表示为学习资源质量预测评分,该数值主要是基于Ht的前馈神经网络计算所得;其计算公式为/>
采用均方根误差函数作为损失函数,其计算公式为:
其中n为网络学习资源数量。
5.根据权利要求4所述基于多模态数据的网络学习资源质量评估方法,其特征在于:步骤4中通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类的方法,包括以下步骤:
步骤41:对评论数据进行处理,通过BERT预训练模型,将评论数据编码为对应的词向量E1;
步骤42:将评论数据词向量E1输入门控循环神经网络GRU,以捕捉评论数据中的上下级信息,其计算公式为E2=GRU(E1);
步骤43:将GRU模型输出向量E2输入全连接神经网络进行特征表示,以使得输出特征维度与TextCNN模块输出特征维度匹配。其计算公式(4-2)为Y1=WEYE2+bEY;
步骤44:对评论数据进行处理,通过jieba分词和预训练BERT模型对评论数据进行编码,编码后特征矩阵为E3;
步骤45:将特征矩阵E3输入到TextCNN网络结构中,以获得较好的文本分类效果。其计算公式为E4=TextCNN(E3);
步骤46:将TextCNN输出的特征E4进行全连接神经网络计算,以使得输出特征维度与GRU模块输出特征维度匹配,其计算公式为Y2=W′EYE4+b′EY;
步骤47:进行多标签文本预测,预测向量
步骤48:将预测标签与真实标签yi进行损失函数计算,通过反向传播算法对参数进行求解优化;损失函数公式为/>
6.根据权利要求5所述基于多模态数据的网络学习资源质量评估方法,其特征在于:步骤5中通过LSTM Transformer网络生成网络学习资源质量分析报告的方法,包括以下步骤:
步骤51:首先以设置评论数据选取的时间节点,并使用预训练模型对评论数据进行词向量嵌入,该向量表示为Er;
步骤52:将Er输入多层LSTM结构中,以捕捉不同评论中的时间信息,并提高单纯使用Transformer模型的信息表示能力,输出新的特征表示EL;
步骤53:将Er输入Transformer编码层,以捕捉不同词语之间的位置信息,输出新的特征表示ET;
步骤54:将EL和Er特征进行融合,通过Transformer编码层输出新的特征表示E′T,通过Transformer编码层再次深度提取评论中所蕴含的信息;
步骤55:将E′T输入Transformer解码层,并将评价维度指标词作为最终输出的引导;经过Transformer解码层提取大量评论数据中的关键信息,最终从每个评价维度生成一句在该评价维度的整体性评语。
7.一种基于多模态数据的网络学习资源质量评估系统,其特征在于:采用权利要求1所述基于多模态数据的网络学习资源质量评估方法,包括网络学习资源质量核心要素项特征提取模块、网络学习资源语义特征表示模块、学习资源质量预测评分模块、网络学习资源评价维度分类模块、网络学习资源质量分析报告生成模块,其中:
所述网络学习资源质量核心要素项特征提取模块用于采用学习资源信息门控循环单元对网络学习资源质量核心要素项特征进行提取,得到网络学习资源质量核心要素项特征;
所述网络学习资源语义特征表示模块用于采用三级Transformer动态注意力网络对网络学习资源进行评估得到网络学习资源语义特征表示;
所述学习资源质量预测评分模块用于采用循环信息差神经网络RIDNN对得到的网络学习资源质量核心要素项特征和网络学习资源语义特征表示进行网络学习资源质量评分预测,得到学习资源质量预测评分;
所述网络学习资源评价维度分类模块用于通过BERT预训练模型和TextCNN模型对评论数据进行处理,得到网络学习资源评价维度分类;
所述网络学习资源质量分析报告生成模块用于根据得到的网络学习资源质量核心要素项特征、网络学习资源语义特征表示、学习资源质量预测评分以及网络学习资源评价维度分类通过LSTM Transformer网络生成网络学习资源质量分析报告。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310489130.5A CN116523402B (zh) | 2023-05-04 | 2023-05-04 | 一种基于多模态数据的网络学习资源质量评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310489130.5A CN116523402B (zh) | 2023-05-04 | 2023-05-04 | 一种基于多模态数据的网络学习资源质量评估方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116523402A true CN116523402A (zh) | 2023-08-01 |
CN116523402B CN116523402B (zh) | 2024-04-19 |
Family
ID=87402526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310489130.5A Active CN116523402B (zh) | 2023-05-04 | 2023-05-04 | 一种基于多模态数据的网络学习资源质量评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116523402B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116862318A (zh) * | 2023-09-04 | 2023-10-10 | 国电投华泽(天津)资产管理有限公司 | 基于文本语义特征提取的新能源项目评价方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390387A (zh) * | 2018-04-20 | 2019-10-29 | 伊姆西Ip控股有限责任公司 | 对深度学习应用所用资源进行评估 |
CN111221915A (zh) * | 2019-04-18 | 2020-06-02 | 江苏大学 | 基于CWK-means的在线学习资源质量分析方法 |
CN111737570A (zh) * | 2020-06-10 | 2020-10-02 | 之江实验室 | 多模态在线学习资源网络推荐系统及其推荐方法 |
US20220027562A1 (en) * | 2020-07-21 | 2022-01-27 | Salesforce.Com, Inc. | Discovery and recommendation of online learning resources |
-
2023
- 2023-05-04 CN CN202310489130.5A patent/CN116523402B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390387A (zh) * | 2018-04-20 | 2019-10-29 | 伊姆西Ip控股有限责任公司 | 对深度学习应用所用资源进行评估 |
CN111221915A (zh) * | 2019-04-18 | 2020-06-02 | 江苏大学 | 基于CWK-means的在线学习资源质量分析方法 |
CN111737570A (zh) * | 2020-06-10 | 2020-10-02 | 之江实验室 | 多模态在线学习资源网络推荐系统及其推荐方法 |
US20220027562A1 (en) * | 2020-07-21 | 2022-01-27 | Salesforce.Com, Inc. | Discovery and recommendation of online learning resources |
Non-Patent Citations (1)
Title |
---|
熊玲: "基于链接分析的Web教学资源自动评价模型研究", 社会科学Ⅱ辑;信息科技, 15 February 2014 (2014-02-15), pages 1 - 62 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116862318A (zh) * | 2023-09-04 | 2023-10-10 | 国电投华泽(天津)资产管理有限公司 | 基于文本语义特征提取的新能源项目评价方法和装置 |
CN116862318B (zh) * | 2023-09-04 | 2023-11-17 | 国电投华泽(天津)资产管理有限公司 | 基于文本语义特征提取的新能源项目评价方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116523402B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112200317B (zh) | 多模态知识图谱构建方法 | |
Fu et al. | Aligning where to see and what to tell: Image captioning with region-based attention and scene-specific contexts | |
He et al. | See: Syntax-aware entity embedding for neural relation extraction | |
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
CN110287481B (zh) | 命名实体语料标注训练系统 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN111274790B (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
Duan et al. | Temporality-enhanced knowledgememory network for factoid question answering | |
CN114117070A (zh) | 一种知识图谱的构建方法、系统及存储介质 | |
CN116523402B (zh) | 一种基于多模态数据的网络学习资源质量评估方法及系统 | |
Zulqarnain et al. | An improved deep learning approach based on variant two-state gated recurrent unit and word embeddings for sentiment classification | |
Sun et al. | Multi-channel CNN based inner-attention for compound sentence relation classification | |
CN114429143A (zh) | 一种基于强化蒸馏的跨语言属性级情感分类方法 | |
Li et al. | Sentiment analysis of Weibo comments based on graph neural network | |
Jing et al. | Context-driven image caption with global semantic relations of the named entities | |
Zhao et al. | Video captioning based on vision transformer and reinforcement learning | |
Kung et al. | Intelligent pig‐raising knowledge question‐answering system based on neural network schemes | |
CN117094291B (zh) | 基于智能写作的自动新闻生成系统 | |
Shi | Research on parallelization of microblog emotional analysis algorithms using deep learning and attention model based on spark platform | |
CN114943216B (zh) | 基于图注意力网络的案件微博属性级观点挖掘方法 | |
CN116257616A (zh) | 面向音乐领域的实体关系抽取方法及系统 | |
Shan | Social network text sentiment analysis method based on CNN-BiGRU in big data environment | |
CN116361438A (zh) | 基于文本-知识扩展图协同推理网络的问答方法及系统 | |
Song | Distilling knowledge from user information for document level sentiment classification | |
Abbas et al. | The Performance Differences between Using Recurrent Neural Networks and Feedforward Neural Network in Sentiment Analysis Problem. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |