CN110620958A - 一种视频课程质量评估方法 - Google Patents

一种视频课程质量评估方法 Download PDF

Info

Publication number
CN110620958A
CN110620958A CN201910913098.2A CN201910913098A CN110620958A CN 110620958 A CN110620958 A CN 110620958A CN 201910913098 A CN201910913098 A CN 201910913098A CN 110620958 A CN110620958 A CN 110620958A
Authority
CN
China
Prior art keywords
video
feature
dragging
answer
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910913098.2A
Other languages
English (en)
Other versions
CN110620958B (zh
Inventor
殷明浩
徐欣
王煜淇
吴静怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Northeast Normal University
Original Assignee
Northeast Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Normal University filed Critical Northeast Normal University
Priority to CN201910913098.2A priority Critical patent/CN110620958B/zh
Publication of CN110620958A publication Critical patent/CN110620958A/zh
Application granted granted Critical
Publication of CN110620958B publication Critical patent/CN110620958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种视频课程质量评估方法,本发明分为九个步骤:总时长分段;获得视频的关于拖拽动作的拖拽特征;获得视频的关于添加笔记的笔记特征;获得视频的关于添加问题的问题特征;获得视频的关于添加回答问题的回答特征;获得视频的关于添加评论的评论特征;获得视频的关于视频属性的视频属性特征;构建视频质量分类器和视频受欢迎度分类器;得出视频的质量类别和受欢迎类别。本发明利用用户在观看视频时所产生的行为动作和视频属性对视频进行质量评估,评估过程公开客观,评估结果清晰准确。

Description

一种视频课程质量评估方法
技术领域
本发明涉及视频评估领域,具体是一种视频课程质量评估方法。
背景技术
如今,网络视频课程作为当今社会新起的一种教学方式更方便了广大老师学生们在学习方面的需求,但网络视频课程的优劣无法以一种客观的方式评定。早期,一般有两种方式评定视频课程质量,一种是专家评定,但专家评定需要消耗大量的人力物力,当需要评定的视频量较大时,这种方法更需要消耗大量的时间;另一种是观看者的反馈,但观看者自身知识水平不同,对不属于自身知识水平范围的视频课程会做出不符合视频本身水平的评价。
近年,有不少视频评价专家推出了自身认为最合格的评价标准,2001年,LynetteGillis等人提出的标准为:专家审阅每一项,确定每一项指标的得分概率。这些概率的平均值乘以项目总数,其结果就是最低限度的得分,最终的合格线是基于这种综合判断和平均标准误差的计算,最后,对每项得分计算各种分析和可靠性指数。然而通过几位专家的主观评分无法从视频的各方面客观评价。
发明内容
本发明的目的在于克服现有技术中视频课程的评价标准的效率低、存在大量主观因素的缺点,提供一种视频课程质量评估方法,以达到分别从视频质量和受欢迎度来客观评估课程视频的目的。
本发明的目的是通过以下步骤来实现的:
S1:将待测视频的总时长平均分为多个时间段;
S2:获得拖拽特征,将用户对所述待测视频的进度条进行拖拽动作的开始时间和结束时间嵌入到对应的所述时间段中,对所述时间段内产生的拖拽时长取平均值,将所述平均值作为所述时间段的拖拽特征,将每个时间段的所述拖拽特征集合成为所述待测视频的拖拽特征;
S3:获得笔记特征,记录用户添加笔记所在的时间段和所述时间段内的笔记数量,将所述笔记数量作为所述时间段的笔记特征,将每个时间段的所述笔记特征集合成为所述待测视频的笔记特征;
S4:获得问题特征,记录用户添加问题所在的时间段和所述时间段内的问题数量,将所述问题数量作为所述时间段的问题特征,将每个时间段的所述问题特征集合成为所述待测视频的问题特征;
S5:获得回答特征,记录用户添加问题答案所在的时间段和所述时间段内的问题答案数量,将所述问题答案数量作为所述时间段的回答特征,将每个时间段的所述回答特征集合成为所述待测视频的回答特征;
S6:获得评论特征,记录所述待测视频被评论的数量,将所述评论数量作为评论特征;
S7:获得视频属性,将所述待测视频的属性采用one-hot编码方式进行重新编码,输出包含视频属性特征信息的矩阵,将所述矩阵作为所述待测视频的视频属性特征;
S8:构建分类器,利用训练数据集分别对两个弱分类器进行训练,得到视频质量分类器和视频受欢迎度分类器;
S9:输出结果,将所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至所述视频质量分类器中,得出视频质量类别;将所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至所述视频受欢迎度分类器中,得出视频受欢迎度类别。
示例性地,步骤S2中的所述平均值的计算公式为:
其中,T为所述待测视频的总时长,N为所述时间段的段数;k为所述拖拽动作的发生次数;tn为第n个时间点,ts为所述拖拽动作的开始时间;te为所述拖拽动作的结束时间;tn-1为第n-1个时间点。
示例性地,步骤S7中的所述属性包括视频类型、针对年级、所属学段、观看次数。
示例性地,步骤S8中的所述分类器训练过程为:
S101:对选为所述训练数据集的已知分类类别的训练样本进行数据清洗,将经数据清洗后的的所述训练样本作为训练集;
S102:将所述训练集输入至分类器中,训练所述分类器,得出分类错误的训练样本;
S103:将S102中所述分类错误的训练样本输入至所述分类器,调节所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征的权重,再次训练所述分类器;
S104:重复S102~S103直至所述分类器将所述训练集全部分类正确。
示例性地,所述数据清洗的步骤为:
S1001:删除时长异常的所述训练样本;
S1002:只保留所述训练样本中的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征;
S1003:将所述训练样本按所述视频属性特征进行分类,得到同一类所述训练样本中关于所述拖拽特征、笔记特征、问题特征、回答特征、评论特征的统计数值,按所述统计数值填充所述训练样本缺失的所述拖拽特征、笔记特征、问题特征、回答特征;
S1004:利用min-max标准化方法将经S1003处理后的所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征都映射到标准化数值区间,将标准化后的所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征作为所述训练样本的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征。
示例性地,所述时长异常的判断方法为:
确定所述训练数据集的平均时长,将时长长于两倍所述平均时长或小于所述平均时长二分之一的所述训练样本判断为时长异常。
示例性地,所述统计数值包括均值、中位数、众数。
示例性地,所述min-max标准化的计算公式为:
其中,M’表示标准化后的特征数值,M表示原始特征数值,Mmin表示一组特征数据的最小值,Mmax表示一组特征数据的最大值。
与现有技术相比,本发明的有益效果是:
本发明利用视频中各特征值,训练出视频质量分类器和视频受欢迎度分类器,从而得出视频的质量类别和受欢迎类别。本发明充分考虑了用户在观看视频时所产生的行为动作和视频本身属性,使本发明的视频课程质量评估结果近似于专家对视频评估的结果和用户主观观看视频质量的评估结果。
附图说明
图1为本发明的流程图;
图2为本发明关于数据清洗的流程图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
本发明的流程图如图1所示,实施步骤为:
(1)步骤一:总时长分段。
将视频的总时长进行分段,这里将视频平均分为10个时间段。分段公式为:
其中,T为视频总时长,tn为每个时间段的时长。
(2)步骤二:获得拖拽特征。
一般,每个视频课程不会整节课都是重点内容,比如在课程的开头老师通常会讲一些相关的背景知识来引出这节课所要讲的内容,而观众在观看视频时可能会选择跳过这个过程,直接拖动进度条调整到他想要了解的知识点。
用户观看视频时所有产生的拖拽动作都有开始时间和结束时间,按照动作的开始时间和结束时间将这些动作特征嵌入到10个时间段中,对所有用户在同一视频中10个时间段内嵌入的时长取平均值,用这个平均值作为待测视频在每个时间段中的拖拽特征嵌入。
取平均值的公式为:
其中,T为待测视频的总时长,N为时间段的段数;k为拖拽动作的发生次数;tn为第n个时间点,ts为拖拽动作的开始时间;te为拖拽动作的结束时间;tn-1为第n-1个时间点。
10个时间段的平均值集合成为待测视频的拖拽特征。
(3)步骤三:获得笔记特征。
用户观看视频时产生的添加笔记动作会有相同的开始时间和结束时间,当我们嵌入笔记特征时只需要记录动作在开始时位于哪一段时间段中,最后记录该时间段添加笔记的数量,将该时间段添加笔记的数量作为当前时间段的笔记特征。10个时间段的笔记特征集合成为待测视频的笔记特征。
(4)步骤四:获得问题特征。
用户观看视频时产生的添加问题动作会有相同的开始时间和结束时间,当我们嵌入添加问题特征时只需要记录动作在开始时位于哪一段时间段中,最后记录该时间段添加问题的数量,将该时间段添加问题的数量作为该时间段的问题特征。10个时间段的问题特征集合成为待测视频的问题特征。
(5)步骤五:获得回答特征。
用户观看视频时产生的添加问题答案的动作会有相同的开始时间和结束时间,当我们嵌入回答特征时只需要记录动作在开始时位于哪一段时间段中,最后记录每个时间段问题答案的数量,将该时间段添加问题答案的数量作为该时间段的回答特征嵌入。10个时间段的回答特征集合成为待测视频的回答特征。
(6)步骤六:获得评论特征。
因为用户在添加评论时是在观看完整视频之后,所以添加评论并没有开始时间和结束时间,我们只需要记录每个视频课程被评论的总数即可,将视频课程被评论的总数作为待测视频的评论特征嵌入。
(7)步骤七:获得视频属性特征。
在数据处理过程中经常会遇到类别数据,需要将其转换为数值计算,在这个问题上经常使用One-hot编码处理类别数据,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有独立的寄存器位,并且在任意时候均只有一位有效,可以理解为对有m个取值的特征经过独热编码处理后,转为m个二元特征,每次只有一个激活。
将视频本身属性采用one-hot编码的方式进行重新编码,作为视频属性特征嵌入,视频属性特征包括视频类型、针对年级、所属学段、微课所属类型和观看次数。采用one-hot编码方式重新编码后输出包含视频属性特征的矩阵,将矩阵作为待测视频的视频属性特征嵌入。
本实施例中的视频类型包括实录课程、校本课程、地方课程、专题课程、教育学会提供的课程、心理健康教育辅导课程、混合课程、学习信息推送的课程、教材培训和校园文化等类别;微课所属类型包括习题精讲、知识点精讲、引导研究、展示欣赏、科学实验、合作学习、活动、研究性学习和语言技能等类别。
(8)步骤八:构建分类器。
构建视频质量分类器和视频受欢迎度分类器,分别对视频质量分类器和视频受欢迎度分类器进行训练,得到视频质量分类器和视频受欢迎度分类器。
本实施例中选择47744门视频课程,涵盖了小学、初中、高中三个学段的12个年级作为挑选对象,并提取出970多万条用户观看视频课程时所产生的动作行为。经过数据清洗选择了其中3831个视频课程和其中405万条行为数据作为训练集。本实例中将课程视频分别从视频质量和视频受欢迎度两方面分别分类为合格和不合格两类。
如图2所示,数据清洗过程为:
1.确定训练集中已知分类的课程视频的平均时长,删除时长长于两倍平均时长或远短于平均时长二分之一的课程视频;
2.去除视频数据中除拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征以外的特征;
3.将训练集按视频属性特征进行分类,得到同一视频属性特征的训练集中关于拖拽特征、笔记特征、问题特征、回答特征、评论特征的均值、中位数、众数等统计数值,按统计数值填充训练集中课程视频缺失的拖拽特征、笔记特征、问题特征、回答特征;
4.利用min-max标准化方法将处理后的视频课程的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征都映射到标准化数值区间。其中,min-max标准化的计算公式为:
其中,M’表示标准化后的特征数值,M表示原始特征数值,Mmin表示一组特征数据的最小值,Mmax表示一组特征数据的最大值。
视频质量分类器的训练过程为:
1.将训练集中每一个训练样本的拖拽特征、笔记特征、问题特征、回答问题特征、评论特征、视频属性特征均赋予相同的权重,训练分类器;
2.选出第1步中分类器分类错误的训练样本,分别调节拖拽特征、笔记特征、问题特征、回答问题特征、评论特征、视频属性特征的权重,再训练分类器;
3.重复进行第2-3步,直至分类器能够将所有训练样本分类正确。
视频受欢迎度分类器的训练过程为:
1.将训练集中每一个训练样本的拖拽特征、笔记特征、问题特征、回答问题特征、评论特征、视频属性特征均赋予相同的权重,训练分类器;
2.选出第1步中分类器分类错误的训练样本,分别提高拖拽特征、笔记特征、问题特征、回答问题特征、评论特征、视频属性特征的权重,再训练分类器;
3.重复进行第2-3步,直至分类器能够将所有训练样本分类正确。
(9)步骤九:输出结果。
将待测视频的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至视频质量分类器中,得出视频质量类别;将待测视频的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至视频受欢迎度分类器中,得出视频受欢迎度类别。
其中,步骤二至步骤七的特征获取部分的过程步骤顺序可以任意调换。
综上,本发明利用视频中各特征值,训练出视频质量分类器和视频受欢迎度分类器,从而得出视频的质量类别和受欢迎类别。本发明充分考虑了用户在观看视频时所产生的行为动作和视频属性,使本发明的视频课程质量评估结果近似于专家对视频评估的结果和用户主观观看视频质量的评估结果。此外,本发明的适用范围广泛,只要有用户观看视频时产生的动作行为和视频属性就可以对视频进行评估。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他集合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (8)

1.一种视频课程质量评估方法,其特征在于,包括以下步骤:
S1:将待测视频的总时长平均分为多个时间段;
S2:获得拖拽特征,将用户对所述待测视频的进度条进行拖拽动作的开始时间和结束时间嵌入到对应的时间段中,对所述时间段内产生的拖拽时长取平均值,将所述平均值作为所述时间段的拖拽特征,将每个时间段的所述拖拽特征集合成为所述待测视频的拖拽特征;
S3:获得笔记特征,记录用户添加笔记所在的时间段和所述时间段内的笔记数量,将所述笔记数量作为所述时间段的笔记特征,将每个时间段的所述笔记特征集合成为所述待测视频的笔记特征;
S4:获得问题特征,记录用户添加问题所在的时间段和所述时间段内的问题数量,将所述问题数量作为所述时间段的问题特征,将每个时间段的所述问题特征集合成为所述待测视频的问题特征;
S5:获得回答特征,记录用户添加问题答案所在的时间段和所述时间段内的问题答案数量,将所述问题答案数量作为所述时间段的回答特征,将每个时间段的所述回答特征集合成为所述待测视频的回答特征;
S6:获得评论特征,记录所述待测视频被评论的数量,将所述评论数量作为评论特征;
S7:获得视频属性,将所述待测视频的属性采用one-hot编码方式进行重新编码,输出包含视频属性特征信息的矩阵,将所述矩阵作为所述待测视频的视频属性特征;
S8:构建分类器,利用训练数据集分别对两个弱分类器进行训练,得到视频质量分类器和视频受欢迎度分类器;
S9:输出结果,将所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至所述视频质量分类器中,得出视频质量类别;将所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征输入至所述视频受欢迎度分类器中,得出视频受欢迎度类别。
2.根据权利要求1所述的视频课程质量评估方法,其特征在于:步骤S2中的所述平均值的计算公式为:
其中,T为所述待测视频的总时长,N为所述时间段的段数;k为所述拖拽动作的发生次数;tn为第n个时间点,ts为所述拖拽动作的开始时间;te为所述拖拽动作的结束时间;tn-1为第n-1个时间点。
3.根据权利要求1所述的视频课程质量评估方法,其特征在于,步骤S7中的所述属性包括视频类型、针对年级、所属学段、观看次数。
4.根据权利要求1所述的视频课程质量评估方法,其特征在于,步骤S8中的所述分类器训练过程为:
S101:对选为所述训练数据集的已知分类类别的训练样本进行数据清洗,将经数据清洗后的所述训练样本作为训练集;
S102:将所述训练集输入至分类器中,调节所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征的权重,训练所述分类器,得出分类错误的训练样本;
S103:将S102中所述分类错误的训练样本输入至所述分类器中,再次训练所述分类器;
S104:重复S102~S103直至所述分类器将所述训练集全部分类正确。
5.根据权利要求4所述的视频课程质量评估方法,其特征在于,所述数据清洗的步骤为:
S1001:删除时长异常的训练样本;
S1002:只保留所述训练样本中的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征;
S1003:将所述训练样本按所述视频属性特征进行分类,得到同一类所述训练样本中关于所述拖拽特征、笔记特征、问题特征、回答特征、评论特征的统计数值,按所述统计数值填充所述训练样本缺失的所述拖拽特征、笔记特征、问题特征、回答特征;
S1004:利用min-max标准化方法将经S1003处理后的所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征都映射到标准化数值区间,将标准化后的所述拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征作为所述训练样本的拖拽特征、笔记特征、问题特征、回答特征、评论特征、视频属性特征。
6.根据权利要求5所述的视频课程质量评估方法,其特征在于,所述时长异常的判断方法为:
确定所述训练数据集的平均时长,将时长长于两倍所述平均时长或小于所述平均时长二分之一的训练样本判断为时长异常。
7.根据权利要求5所述的视频课程质量评估方法,其特征在于,所述统计数值包括均值、中位数、众数。
8.根据权利要求5所述的视频课程质量评估方法,其特征在于,所述min-max标准化的计算公式为:
其中,M’表示标准化后的特征数值,M表示原始特征数值,Mmin表示一组特征数据的最小值,Mmax表示一组特征数据的最大值。
CN201910913098.2A 2019-09-25 2019-09-25 一种视频课程质量评估方法 Active CN110620958B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910913098.2A CN110620958B (zh) 2019-09-25 2019-09-25 一种视频课程质量评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910913098.2A CN110620958B (zh) 2019-09-25 2019-09-25 一种视频课程质量评估方法

Publications (2)

Publication Number Publication Date
CN110620958A true CN110620958A (zh) 2019-12-27
CN110620958B CN110620958B (zh) 2021-05-25

Family

ID=68924677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910913098.2A Active CN110620958B (zh) 2019-09-25 2019-09-25 一种视频课程质量评估方法

Country Status (1)

Country Link
CN (1) CN110620958B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111314792A (zh) * 2020-02-27 2020-06-19 北京奇艺世纪科技有限公司 一种笔记生成方法和电子设备
CN111565335A (zh) * 2020-06-01 2020-08-21 中国联合网络通信集团有限公司 视频质量评价方法、装置、计算机设备及存储介质
CN113259724A (zh) * 2021-06-25 2021-08-13 大学长(北京)网络教育科技有限公司 一种网课内容的检测方法及系统
CN116484051A (zh) * 2023-02-24 2023-07-25 广州沐思信息科技有限公司 一种基于知识培训平台的课程评估方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898294A (zh) * 2016-05-27 2016-08-24 乐视控股(北京)有限公司 一种视频质量评价方法及装置
CN107862970A (zh) * 2017-11-20 2018-03-30 无锡开放大学 一种用于翻转课堂的教学质量评价模型

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898294A (zh) * 2016-05-27 2016-08-24 乐视控股(北京)有限公司 一种视频质量评价方法及装置
CN107862970A (zh) * 2017-11-20 2018-03-30 无锡开放大学 一种用于翻转课堂的教学质量评价模型

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
云虹,王思懿: "基于视频吸引力分析的MOOC课程视频质量评价研究", 《黑龙江高教研究》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111314792A (zh) * 2020-02-27 2020-06-19 北京奇艺世纪科技有限公司 一种笔记生成方法和电子设备
CN111314792B (zh) * 2020-02-27 2022-04-08 北京奇艺世纪科技有限公司 一种笔记生成方法、电子设备及存储介质
CN111565335A (zh) * 2020-06-01 2020-08-21 中国联合网络通信集团有限公司 视频质量评价方法、装置、计算机设备及存储介质
CN111565335B (zh) * 2020-06-01 2021-09-03 中国联合网络通信集团有限公司 视频质量评价方法、装置、计算机设备及存储介质
CN113259724A (zh) * 2021-06-25 2021-08-13 大学长(北京)网络教育科技有限公司 一种网课内容的检测方法及系统
CN113259724B (zh) * 2021-06-25 2021-10-12 大学长(北京)网络教育科技有限公司 一种网课内容的检测方法及系统
CN116484051A (zh) * 2023-02-24 2023-07-25 广州沐思信息科技有限公司 一种基于知识培训平台的课程评估方法

Also Published As

Publication number Publication date
CN110620958B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN110620958B (zh) 一种视频课程质量评估方法
CN111027865B (zh) 基于行为和表情识别的教学分析与质量评估系统及方法
CN112614032B (zh) 基于大数据的教育软件数据处理方法
CN110443427A (zh) 基于认知知识谱的成绩预测方法及其系统
Alipourfard et al. Using Simpson’s paradox to discover interesting patterns in behavioral data
CN111460101A (zh) 知识点类型的识别方法、装置及处理器
CN111930925A (zh) 一种基于在线教学平台的试题推荐方法及系统
CN111597305B (zh) 实体标记方法、装置、计算机设备和存储介质
CN110993102A (zh) 一种基于校园大数据的学生行为与心理检测结果的精准分析方法及系统
CN115455186A (zh) 一种基于多模型的学情分析方法
CN110377802B (zh) 一种新增试题的知识点标注方法及系统
CN113822604B (zh) 一种基于智能分析的在线教育平台云资源管理系统
CN113869569A (zh) 一种基于决策树的学习成绩预测及个性化干预的方法
Oreski et al. CRISP-DM process model in educational setting
CN111681145B (zh) 一种开放式、快速题库建设和使用方法
CN111242131B (zh) 一种智能阅卷中图像识别的方法、存储介质及装置
CN112507792A (zh) 在线视频关键帧定位方法、定位系统、设备及存储介质
Madsen et al. Best practices for administering attitudes and beliefs surveys in physics
Khan et al. Using convolutional neural networks for smart classroom observation
de Gendre et al. Same-sex role model effects in education
Tan et al. Does informativeness matter? Active learning for educational dialogue act classification
Bajaj et al. Classification of Student Affective States in Online Learning using Neural Networks
Paris et al. The Impact of Optional: Investigating the Effects of Test-Optional Admissions Policies.
CN110046667B (zh) 一种基于深度神经网络学习评分数据对的教学评价方法
CN112597294A (zh) 一种习题智能推送方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant