CN112990723B - 基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 - Google Patents
基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 Download PDFInfo
- Publication number
- CN112990723B CN112990723B CN202110313166.9A CN202110313166A CN112990723B CN 112990723 B CN112990723 B CN 112990723B CN 202110313166 A CN202110313166 A CN 202110313166A CN 112990723 B CN112990723 B CN 112990723B
- Authority
- CN
- China
- Prior art keywords
- learning
- student
- education course
- education
- course
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
本发明公开基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法,通过对在线教育平台上的教育课程基本参数进行获取,并对各教育课程下的各学生在学习时长中的精神状态系数、学习关联度系数、学习互动度系数、学习专注度系数和学习成果优异度系数进行统计,并根据以上统计结果计算学生的综合学习力系数,进而反馈给学生自身和任课教师,实现了根据学生学习行为对学生在线学习力的综合可靠性评估,弥补了目前在线教育平台对学生在线学习力的评估方式存在的评估指标过于单一化、评估结果过于片面化的步骤,完善了评估指标范围,提高了评估结果的可靠度,满足了现在对学生在线学习力的综合可靠度高的评估需求。
Description
技术领域
本发明属于学生学习力分析技术领域,具体涉及基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法。
背景技术
随着经济社会的不断发展,学校越来越注重培养学生的学习力,而伴随着互联网技术被广泛应用到了教育教学领域,学校教学也从单一的课堂教学逐步转变为在线教学和课程教学混合式教学,由此诞生了在线教育平台,在线教育的优势在于突破了传统教室教学的时间和空间限制,不仅能为学生创建开放性的教学环境,也能为教师的日常教学提供了更丰富的教学方法和手段。正式由于在线教育存在不受时间和空间限制的特点,导致学生在在线教育平台学习时,老师无法在旁边监督,因此需要在线教育平台对学生的在线学习力进行评估反馈。
但目前的在线教育平台对学生在线学习力的评估方式大多只根据学生的课后测试成绩去评估。该评估方式的评估指标过于单一,忽略了学生在在线学习过程中的学习行为对学生在线学习力的影响,如面部精神状态、学习互动状况、学习专注度等,这些学习行为都会潜移默化地影响学生的学习力。由此导致该评估方式得到的评估结果过于片面化,可靠度低,无法综合反映学生的在线学习力,难以满足现在对学生在线学习力的综合可靠度高的评估需求。
发明内容
鉴于上述问题,本发明提出基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法,通过对学生在在线教育平台学习时的精神状态系数、学习关联度系数、学习互动度系数、学习专注度系数和学习成果优异度系数进行统计,并根据以上统计结果计算学生的综合学习力系数,进而反馈给学生自身和任课教师,实现了根据学生学习行为对学生在线学习力的综合可靠性评估。
本发明的目的可以通过以下技术方案实现:
基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法,包括以下步骤;
S1.教育课程统计及教育课程基本参数集合构建:对在线教育平台上存在的教育课程数量进行统计,并对统计的各教育课程按照预设的顺序进行编号,依次标记为1,2...i...n,同时对各教育课程对应的课程时长和任课教师姓名进行获取,进而将获取的各教育课程对应的课程时长和任课教师构成教育课程基本参数集合Pw(pw1,pw2,...,pwi,...,pwn),pwi表示为第i个教育课程的基本参数对应的数值,w表示为基本参数,w=d1,d2,分别表示为课程时长、任课教师姓名;
S2.教育课程下学习的学生统计:对各教育课程下学习的学生数量进行统计,并对统计的各教育课程下学习的各学生进行编号,分别标记为1,2...j...m,其中各学生分别对应一个在线学习视频采集终端;
S3.学生学习视频分解及保留处理:统计各教育课程下各学生对应的学习时长,并在各教育课程各学生对应的学习时长内,通过各学生对应的在线学习视频采集终端采集各学生在整个学习时长内的学习视频,并将采集得到的各教育课程下各学生在整个学习时间内的学习视频按照设置的视频帧数分解为若干学习图像,同时将各教育课程下各学生的学习视频分解的各学习图像进行图像保留处理操作,得到若干保留学习图像,进而将各教育课程下各学生对应的各保留学习图像进行编号,依次标记为1,2...a...z;
S4.学生精神状态系数及学习关联度系数分析:将各教育课程下各学生对应的各保留学习图像进行高清处理,并对处理后的保留学习图像其分别聚焦在学生面部区域和手部区域,以此从学生的面部区域提取学生的面部表情特征,从学生的手部区域获取学生手中拿握的物体名称,从而将提取的学生的面部表情特征与学习状态数据库中各种表情对应的表情特征进行对比,由此筛选出各教育课程下各学生的各个保留学习图像中对应的表情种类,并将其与学习状态数据库中各种精神状态系数对应的表情种类进行对比,从而得出各教育课程下的各学生的各个保留学习图像对应的精神状态系数,并构成教育课程学生精神状态系数集合εi j(εi j1,εi j2,...,εi ja,...,εi jz),εi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的精神状态系数,与此同时将提取的学生手中拿握的物体名称与学习状态数据库中各种物体对应的学习关联度系数进行对比,由此筛选出各教育课程下的各学生的各个保留学习图像对应的学习关联度系数,并构成教育课程学生学习关联度系数集合ηi j(ηi j1,ηi j2,...,ηi ja,...,ηi jz),ηi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的学习关联度系数;
S5.教育课程学生与任课教师互动时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生与任课教师的互动次数,并对各学生与任课教师的各次互动按照互动时间点的先后顺序进行编号,分别标记为1,2...k...y,同时统计各学生与任课教师的各次互动对应的互动时长,由此将各教育课程下各学生与任课教师的各次互动对应的互动时长构成教育课程学生与任课教师互动时长集合ti j(ti j1,ti j2,...,ti jk,...,ti jy),ti jk表示为第i个教育课程下的第j个学生与任课教师的第k次互动对应的互动时长;
S6.学生对应学习互动度系数统计:根据教育课程学生与任课教师互动时长集合统计各教育课程下各学生与任课教师对应的总互动时长,其计算公式为并根据各教育课程下各学生与任课教师对应的总互动时长和各学生与任课教师的互动次数统计各教育课程下各学生与任课教师对应的平均互动时长,其计算公式为由此根据各教育课程下各学生与任课教师对应的总互动时长、平均互动时长和各学生对应的学习时长统计各教育课程下各学生对应的学习互动度系数;
S7.教育课程学生眼睛离开屏幕时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生的眼睛离开屏幕的次数,并对各学生的眼睛离开屏幕的次数按照眼睛离开屏幕的时间点的先后顺序进行编号,分别标记为1,2...b...x,同时统计各学生的眼睛每次离开屏幕对应的离开时长,由此将各教育课程下各学生的眼睛每次离开屏幕对应的离开时长构成教育课程学生眼睛离开屏幕时长集合Ti j(Ti j1,Ti j2,...,Ti jb,...,ti jx),Ti jb表示为第i个教育课程下的第j个学生的眼睛第b次离开屏幕对应的离开时长;
S8.学生对应学习专注度系数统计:从教育课程基本参数集合中提取各教育课程对应的课程时长,并根据各教育课程对应的课程时长、各教育课程下各学生对应的学习时长和教育课程学生眼睛离开屏幕时长集合统计各教育课程下各学生对应的学习专注度系数;
S9.学生对应学习成果优异度系数统计:在各教育课程结束后,获取各教育课程下各学生对应的测试分数,进而统计各教育课程下各学生对应的学习成果优异度系数;
S10.学生对应综合学习力系数统计及反馈:根据教育课程学生精神状态系数集合、教育课程学生学习关联度系数集合、各教育课程下各学生对应的学习互动度系数、各教育课程下各学生对应的学习专注度系数和各教育课程下各学生对应的学习成果优异度系数统计各教育课程下各学生对应的综合学习力系数,同时从教育课程基本参数集合中提取各教育课程对应的任课教师姓名,以此将各教育课程下各学生对应的综合学习力系数分别反馈给对应的任课教师和学生本人。
较优化地,所述S3中统计各教育课程下各学生对应的学习时长,其具体统计方法执行以下步骤:
H1:获取各教育课程开始上课时各学生打开在线学习视频采集终端的时间点和关闭在线学习视频采集终端的时间点;
H2:将各学生关闭在线学习视频采集终端的时间点减去打开在线学习视频采集终端的时间点,得到各教育课程下各学生对应的学习时长。
较优化地,所述图像保留处理操作具体操作过程为对各教育课程下的各学生学习视频分解的若干学习图像进行人脸部轮廓和手部轮廓提取,若某学习图像中能够提取到人脸部轮廓和手部轮廓,则保留该学习图像,该保留下的学习图像记为保留学习图像,反之,则去除该学习图像,由此得到保留下的若干保留学习图像。
较优化地,所述各教育课程下各学生对应的学习互动度系数的计算公式为λi j表示为第i个教育课程下第j个学生对应的学习互动度系数,分别表示为第i个教育课程下第j个学生与任课教师对应的总互动时长、平均互动时长,表示为第i个教育课程下第j个学生的学习时长。
较优化地,所述S7中统计各学生的眼睛离开屏幕的次数及每次离开屏幕对应的离开时长,其具体统计方法为在各学生对应的学习时长过程中,各学生的在线学习视频采集终端实时监测各学生的眼睛,当在线学习视频采集终端采集不到学生的眼睛时,则表明学生的眼睛离开屏幕,此时启动计时器进行计时,当在线学习视频采集终端能够采集到学生的眼睛时,则终止计时器计时,由此将计时器终止计时的时间点减去开始计时的时间点,得出学生的眼睛此次离开屏幕对应的离开时长。
较优化地,所述各教育课程下各学生对应的学习专注度系数的计算公式为ξi j表示为第i个教育课程下第j个学生对应的学习专注度系数,表示为第i个教育课程下第j个学生的学习时长,pd1i表示为第i个教育课程的课程时长。
较优化地,所述各教育课程下各学生对应的学习成果优异度系数的统计方法为将各教育课程下各学生对应的测试分数除以该教育课程的满分分数。
较优化地,所述各教育课程下各学生对应的综合学习力系数的计算公式为表示为第i个教育课程下第j个学生对应的综合学习力系数,σi j表示为第i个教育课程下第j个学生对应的学习成果优异度系数,α1、α2、α3、α4、α5分别表示为精神状态、学习关联度、学习互动度、学习专注度、学习成果优异度对应综合学习力的影响因子,且α1+α2+α3+α4+α5=1。
本发明的有益效果如下:
(1)本发明通过对在线教育平台上的教育课程基本参数进行获取,并对各教育课程下学习的学生进行统计,进而分别对各教育课程下的各学生在学习时长中的面部表情、手中拿握的物体名称、与任课教师互动次数及互动时长、眼睛离开屏幕的次数及离开时长、课后测试分数进行采集,以此统计各教育课程下各学生的精神状态系数、学习关联度系数、学习互动度系数、学习专注度系数和学习成果优异度系数,从而综合以上统计各教育课程下各学生的综合学习力系数,实现了根据学生学习行为对学生在线学习力的综合可靠性评估,弥补了目前在线教育平台对学生在线学习力的评估方式存在的评估指标过于单一化、评估结果过于片面化的步骤,完善了评估指标范围,提高了评估结果的可靠度,满足了现在对学生在线学习力的综合可靠度高的评估需求。
(2)本发明在统计各教育课程下各学生的学习专注度系数过程中,通过结合各教育课程的课程时长、各教育课程下各学生的学习时长以及学生在学习时长中眼睛离开屏幕的次数及离开时长来综合统计学生的学习专注度,该统计结果更加能反映学生在学习过程中的专注度,避免只根据教育课程的时长和学生的学习时长进行统计造成的统计笼统化、缺乏过程透统计、缺精准度不高的问题,影响后面统计学生综合学习力系数的可靠度。
(3)本发明在统计出各教育课程下各学生的综合学习力系数时,将其反馈给学生自身和任课教师,一方面便于学生及时了解自身的学习力状况,另一方面为任课教师根据该教育课程下各学生的综合学习力系数进行教课方式调整提供相关可靠的参考依据。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1为本发明的方法实施步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1所示,基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法,包括以下步骤;
S1.教育课程统计及教育课程基本参数集合构建:对在线教育平台上存在的教育课程数量进行统计,并对统计的各教育课程按照预设的顺序进行编号,依次标记为1,2...i...n,同时对各教育课程对应的课程时长和任课教师姓名进行获取,进而将获取的各教育课程对应的课程时长和任课教师构成教育课程基本参数集合Pw(pw1,pw2,...,pwi,...,pwn),pwi表示为第i个教育课程的基本参数对应的数值,w表示为基本参数,w=d1,d2,分别表示为课程时长、任课教师姓名;
本实施例通过对在线教育平台上的教育课程基本参数进行获取,一方面为后面统计学生的专注度系数提供相关参数,另一方面为学生综合学习力的反馈提供反馈方向;
S2.教育课程下学习的学生统计:对各教育课程下学习的学生数量进行统计,并对统计的各教育课程下学习的各学生进行编号,分别标记为1,2...j...m,其中各学生分别对应一个在线学习视频采集终端;
S3.学生学习视频分解及保留处理:统计各教育课程下各学生对应的学习时长,其具体统计方法执行以下步骤:
H1:获取各教育课程开始上课时各学生打开在线学习视频采集终端的时间点和关闭在线学习视频采集终端的时间点;
H2:将各学生关闭在线学习视频采集终端的时间点减去打开在线学习视频采集终端的时间点,得到各教育课程下各学生对应的学习时长;
并在各教育课程各学生对应的学习时长内,通过各学生对应的在线学习视频采集终端采集各学生在整个学习时长内的学习视频,并将采集得到的各教育课程下各学生在整个学习时间内的学习视频按照设置的视频帧数分解为若干学习图像,同时将各教育课程下各学生的学习视频分解的各学习图像进行图像保留处理操作,其具体操作过程为对各教育课程下的各学生学习视频分解的若干学习图像进行人脸部轮廓和手部轮廓提取,若某学习图像中能够提取到人脸部轮廓和手部轮廓,则保留该学习图像,该保留下的学习图像记为保留学习图像,反之,则去除该学习图像,由此得到保留下的若干保留学习图像,进而将各教育课程下各学生对应的各保留学习图像进行编号,依次标记为1,2...a...z;
本实施例通过对各教育课程下各学生学习视频分解的若干学习图像进行保留处理,为后面进行学生面部表情特征提取和手中拿握的物体名称获取奠定基础;
S4.学生精神状态系数及学习关联度系数分析:将各教育课程下各学生对应的各保留学习图像进行高清处理,并对处理后的保留学习图像其分别聚焦在学生面部区域和手部区域,以此从学生的面部区域提取学生的面部表情特征,从学生的手部区域获取学生手中拿握的物体名称,从而将提取的学生的面部表情特征与学习状态数据库中各种表情对应的表情特征进行对比,其中各种表情包括兴奋、喜欢、惊讶、痛苦、恐惧、羞辱、厌恶、愤怒等,由此筛选出各教育课程下各学生在各个保留学习图像中对应的表情种类,并将其与学习状态数据库中各种精神状态系数对应的表情种类进行对比,从而得出各教育课程下的各学生的各个保留学习图像对应的精神状态系数,并构成教育课程学生精神状态系数集合εi j(εi j1,εi j2,...,εi ja,...,εi jz),εi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的精神状态系数,与此同时将提取的学生手中拿握的物体名称与学习状态数据库中各种物体对应的学习关联度系数进行对比,由此筛选出各教育课程下的各学生的各个保留学习图像对应的学习关联度系数,并构成教育课程学生学习关联度系数集合ηi j(ηi j1,ηi j2,...,ηi ja,...,ηi jz),ηi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的学习关联度系数;
S5.教育课程学生与任课教师互动时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生与任课教师的互动次数,并对各学生与任课教师的各次互动按照互动时间点的先后顺序进行编号,分别标记为1,2...k...y,同时统计各学生与任课教师的各次互动对应的互动时长,由此将各教育课程下各学生与任课教师的各次互动对应的互动时长构成教育课程学生与任课教师互动时长集合ti j(ti j1,ti j2,...,ti jk,...,ti jy),ti jk表示为第i个教育课程下的第j个学生与任课教师的第k次互动对应的互动时长;
S6.学生对应学习互动度系数统计:根据教育课程学生与任课教师互动时长集合统计各教育课程下各学生与任课教师对应的总互动时长,其计算公式为并根据各教育课程下各学生与任课教师对应的总互动时长和各学生与任课教师的互动次数统计各教育课程下各学生与任课教师对应的平均互动时长,其计算公式为由此根据各教育课程下各学生与任课教师对应的总互动时长、平均互动时长和各学生对应的学习时长统计各教育课程下各学生对应的学习互动度系数λi j表示为第i个教育课程下第j个学生对应的学习互动度系数,ti j 总、分别表示为第i个教育课程下第j个学生与任课教师对应的总互动时长、平均互动时长,表示为第i个教育课程下第j个学生的学习时长;
S7.教育课程学生眼睛离开屏幕时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生的眼睛离开屏幕的次数,并对各学生的眼睛离开屏幕的次数按照眼睛离开屏幕的时间点的先后顺序进行编号,分别标记为1,2...b...x,同时统计各学生的眼睛每次离开屏幕对应的离开时长,其具体统计方法为在各学生对应的学习时长过程中,各学生的在线学习视频采集终端实时监测各学生的眼睛,当在线学习视频采集终端采集不到学生的眼睛时,则表明学生的眼睛离开屏幕,此时启动计时器进行计时,当在线学习视频采集终端能够采集到学生的眼睛时,则终止计时器计时,由此将计时器终止计时的时间点减去开始计时的时间点,得出学生的眼睛此次离开屏幕对应的离开时长,由此将各教育课程下各学生的眼睛每次离开屏幕对应的离开时长构成教育课程学生眼睛离开屏幕时长集合Ti j(Ti j1,Ti j2,...,Ti jb,...,ti jx),Ti jb表示为第i个教育课程下的第j个学生的眼睛第b次离开屏幕对应的离开时长;
S8.学生对应学习专注度系数统计:从教育课程基本参数集合中提取各教育课程对应的课程时长,并根据各教育课程对应的课程时长、各教育课程下各学生对应的学习时长和教育课程学生眼睛离开屏幕时长集合统计各教育课程下各学生对应的学习专注度系数ξi j表示为第i个教育课程下第j个学生对应的学习专注度系数,表示为第i个教育课程下第j个学生的学习时长,pd1i表示为第i个教育课程的课程时长;
本实施例在统计各教育课程下各学生的学习专注度系数过程中,通过结合各教育课程的课程时长、各教育课程下各学生的学习时长以及学生在学习时长中眼睛离开屏幕的次数及离开时长来综合统计学生的学习专注度,该统计结果更加能反映学生在学习过程中的专注度,避免只根据教育课程的时长和学生的学习时长进行统计造成的统计笼统化、缺乏过程透统计、缺精准度不高的问题,影响后面统计学生综合学习力系数的可靠度;
S9.学生对应学习成果优异度系数统计:在各教育课程结束后,获取各教育课程下各学生对应的测试分数,进而统计各教育课程下各学生对应的学习成果优异度系数,其统计方法为将各教育课程下各学生对应的测试分数除以该教育课程的满分分数;
S10.学生对应综合学习力系数统计及反馈:根据教育课程学生精神状态系数集合、教育课程学生学习关联度系数集合、各教育课程下各学生对应的学习互动度系数、各教育课程下各学生对应的学习专注度系数和各教育课程下各学生对应的学习成果优异度系数统计各教育课程下各学生对应的综合学习力系数表示为第i个教育课程下第j个学生对应的综合学习力系数,σi j表示为第i个教育课程下第j个学生对应的学习成果优异度系数,α1、α2、α3、α4、α5分别表示为精神状态、学习关联度、学习互动度、学习专注度、学习成果优异度对应综合学习力的影响因子,且α1+α2+α3+α4+α5=1,同时从教育课程基本参数集合中提取各教育课程对应的任课教师姓名,以此将各教育课程下各学生对应的综合学习力系数分别反馈给对应的任课教师和学生本人。
本实施例统计的学生对应的综合学习力系数直观展示了学生在在线学习过程中的综合学习力状况,其融合了学生的精神状态系数、学习关联度系数、学习互动度系数、学习专注度系数和学习成果优异度系数,实现了根据学生学习行为对学生在线学习力的综合可靠性评估,弥补了目前在线教育平台对学生在线学习力的评估方式存在的评估指标过于单一化、评估结果过于片面化的步骤,完善了评估指标范围,提高了评估结果的可靠度,满足了现在对学生在线学习力的综合可靠度高的评估需求。
本实施例在统计出各教育课程下各学生的综合学习力系数时,将其反馈给学生自身和任课教师,一方面便于学生及时了解自身的学习力状况,另一方面为任课教师根据该教育课程下各学生的综合学习力系数进行教课方式调整提供相关可靠的参考依据。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (1)
1.基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法,其特征在于:包括以下步骤;
S1.教育课程统计及教育课程基本参数集合构建:对在线教育平台上存在的教育课程数量进行统计,并对统计的各教育课程按照预设的顺序进行编号,依次标记为1,2...i...n,同时对各教育课程对应的课程时长和任课教师姓名进行获取,进而将获取的各教育课程对应的课程时长和任课教师构成教育课程基本参数集合Pw(pw1,pw2,...,pwi,...,pwn),pwi表示为第i个教育课程的基本参数对应的数值,w表示为基本参数,w=d1,d2,分别表示为课程时长、任课教师姓名;
S2.教育课程下学习的学生统计:对各教育课程下学习的学生数量进行统计,并对统计的各教育课程下学习的各学生进行编号,分别标记为1,2...j...m,其中各学生分别对应一个在线学习视频采集终端;
S3.学生学习视频分解及保留处理:统计各教育课程下各学生对应的学习时长,并在各教育课程各学生对应的学习时长内,通过各学生对应的在线学习视频采集终端采集各学生在整个学习时长内的学习视频,并将采集得到的各教育课程下各学生在整个学习时间内的学习视频按照设置的视频帧数分解为若干学习图像,同时将各教育课程下各学生的学习视频分解的各学习图像进行图像保留处理操作,得到若干保留学习图像,进而将各教育课程下各学生对应的各保留学习图像进行编号,依次标记为1,2...a...z;
S4.学生精神状态系数及学习关联度系数分析:将各教育课程下各学生对应的各保留学习图像进行高清处理,并对处理后的保留学习图像其分别聚焦在学生面部区域和手部区域,以此从学生的面部区域提取学生的面部表情特征,从学生的手部区域获取学生手中拿握的物体名称,从而将提取的学生的面部表情特征与学习状态数据库中各种表情对应的表情特征进行对比,由此筛选出各教育课程下各学生的各个保留学习图像中对应的表情种类,并将其与学习状态数据库中各种精神状态系数对应的表情种类进行对比,从而得出各教育课程下的各学生的各个保留学习图像对应的精神状态系数,并构成教育课程学生精神状态系数集合εi j(εi j1,εi j2,...,εi ja,...,εi jz),εi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的精神状态系数,与此同时将提取的学生手中拿握的物体名称与学习状态数据库中各种物体对应的学习关联度系数进行对比,由此筛选出各教育课程下的各学生的各个保留学习图像对应的学习关联度系数,并构成教育课程学生学习关联度系数集合ηi j(ηi j1,ηi j2,...,ηi ja,...,ηi jz),ηi ja表示为第i个教育课程下的第j个学生第a个保留学习图像对应的学习关联度系数;
S5.教育课程学生与任课教师互动时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生与任课教师的互动次数,并对各学生与任课教师的各次互动按照互动时间点的先后顺序进行编号,分别标记为1,2...k...y,同时统计各学生与任课教师的各次互动对应的互动时长,由此将各教育课程下各学生与任课教师的各次互动对应的互动时长构成教育课程学生与任课教师互动时长集合 ti j(ti j1,ti j2,...,ti jk,...,ti jy),ti jk表示为第i个教育课程下的第j个学生与任课教师的第k次互动对应的互动时长;
S6.学生对应学习互动度系数统计:根据教育课程学生与任课教师互动时长集合统计各教育课程下各学生与任课教师对应的总互动时长,其计算公式为并根据各教育课程下各学生与任课教师对应的总互动时长和各学生与任课教师的互动次数统计各教育课程下各学生与任课教师对应的平均互动时长,其计算公式为由此根据各教育课程下各学生与任课教师对应的总互动时长、平均互动时长和各学生对应的学习时长统计各教育课程下各学生对应的学习互动度系数;
S7.教育课程学生眼睛离开屏幕时长集合构建:在各教育课程下各学生对应的学习时长中统计各学生的眼睛离开屏幕的次数,并对各学生的眼睛离开屏幕的次数按照眼睛离开屏幕的时间点的先后顺序进行编号,分别标记为1,2...b...x,同时统计各学生的眼睛每次离开屏幕对应的离开时长,由此将各教育课程下各学生的眼睛每次离开屏幕对应的离开时长构成教育课程学生眼睛离开屏幕时长集合Ti j(Ti j1,Ti j2,...,Ti jb,...,ti jx),Ti jb表示为第i个教育课程下的第j个学生的眼睛第b次离开屏幕对应的离开时长;
S8.学生对应学习专注度系数统计:从教育课程基本参数集合中提取各教育课程对应的课程时长,并根据各教育课程对应的课程时长、各教育课程下各学生对应的学习时长和教育课程学生眼睛离开屏幕时长集合统计各教育课程下各学生对应的学习专注度系数;
S9.学生对应学习成果优异度系数统计:在各教育课程结束后,获取各教育课程下各学生对应的测试分数,进而统计各教育课程下各学生对应的学习成果优异度系数;
S10.学生对应综合学习力系数统计及反馈:根据教育课程学生精神状态系数集合、教育课程学生学习关联度系数集合、各教育课程下各学生对应的学习互动度系数、各教育课程下各学生对应的学习专注度系数和各教育课程下各学生对应的学习成果优异度系数统计各教育课程下各学生对应的综合学习力系数,同时从教育课程基本参数集合中提取各教育课程对应的任课教师姓名,以此将各教育课程下各学生对应的综合学习力系数分别反馈给对应的任课教师和学生本人;
所述各教育课程下各学生对应的综合学习力系数的计算公式为 表示为第i个教育课程下第j个学生对应的综合学习力系数,σi j表示为第i个教育课程下第j个学生对应的学习成果优异度系数,α1、α2、α3、α4、α5分别表示为精神状态、学习关联度、学习互动度、学习专注度、学习成果优异度对应综合学习力的影响因子,且α1+α2+α3+α4+α5=1;
所述S3中统计各教育课程下各学生对应的学习时长,其具体统计方法执行以下步骤:
H1:获取各教育课程开始上课时各学生打开在线学习视频采集终端的时间点和关闭在线学习视频采集终端的时间点;
H2:将各学生关闭在线学习视频采集终端的时间点减去打开在线学习视频采集终端的时间点,得到各教育课程下各学生对应的学习时长;
所述图像保留处理操作具体操作过程为对各教育课程下的各学生学习视频分解的若干学习图像进行人脸部轮廓和手部轮廓提取,若某学习图像中能够提取到人脸部轮廓和手部轮廓,则保留该学习图像,该保留下的学习图像记为保留学习图像,反之,则去除该学习图像,由此得到保留下的若干保留学习图像;
所述各教育课程下各学生对应的学习互动度系数的计算公式为λi j表示为第i个教育课程下第j个学生对应的学习互动度系数,ti j 总、分别表示为第i个教育课程下第j个学生与任课教师对应的总互动时长、平均互动时长,Ti′j表示为第i个教育课程下第j个学生的学习时长;
所述S7中统计各学生的眼睛离开屏幕的次数及每次离开屏幕对应的离开时长,其具体统计方法为在各学生对应的学习时长过程中,各学生的在线学习视频采集终端实时监测各学生的眼睛,当在线学习视频采集终端采集不到学生的眼睛时,则表明学生的眼睛离开屏幕,此时启动计时器进行计时,当在线学习视频采集终端能够采集到学生的眼睛时,则终止计时器计时,由此将计时器终止计时的时间点减去开始计时的时间点,得出学生的眼睛此次离开屏幕对应的离开时长;
所述各教育课程下各学生对应的学习专注度系数的计算公式为ξi j表示为第i个教育课程下第j个学生对应的学习专注度系数,Ti′j表示为第i个教育课程下第j个学生的学习时长,pd1 i表示为第i个教育课程的课程时长;
所述各教育课程下各学生对应的学习成果优异度系数的统计方法为将各教育课程下各学生对应的测试分数除以该教育课程的满分分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110313166.9A CN112990723B (zh) | 2021-03-24 | 2021-03-24 | 基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110313166.9A CN112990723B (zh) | 2021-03-24 | 2021-03-24 | 基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112990723A CN112990723A (zh) | 2021-06-18 |
CN112990723B true CN112990723B (zh) | 2021-11-30 |
Family
ID=76334461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110313166.9A Active CN112990723B (zh) | 2021-03-24 | 2021-03-24 | 基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112990723B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897647B (zh) * | 2022-04-27 | 2023-02-03 | 合创智能家具(广东)有限公司 | 一种教学辅助系统 |
CN115330271B (zh) * | 2022-10-13 | 2023-10-10 | 招投研究院(广州)有限公司 | 一种基于互联网的教育培训管理平台及管理方法 |
CN116543446B (zh) * | 2023-05-11 | 2023-09-29 | 浙江优图教育科技有限公司 | 一种基于ai技术的线上学习专注度识别分析方法 |
CN116739858B (zh) * | 2023-08-15 | 2023-11-07 | 河北工业职业技术学院 | 基于时间序列分析的在线学习行为监测系统 |
CN117670612A (zh) * | 2023-11-29 | 2024-03-08 | 广东省教育研究院 | 基于虚拟现实设备的学习者状态评估方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104408781A (zh) * | 2014-12-04 | 2015-03-11 | 重庆晋才富熙科技有限公司 | 专注度考勤系统 |
CN107292778A (zh) * | 2017-05-19 | 2017-10-24 | 华中师范大学 | 一种基于认知情感感知的云课堂学习评价方法及其装置 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
CN110164213A (zh) * | 2019-06-06 | 2019-08-23 | 南京睦泽信息科技有限公司 | 一种基于ai视频分析的多终端远程教育培训系统 |
CN111553323A (zh) * | 2020-05-22 | 2020-08-18 | 北京市商汤科技开发有限公司 | 视频处理方法及装置、电子设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005116973A1 (de) * | 2004-05-28 | 2005-12-08 | Maximilian Zamorsky | Anzeigeverfahren und system, die das augenblinzen eines benutzers durch subliminable änderung von anzeigeparamtern fördern |
US10325510B2 (en) * | 2016-10-21 | 2019-06-18 | Vedantu Innovations Pvt Ltd. | System for measuring effectiveness of an interactive online learning system |
-
2021
- 2021-03-24 CN CN202110313166.9A patent/CN112990723B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104408781A (zh) * | 2014-12-04 | 2015-03-11 | 重庆晋才富熙科技有限公司 | 专注度考勤系统 |
CN107292778A (zh) * | 2017-05-19 | 2017-10-24 | 华中师范大学 | 一种基于认知情感感知的云课堂学习评价方法及其装置 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
CN110164213A (zh) * | 2019-06-06 | 2019-08-23 | 南京睦泽信息科技有限公司 | 一种基于ai视频分析的多终端远程教育培训系统 |
CN111553323A (zh) * | 2020-05-22 | 2020-08-18 | 北京市商汤科技开发有限公司 | 视频处理方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112990723A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112990723B (zh) | 基于用户学习行为深度分析的在线教育平台学生学习力分析反馈方法 | |
Robinson | Evaluating criteria for English learner reclassification: A causal-effects approach using a binding-score regression discontinuity design with instrumental variables | |
CN108171414A (zh) | 教学质量评估系统 | |
CN111125640A (zh) | 一种知识点学习路径推荐方法和装置 | |
Kulatunga et al. | Use of Toulmin's argumentation scheme for student discourse to gain insight about guided inquiry activities in college chemistry | |
CN111325643A (zh) | 一种慕课教学能力引导方法 | |
Byra | Postlesson conferencing strategies and preservice teachers’ reflective practices | |
CN111444391A (zh) | 一种基于人工智能的视频学习成效评估方法 | |
CN107221212A (zh) | 一种基于时间序列的在线学习者认知风格分析方法 | |
CN115660129A (zh) | 一种基于电子白板与人脸识别反馈课堂效率的方法及系统 | |
Laksana | Promoting Historical Thinking for Pre-Service Social Studies Teachers: A Case Study from Thailand. | |
Keijonen et al. | Carry-on effect in extreme apprenticeship | |
Leonard et al. | Was there really an experiment? | |
Ramos et al. | Making probabilistic methods real, relevant, and interesting using MATLAB | |
Strand | An Investigation into Intermediate Grades Teachers' Noticing of the Mathematical Quality of Instruction | |
Nilsson et al. | Simulation Assisted Learning in Statistics: How important are students’ characteristics | |
Nyborg | The Quality of Mediational Teaching Practiced by Teachers in Special Education: An Observational Study in Norwegian Primary Schools. | |
Sun | Data analysis of traditional summative assessment and continuous assessment-Engineering Science Departments case study | |
Monteleone et al. | Evidence of Young Students' Critical Mathematical Thinking. | |
CN117711215A (zh) | 用于煤化工行业作业流程标准化培训的讲解控制方法 | |
Gibbings | Qualitatively different ways students experience remote access laboratories | |
CN114582182A (zh) | 准教慧学大数据精准化教与学系统 | |
Dobashi | Approaches to the approximate tabulation of the duration of student visits when working with digitized course materials within the class | |
Oslington et al. | Authentic research using statistics by primary school students?: Yes, it is possible! | |
Saputra et al. | Development of Learning Model of Youtube-Based Learning in Light Vehicle Electricity Maintenance Subject |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211111 Address after: 518000 1501, building 3, COFCO Chuangzhi plant, zone 67, Xingdong community, Xin'an street, Bao'an District, Shenzhen, Guangdong Province Applicant after: Shian express information technology (Shenzhen) Co., Ltd Address before: 430223 No. 872, Guanggu Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province Applicant before: Wuhan Jiayu Information Technology Co., Ltd |
|
GR01 | Patent grant | ||
GR01 | Patent grant |