CN112185191B - 一种智能数字化教学模型 - Google Patents

一种智能数字化教学模型 Download PDF

Info

Publication number
CN112185191B
CN112185191B CN202010997680.4A CN202010997680A CN112185191B CN 112185191 B CN112185191 B CN 112185191B CN 202010997680 A CN202010997680 A CN 202010997680A CN 112185191 B CN112185191 B CN 112185191B
Authority
CN
China
Prior art keywords
user
key point
point
state
judging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010997680.4A
Other languages
English (en)
Other versions
CN112185191A (zh
Inventor
陈�峰
张艳
吴昊
陈思
廖艺伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinyang Vocational and Technical College
Original Assignee
Xinyang Vocational and Technical College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinyang Vocational and Technical College filed Critical Xinyang Vocational and Technical College
Priority to CN202010997680.4A priority Critical patent/CN112185191B/zh
Publication of CN112185191A publication Critical patent/CN112185191A/zh
Application granted granted Critical
Publication of CN112185191B publication Critical patent/CN112185191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种智能数字化教学模型。包括:将教学视频划分为多个时段;根据每个时段的噪声分布评价指标的计算结果、眼动是否正常的判断结果、是否离座的判断结果计算用户精神集中度;判断用户是否处于思考状态,统计用户思考状态时间,并对精神集中度计算结果进行修正;根据时间段内教学视频的内容、精神集中度评价结果、思考状态时间,为用户推荐相应难度的知识点内容以及测试题。利用本发明,可以实时监测用户的学习状态并提供适合的辅助教学内容。

Description

一种智能数字化教学模型
技术领域
本发明涉及数字化教学、计算机视觉技术领域,具体涉及一种智能数字化教学模型。
背景技术
随着数字化教育的推广,教育教学越来越趋于智能化。目前,教学系统通常通过分析一定时间段内数据修正教学策略,该方法存在的问题在于:第一,数据分析不具备实时性,策略调整后仍需要一定时间验证调整方向是否正确,会出现一定的滞后性;第二,通常根据眼动追踪进行内容推荐,不能适用于教育教学。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷,提出一种智能数字化教学模型。
一种智能数字化教学模型,该模型执行以下步骤:
步骤1,根据教学视频的知识点分布将视频划分为多个时间段,针对每个时间段执行步骤2-6;
步骤2,采集视频播放期间的声音信号,根据声音信号中包含用户产生噪声的时间长度得到噪声分布评价指标的计算结果;根据左右瞳孔中心坐标判断瞳孔中心是否识别正常,如果正常则根据瞳孔中心坐标是否处于预设区间判断眼动是否正常;判断用户是否离座;
步骤3,建立精神集中度评价模型为:
Figure GDA0003491325820000011
Figure GDA0003491325820000012
为噪音分布评价指标,TNoise为噪声时长;Emt表示t时刻眼动是否正常,正常时为1,否则为0;Lct表示t时刻用户是否离座,未离座时为1,否则为0;T为时间段长度;γ1、γ2、γ3为权重系数;将步骤2的计算结果、判断结果输入精神集中度评价模型,计算用户的精神集中度,若精神集中度大于第一设定阈值,则转至步骤4,否则转至步骤6;
步骤4,将人脸三维关键点分为面部中心区域关键点集、面部两侧区域关键点集,综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态,若是则转至步骤5,否则转至步骤6;
步骤5,统计用户处于思考状态的时间;判断思考状态时间段内声音信号中是否存在周期高频信号,如果存在,则将周期高频信号的时长从TNoise中减去,得到修正的噪声分布评价指标的计算结果;将思考状态时间段内眼动判断结果为异常的修正为眼动正常;根据修正结果对精神集中度评价结果进行修正;
步骤6,根据时间段内教学视频的内容、精神集中度评价结果、思考状态时间,为用户推荐相应难度的知识点内容以及测试题。
进一步地,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure GDA0003491325820000013
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,Ps1为面部中心区域关键点集,Ps2为面部两侧区域关键点集;σ12;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
进一步地,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure GDA0003491325820000021
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,Ps1为面部中心区域关键点集,Ps2为面部两侧区域关键点集;σ1、σ2为权重系数,σ12;a应当满足条件:a*lna>1;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
进一步地,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure GDA0003491325820000022
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,d2为上唇上边缘中心关键点与鼻尖关键点之间的距离,Ps1为位于上庭、中庭的面部中心区域关键点集,Ps2为位于下庭的面部中心区域关键点集,Ps3为位于上庭、中庭的面部两侧区域关键点集,Ps4为位于下庭的面部两侧区域关键点集;σ1、σ2为权重系数,σ12;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
进一步地,所述瞳孔中心坐标通过如下方法获得:对采集的红外图像进行分析,定位瞳孔中心坐标。
进一步地,所述根据左右瞳孔中心坐标判断瞳孔中心是否识别正常,如果正常则根据瞳孔中心坐标是否处于预设区间判断眼动是否正常包括:
对采集的彩色图像进行人脸关键点检测,结合深度信息,得到人脸三维关键点坐标;
以左右眼角关键点所在直线为横轴,以左眼角关键点指向右眼角关键点的方向为x轴方向,从鼻尖关键点向横轴作垂线,鼻尖关键点指向垂点的方向为y轴方向;
根据左右瞳孔中心坐标判断瞳孔中心是否识别正常;
判断左瞳孔中心点坐标(xl,yl)是否满足xl∈[-xm,-xn],yl∈[-ym,yn],满足时判断眼动正常,否则判断为眼动异常,xm、xn、ym、yn、margin2为人为设置的经验阈值。
进一步地,所述根据左右瞳孔中心坐标判断瞳孔中心是否识别正常包括:
当左右瞳孔中心点坐标(xl,yl)、(xr,yr)满足(|xl|-|xr|)2+(|yl|-|yr|)2≤margin2时,判定识别正常,否则判定为识别异常,margin2为阈值。
进一步地,所述判断用户是否离座包括:
对采集的彩色图像进行人体关键点检测,将检测关键点坐标映射到深度图,得到检测关键点深度信息;
若检测关键点深度信息大于设定阈值,则判断为离座,否则判断为未离座。
进一步地,所述检测关键点为肩部关键点。
进一步地,所述根据时间段内教学视频的内容、精神集中度评价结果、思考状态时间,为用户推荐相应的知识点内容以及测试题包括:
若精神集中度评价结果不大于第一设定阈值,判断为用户该处知识点精神不集中,推送内容为该时间段知识点的基础内容以及相关基础难度测试题;
若精神集中度评价结果大于第一设定阈值,但不存在思考状态,判断用户在教学过程已掌握基础知识,推送内容为该时间段知识点的拓展内容以及相关基础难度测试题;
若精神集中度评价结果大于第一设定阈值,且存在一定时间的思考状态,判断用户在教学过程已掌握拓展内容,推送内容为该时间段知识点的考点内容以及相关拓展难度测试题;
若精神集中度评价结果大于第一设定阈值并大于预设等级,且存在较长时间的思考状态,判断用户在教学过程已经掌握所有知识点,推送内容为该时间段知识点的考点内容以及试题难度测试题。
本发明与现有技术相比,具有以下有益效果:
1.根据教学视频的知识点分布将视频划分为多个时间段,分别对每个时段的用户状态进行实时分析,结合用户状态进行实时内容推荐,不仅能够适用于教育教学,而且解决了现有教育教学中分析不具备实时性的问题,提高了分析和推荐的实时性、针对性。
2.本发明结合噪声分布评价指标、眼动分析结果、离座判断结果构造精神集中度模型,综合多种影响因素对时间段内的精神集中度进行量化计算,相比于传统的二值判断,在内容推荐阶段,有利于提供更加细分的用户状态下的推荐结果。
3.本发明将面部关键点分为中心区域关键点、两侧区域关键点,为两种类型赋予不同的权重,提高了思考状态模型的判断精度;以内眼角关键点与鼻尖关键点之间的距离和/或上唇中心关键点与鼻尖关键点之间的距离为参考距离,一方面能够降低用户前后移动带来的影响,另一方面能够隔离工况,使模型适用于不同人,扩大模型的适用范围;利用满足一定条件的距离指数函数,扩大表情变化导致的微小距离变化,进一步提高思考状态的判断结果。
4.本发明利用思考状态判断结果对精神集中度分析指标进行修正,进一步提高了精神集中度的计算精度,有助于提高内容推荐的精度。
5.本发明根据眼角关键点以及鼻尖关键点构建坐标系,该坐标系具有相对性,有助于提高眼动判断效率,而且设计判断规则进行识别是否异常的判断,避免后续误判,提高了眼动判断精度。
附图说明
图1为本发明方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供一种智能数字化教学模型,可应用于网络课程在线学习过程中,自动分析教学质量,并推送相应的内容给用户。图1为本发明方法流程图。下面通过具体实施例来进行说明。
实施例一:
实施例场景限制为在线学习移动端,该移动端可为手机、平板电脑等具有声音采集模块、图像采集模块的设备,需要获取教学移动端的相机、麦克风等应用权限。
一种智能数字化教学模型,模型执行以下步骤:
步骤1,根据教学视频的知识点分布将视频划分为多个时间段,针对每个时间段执行步骤2-6。
基于教学视频课程长度以及内容,根据知识点分布以及经验划分出若干时间段。例如,课程长度为45分钟,因此按经验设置划分时间段长度为5分钟,根据课程内容的重点难点分布划分时间段,即所划分时间段的起始时间戳与重点难点讲解开始时刻对齐,若内容讲解时间不足5分钟,按5分钟划分,若超过5分钟,相应延长该时间段。
本方案根据精神集中度评价结果、思考状态结果以及知识点内容进行教学内容推荐。精神集中度评价模型基于三类评价指标,包括噪声分布评价指标、眼动分析评价指标以及离座分析评价指标。
步骤2,采集视频播放期间的声音信号,根据声音信号中包含用户产生噪声的时间长度得到噪声分布评价指标的计算结果;根据左右瞳孔中心坐标判断瞳孔中心是否识别正常,如果正常则根据瞳孔中心坐标是否处于预设区间判断眼动是否正常;判断用户是否离座。
信息感知方法为:噪声分布评价指标所需感知信息的感知方法为通过麦克风采集声音信号;眼动分析评价指标以及离座分析评价指标所需感知信息的方法为通过摄像头采集RGB-D图像和IR图像。
噪声分布评价指标获取方式为:首先通过麦克风采集声音信号,采集时间段为教学视频播放时间段;所采集声音信号通过离散傅里叶变换转换至频域。一种实施方式是基于先验信息得知用户产生的噪声的频率高于正常声音或低于正常声音(播放教学视频无用户产生噪声时的声音),因此在频域中设置经验阈值margin1,筛除掉低于或高于经验阈值的声音信号。另一种实施方式是基于先验信息得知播放教学视频无用户产生噪声时的声音频率范围(该声音频率范围可为多个频率区间,可以提高检测精度),将处于声音频率范围之内的声音信号筛除。经过筛除后所保留的声音信号通过逆傅里叶变换转换至时域;统计所保留声音信号所覆盖的时间长度TNoise,与教学视频播放的时间段长度T计算噪声分布评价指标
Figure GDA0003491325820000041
噪声分布评价指标从音频方面根据噪声时长对用户精神集中度进行分析,提高了评价模型的准确率。
对采集的彩色图像进行人脸关键点检测,结合深度信息,得到人脸三维关键点坐标;以左右眼角关键点所在直线为横轴,以左眼角关键点指向右眼角关键点的方向为x轴方向,从鼻尖关键点向横轴作垂线,鼻尖关键点指向垂点的方向为y轴方向;根据左右瞳孔中心坐标判断瞳孔中心是否识别正常;判断左瞳孔中心点坐标(xl,yl)是否满足xl∈[-xm,-xn],yl∈[-ym,yn],满足时判断眼动正常,否则判断为眼动异常,xm、xn、ym、yn为人为设置的经验阈值。
具体地,首先通过摄像头采集RGB-D图像及IR图像;对RGB图像进行人脸关键点检测,并映射至深度图Depth中,得到人脸3D landmarks信息;通过IR图像得到瞳孔位置;通过人脸3D landmarks信息,提取出眼角关键点坐标Canl1,Canl2,Canr1,Canr2,Canl代表左眼眼角点,Canr代表右眼眼角点,下标1代表内眼角点,下标2代表外眼角点,鼻尖关键点坐标Nose,通过IR图像信息得到瞳孔中心点坐标Pupill,Pupilr,下标l、r分别代表左右,上述坐标均为图像坐标,且由于为手机相机拍摄,其图像对齐在手机内部已设置,因此三类坐标在同一图像坐标系中处理;基于先验信息,眼角及鼻尖关键点位置近似不变,两瞳孔中心点每次的偏移近似一致,因此建立坐标系,坐标系横轴为四个眼角关键点所在直线l1,以左眼角关键点指向右眼角关键点的方向为x轴方向,过鼻尖中心点作直线l1的垂线l2,鼻尖中心点指向垂点的方向为y轴方向;设置阈值,当瞳孔中心点在上述坐标系中坐标(xl,yl)、(xr,yr)满足(|xl|-|xr|)2+(|yl|-|yr|)2≤margin2时,该帧处理结果保留,否则判断为识别异常;当处理结果保留时,判断(xl,yl)是否满足xl∈[-xm,-xn],yl∈[-ym,yn],满足时判断该帧处理结果为眼动正常;否则,判断该帧处理结果为眼动异常。上述xm、xn、ym、yn、margin2为设置的经验阈值,可以根据实施场景调整。根据眼动情况对用户精神集中度进行分析较为直观。
离座分析评价指标获取方式为:首先通过RGB图像提取人体关键点,具体为肩部关键点,映射至深度图Depth并设置阈值Margin3;当肩部关键点所对应的深度均大于该阈值,判断为离座,否则,判断为正常。
步骤3,建立精神集中度评价模型。将步骤2的计算结果、判断结果输入精神集中度评价模型,计算用户的精神集中度,若精神集中度大于第一设定阈值,则转至步骤4,否则转至步骤6。
精神集中度评价模型,该模型基于先验信息,通过上述三类指标构建评价模型,其优点在于可以通过噪声、眼动、离座三个方面在一段时间内联合评价用户的精神集中度,并划分为对应级别,以量化精神集中度。具体模型AEModel(Attention Evaluate Model)为:
Figure GDA0003491325820000051
Figure GDA0003491325820000052
为噪声分布评价指标,TNoise为噪声时长;Emt表示t时刻眼动是否正常,眼动异常时值为0,眼动正常时值为1;Lct表示t时刻用户是否离座,出现离座时值为0,未离座时为1;T代表时间段长度。γ1、γ2、γ3为权重系数,实施者可根据经验自行设置,但应满足和为1。第一项使用平方运算的目的是噪声越长该项得分降低速率越快,因为噪声后期需要经过先验模型修正,所以如果仍出现噪声那么噪声的得分就会较小。
本实施例对精神集中度评价模型结果进行分级。一种实施方式是,当γ1、γ2、γ3相等时,若AEModel∈[0,0.2],则评级结果为一级,若AEModel∈(0.2,0.4],则评级结果为二级,若AEModel∈(0.4,0.6],则评级结果为三级,若AEModel∈(0.6,0.8],则评级结果为四级,若AEModel∈(0.8,1],则评级结果为五级。
当判断用户精神集中度评价较好时,本实施例中用户精神集中度评价等级为三级或以上,进一步判断是否用户为思考状态,以便于评价用户在学习时的状态。具体为,设置一个经验阈值Margin3,本实施设定阈值为0.4,当精神集中度评价模型输出结果大于阈值Margin3,调用思考状态判断模型;否则无需调用。
步骤4,将人脸三维关键点分为面部中心区域关键点集、面部两侧区域关键点集,综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态,若是则转至步骤5,否则转至步骤6。
思考状态判断模型,模型的输入为人脸的3D landmarks数据。思考状态判断模型下,面部关键点应至少包括眉部关键点集合、鼻部关键点集合、唇部关键点集合。首先以鼻尖关键点作为中心点,基于其他各关键点到中心点的距离将3D landmarks数据分为两个点集,此时需设置经验阈值Margin4,该阈值应大于眉头关键点与中心点的距离。当某点到中心点距离小于等于阈值Margin4时,将该点分配至点集一Ps1为面部中心区域点集,当某点到中心点距离大于阈值Margin4时,点集二Ps2为面部两侧区域点集。实施者也可以直接进行关键点划分,划分为面部中心关键点集、面部两侧关键点集。优选地,点集一包括与中心点较近的眉部关键点集合、鼻部关键点集合、唇部关键点集合以及下巴关键点集合,点集二包括与中心关键点较远的眉部关键点(例如眉尾关键点)以及其他面部关键点。然后由于眼角内侧关键点到鼻尖关键点的距离d1近似不变,因此以距离d1作为基准值,且根据所分配点集分配不同的权重,面部中心区域点集权重为σ1,面部两侧区域点集权重为σ2,且应满足σ12,在本发明中取σ1=0.75,σ2=0.25。用于判断的统计值Think State Model即
Figure GDA0003491325820000061
式中,di为任一面部关键点到鼻尖关键点的距离,设置经验阈值Margin5,当TSModel≥Margin5时,判断用户面部处于松弛状态,为非思考状态,当TSModel<Margin5时,判断用户面部处于紧张状态,为思考状态。
进一步地,思考状态判断模型还可以为:
Figure GDA0003491325820000062
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,Ps1为面部中心区域关键点集,Ps2为面部两侧区域关键点集;σ1、σ2为权重系数,σ12;a应当满足条件:a*lna>1;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。当a满足条件时,该思考状态判断模型可以扩大表情变化导致的微小距离变化,进一步提高思考状态的判断结果。
进一步地,思考状态判断模型还可以为:
Figure GDA0003491325820000063
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,d2为上唇上边缘中心关键点与鼻尖关键点之间的距离,Ps1为位于上庭、中庭的面部中心区域关键点集,Ps2为位于下庭的面部中心区域关键点集,Ps3为位于上庭、中庭的面部两侧区域关键点集,Ps4为位于下庭的面部两侧区域关键点集;σ1、σ2为权重系数,σ12;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。该模型考虑了上中庭与下庭长度的影响,进一步隔离工况,能够适用于不同人。思考状态下,眉部和/或唇部会紧缩,本思考状态模型对面部关键点进一步细分,分别考量上庭眉部关键点的变化以及下庭唇部、下巴关键点的变化,有利于捕捉微小的唇部微表情,同时一般情况下,上唇上边缘中心关键点位置相对不变,因此,以上唇上边缘中心关键点与鼻尖关键点之间的距离作为另一参考距离。
进一步地,思考状态判断模型还可以为:
Figure GDA0003491325820000064
Figure GDA0003491325820000065
步骤5,统计用户处于思考状态的时间;判断思考状态时间段内声音信号中是否存在周期高频信号,如果存在,则将周期高频信号的时长从TNoise中减去,得到修正的噪声分布评价指标的计算结果;将思考状态时间段内眼动判断结果为异常的修正为眼动正常;根据修正结果对精神集中度评价结果进行修正。
基于先验信息,考虑到部分用户处于思考状态时可能存在重复行为,例如重复敲击桌面等行为,此时,噪声响度评价指标应排除该类行为所产生的噪声信号的干扰,以提高评价结果的准确率。具体为:当模块二判断用户在某一时间段内属于思考状态时,相应时间段的音频信号通过周期估计的方法判断是否存在周期高频信号,若存在,该高频信号从频域筛除,以修正噪声响度评价指标。所述周期估计的方法为公知技术,实施者可采用基于波形的自相关法、平均幅度差法;基于变换法的倒谱法等。考虑到思考状态时,眼睛出现偏离,同样对模型进行修正。
步骤6,根据时间段内教学视频的内容、精神集中度评价结果、思考状态判断结果,为用户推荐相应难度的知识点内容以及测试题。
内容推送模型,具体为设置推送规则进行内容的推送,规则具体如下:
当精神集中度评价结果为一级或二级,此时判断为用户该处知识点精神不集中,推送内容为该处知识点基础内容以及相关基础难度测试题;
经精神集中度评价结果为三级、四级或五级,但不存在一定时间的思考状态,判断用户在教学过程已掌握基础知识,推送内容为该处知识点的拓展内容以及相关基础难度测试题;
经精神集中度评价结果为三级或四级,且存在一定时间的思考状态,判断用户在教学过程可能已掌握拓展内容,推送内容为该处知识点的考点内容以及相关拓展难度的测试题;
经精神集中度评价结果为五级,且存在较长时间的思考状态,判断用户在教学过程已经掌握整个知识点,推送内容为该处知识点的考点内容以及试题难度的测试题。
通过上述规则进行知识内容的推送,可针对用户在课程上的表现推送对应难度的知识内容以及测试题,便于巩固并提高用户的知识点掌握水平,而不会出现用户知识点掌握水平高于推送内容及测试题难度的情况。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种智能数字化教学模型,其特征在于,该模型执行以下步骤:
步骤1,根据教学视频的知识点分布将视频划分为多个时间段,针对每个时间段执行步骤2-6;
步骤2,采集视频播放期间的声音信号,根据声音信号中包含用户产生噪声的时间长度得到噪声分布评价指标的计算结果;根据左右瞳孔中心坐标判断瞳孔中心是否识别正常,如果正常则根据瞳孔中心坐标是否处于预设区间判断眼动是否正常;判断用户是否离座;
步骤3,建立精神集中度评价模型为:
Figure FDA0002780190630000011
Figure FDA0002780190630000012
为噪音分布评价指标,TNoise为噪声时长;Emt表示t时刻眼动是否正常,正常时为1,否则为0;Lct表示t时刻用户是否离座,未离座时为1,否则为0;T为时间段长度;γ1、γ2、γ3为权重系数;将步骤2的计算结果、判断结果输入精神集中度评价模型,计算用户的精神集中度,若精神集中度大于第一设定阈值,则转至步骤4,否则转至步骤6;
步骤4,将人脸三维关键点分为面部中心区域关键点集、面部两侧区域关键点集,综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态,若是则转至步骤5,否则转至步骤6;
步骤5,统计用户处于思考状态的时间;判断思考状态时间段内声音信号中是否存在周期高频信号,如果存在,则将周期高频信号的时长从TNoise中减去,得到修正的噪声分布评价指标的计算结果;将思考状态时间段内眼动判断结果为异常的修正为眼动正常;根据修正结果对精神集中度评价结果进行修正;
步骤6,根据时间段内教学视频的内容、精神集中度评价结果、思考状态时间,为用户推荐相应难度的知识点内容以及测试题。
2.如权利要求1所述的模型,其特征在于,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure FDA0002780190630000013
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,Ps1为面部中心区域关键点集,Ps2为面部两侧区域关键点集;σ1>σ2;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
3.如权利要求1所述的模型,其特征在于,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure FDA0002780190630000014
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,Ps1为面部中心区域关键点集,Ps2为面部两侧区域关键点集;σ1、σ2为权重系数,σ1>σ2;a应当满足条件:a*lna>1;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
4.如权利要求1所述的模型,其特征在于,所述综合两个关键点集与鼻尖关键点之间的距离,判断用户是否处于思考状态包括:
计算
Figure FDA0002780190630000021
其中,di代表第i个面部关键点到鼻尖关键点的距离,d1为内眼角关键点与鼻尖关键点之间的距离,d2为上唇上边缘中心关键点与鼻尖关键点之间的距离,Ps1为位于上庭、中庭的面部中心区域关键点集,Ps2为位于下庭的面部中心区域关键点集,Ps3为位于上庭、中庭的面部两侧区域关键点集,Ps4为位于下庭的面部两侧区域关键点集;σ1、σ2为权重系数,σ1>σ2;若计算结果大于第二设定阈值,则为非思考状态,否则为思考状态。
5.如权利要求1所述的模型,其特征在于,所述瞳孔中心坐标通过如下方法获得:对采集的红外图像进行分析,定位瞳孔中心坐标。
6.如权利要求1所述的模型,其特征在于,所述根据左右瞳孔中心坐标判断瞳孔中心是否识别正常,如果正常则根据瞳孔中心坐标是否处于预设区间判断眼动是否正常包括:
对采集的彩色图像进行人脸关键点检测,结合深度信息,得到人脸三维关键点坐标;
以左右眼角关键点所在直线为横轴,以左眼角关键点指向右眼角关键点的方向为x轴方向,从鼻尖关键点向横轴作垂线,鼻尖关键点指向垂点的方向为y轴方向;
根据左右瞳孔中心坐标判断瞳孔中心是否识别正常;
判断左瞳孔中心点坐标(xl,yl)是否满足xl∈[-xm,-xn],yl∈[-ym,yn],满足时判断眼动正常,否则判断为眼动异常,xm、xn、ym、yn、margin2为人为设置的经验阈值。
7.如权利要求6所述的模型,其特征在于,所述根据左右瞳孔中心坐标判断瞳孔中心是否识别正常包括:
当左右瞳孔中心点坐标(xl,yl)、(xr,yr)满足(|xl|-|xr|)2+(|yl|-|yr|)2≤margin2时,判定识别正常,否则判定为识别异常,margin2为阈值。
8.如权利要求1-7任一项所述的模型,其特征在于,所述判断用户是否离座包括:
对采集的彩色图像进行人体关键点检测,将检测关键点坐标映射到深度图,得到检测关键点深度信息;
若检测关键点深度信息大于设定阈值,则判断为离座,否则判断为未离座。
9.如权利要求8所述的模型,其特征在于,所述检测关键点为肩部关键点。
10.如权利要求1所述的模型,其特征在于,所述根据时间段内教学视频的内容、精神集中度评价结果、思考状态时间,为用户推荐相应的知识点内容以及测试题包括:
若精神集中度评价结果不大于第一设定阈值,判断为用户该处知识点精神不集中,推送内容为该时间段知识点的基础内容以及相关基础难度测试题;
若精神集中度评价结果大于第一设定阈值,但不存在思考状态,判断用户在教学过程已掌握基础知识,推送内容为该时间段知识点的拓展内容以及相关基础难度测试题;
若精神集中度评价结果大于第一设定阈值,且存在一定时间的思考状态,判断用户在教学过程已掌握拓展内容,推送内容为该时间段知识点的考点内容以及相关拓展难度测试题;
若精神集中度评价结果大于第一设定阈值并大于预设等级,且存在较长时间的思考状态,判断用户在教学过程已经掌握所有知识点,推送内容为该时间段知识点的考点内容以及试题难度测试题。
CN202010997680.4A 2020-09-21 2020-09-21 一种智能数字化教学模型 Active CN112185191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010997680.4A CN112185191B (zh) 2020-09-21 2020-09-21 一种智能数字化教学模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010997680.4A CN112185191B (zh) 2020-09-21 2020-09-21 一种智能数字化教学模型

Publications (2)

Publication Number Publication Date
CN112185191A CN112185191A (zh) 2021-01-05
CN112185191B true CN112185191B (zh) 2022-08-16

Family

ID=73956392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010997680.4A Active CN112185191B (zh) 2020-09-21 2020-09-21 一种智能数字化教学模型

Country Status (1)

Country Link
CN (1) CN112185191B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668934B (zh) * 2021-01-15 2023-12-01 北京金和网络股份有限公司 一种互联网考试报告生成方法及装置
CN113409635A (zh) * 2021-06-17 2021-09-17 上海松鼠课堂人工智能科技有限公司 基于虚拟现实场景的互动教学方法与系统
CN114049669A (zh) * 2021-11-15 2022-02-15 海信集团控股股份有限公司 确定学习效果的方法及装置
CN114267214A (zh) * 2021-12-31 2022-04-01 山西寰烁电子科技股份有限公司 一种云教育资源自定义审批分发方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108281052A (zh) * 2018-02-09 2018-07-13 郑州市第十中学 一种在线教学系统及在线教学方法
CN108766532A (zh) * 2018-05-11 2018-11-06 深圳市心流科技有限公司 提高注意力的教学方法、装置及计算机可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8768313B2 (en) * 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
US20160063881A1 (en) * 2014-08-26 2016-03-03 Zoomi, Inc. Systems and methods to assist an instructor of a course
CN206179184U (zh) * 2016-09-12 2017-05-17 成都创慧科达科技有限公司 一种发呆提醒装置
US10127825B1 (en) * 2017-06-13 2018-11-13 Fuvi Cognitive Network Corp. Apparatus, method, and system of insight-based cognitive assistant for enhancing user's expertise in learning, review, rehearsal, and memorization
CN108888280B (zh) * 2018-05-24 2021-07-13 吉林大学 基于脑电信号分析的学生听课注意力评价方法
CN109686447B (zh) * 2019-01-28 2021-09-14 远光软件股份有限公司 一种基于人工智能的员工状态监测系统
CN110807585A (zh) * 2019-10-30 2020-02-18 山东商业职业技术学院 一种学员课堂学习状态在线评估方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108281052A (zh) * 2018-02-09 2018-07-13 郑州市第十中学 一种在线教学系统及在线教学方法
CN108766532A (zh) * 2018-05-11 2018-11-06 深圳市心流科技有限公司 提高注意力的教学方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN112185191A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN112185191B (zh) 一种智能数字化教学模型
CN109522815B (zh) 一种专注度评估方法、装置及电子设备
WO2020151489A1 (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN106599881A (zh) 学生状态的确定方法、装置及系统
CN101216884A (zh) 一种人脸认证的方法及系统
CN108888277B (zh) 心理测试方法、系统及终端设备
CN105224285A (zh) 眼睛开闭状态检测装置和方法
CN101583313A (zh) 觉醒状态判断模型生成装置、觉醒状态判断装置以及警告装置
CN111091046A (zh) 一种基于机器视觉的用户不良坐姿矫正系统
WO2019034184A1 (zh) 融合声学特征和发音运动特征的发音评估方法和系统
CN114708658A (zh) 一种在线学习专注度识别方法
CN111444789A (zh) 一种基于视频感应技术的近视预防方法及其系统
CN112330585A (zh) 图像质量的检测方法、装置及电子设备
CN114663734A (zh) 基于多特征融合的在线课堂学生专注度评价方法及系统
CN115546692A (zh) 一种远程教育数据采集分析方法、设备及计算机存储介质
CN113282840B (zh) 一种训练采集综合管理平台
CN110991943B (zh) 一种基于云计算的教学质量评价系统
CN107898458B (zh) 基于图像先验的单试次脑电p300成分检测方法及装置
Zhang et al. Research on Dyslexia Detection based on Eye Tracking
CN111222374A (zh) 测谎数据处理方法、装置、计算机设备和存储介质
CN115937961A (zh) 一种线上学习识别方法及设备
CN114601474A (zh) 一种运动想象迁移学习的源域样本筛选方法
CN113808207A (zh) 一种目标为儿童的双目测距方法及系统
CN107016372A (zh) 基于神经网络的人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant