CN111881830A - 一种基于注意力集中度检测的交互提示方法 - Google Patents
一种基于注意力集中度检测的交互提示方法 Download PDFInfo
- Publication number
- CN111881830A CN111881830A CN202010739386.3A CN202010739386A CN111881830A CN 111881830 A CN111881830 A CN 111881830A CN 202010739386 A CN202010739386 A CN 202010739386A CN 111881830 A CN111881830 A CN 111881830A
- Authority
- CN
- China
- Prior art keywords
- human eye
- attention
- student
- emphasis
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 22
- 230000004438 eyesight Effects 0.000 claims abstract description 51
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims abstract description 6
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 230000003993 interaction Effects 0.000 claims description 20
- 210000001747 pupil Anatomy 0.000 claims description 7
- 238000009432 framing Methods 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 210000000887 face Anatomy 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims description 2
- 239000012141 concentrate Substances 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Educational Administration (AREA)
- Multimedia (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Marketing (AREA)
- Ophthalmology & Optometry (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Geometry (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于注意力集中度检测的交互提示方法。所述交互提示方法的步骤包括,S1:实时采集学生的人眼视线区域;并对所述人眼视线区域进行处理,得到当前学生的注意力分布;S2:实时采集屏幕中的视频图像信号,并根据视觉注意力计算模型,对所述视频图像信号进行处理,得到当前的所述视频图像信号下的画面重点分布;S3:对所述学生注意力分布与所述画面重点分布进行融合分析,得到当前学生的注意力集中度;S4:根据所述当前学生的注意力集中度给出学生学习引导方案。本发明以更加直观形式的反馈出学生课堂学习时的注意力集中情况,并进行交互提示,让学生集中注意力进行学习。
Description
技术领域
本发明属于信息技术处理领域,特别涉及一种基于注意力集中度检测的交互提示方法。
背景技术
学生在课堂学习过程中,学生注意力是否集中,是学生学习成绩好坏的关键,而在学习过程中,无法获知学生的注意力集中度,不能保证全部学生能够很好的集中注意力去学习,导致学习效果较差。特别是现在网课比较多,老师不能了解到学生的听课状态,不能根据学生学习情况及时调整教学进度方案等,导致教学质量比较差。所以现在迫切需要一种对学生注意力集中度检测的交互提示方法。
发明内容
针对上述问题,本发明公开了一种基于注意力集中度检测的交互提示方法,所述交互提示方法步骤包括,S1:实时采集学生的人眼视线区域;并对所述人眼视线区域进行处理,得到当前学生的注意力分布;S2:实时采集屏幕中的视频图像信号,并根据视觉注意力计算模型,对所述视频图像信号进行处理,得到当前的所述视频图像信号下的画面重点分布;S3:对所述学生注意力分布与所述画面重点分布进行融合分析,得到当前学生的注意力集中度;S4:根据所述当前学生的注意力集中度给出学生学习引导方案。
进一步的,S1中包括以下步骤,S11:采用课堂平板电脑自带相机进行人脸的识别采集;S12:采用SDM检测算法检测人眼特征点,经多次迭代后找到特征点最优解,从而确定左/右眼的六个特征点,利用几何知识,定位人眼轮廓中心点;S13:利用图像梯度信息来获取虹膜的中心位置;S14:采用最小二乘法椭圆拟合算法拟合人眼轮廓,然后依据拟合椭圆的宽高比确定人眼的开闭状态;如果宽高比小于设定的睁开阈值,人眼属于关闭状态,输出人眼关闭;如果宽高比大于设定睁开阈值,则人眼属于睁开状态,则跳转到S15;S15:计算人眼轮廓中心点与实际瞳孔的距离,将该距离与给定中心半径比较,当该距离小于给定中心半径,输出人眼视线区域为“中间”;当该距离大于给定中心半径,则判别人眼视线区域不在“中间”,跳转到下一步骤;S16:如果宽高比小于或等于给定的临界阈值,则视线区域定位到“左下”、“右下”,比较人眼轮廓中心点位置x0与实际瞳孔位置x的距离和相对位置,当X<X0-0.4*b时,输出人眼视线区域为“右下”,并记录持续时间,当X>X0+0.4*b,输出人眼视线区域为“左下”,并记录持续时间;b为虹膜的短半轴长;如果宽高比大于给定的临界阈值,则视线区域定位到“左上”、“右上”,比较人眼轮廓中心点位置与实际瞳孔位置的距离和相对位置,当X<X0-0.4*b时,输出人眼视线区域为“右上”,并记录持续时间,当X>X0+0.4*b,输出人眼视线区域为“左上”,并记录持续时间;S17:输出当前人眼视线区域分布记录表。
进一步的,S2中包括以下步骤,S21:获取视频图像信号;S22:对所述视频图像信号进行分帧,将分解出的帧进行人脸检测和画面重点自动跟踪监测,所述画面重点包括所述画面上的人脸、重点物体以及突出的文字;S23:将所述重点画面标识为中间、左下、右下、左上、右上,并记录画面重点的持续时间;S24:输出当前画面重点分布记录表。
进一步的,当S23中所述画面存在多个画面重点时,所述多个画面重点合并为重点区域,且所述重点区域最多覆盖三个所述画面重点。
进一步的,步骤S3中对所述人眼视线区域与所述画面重点分布进行融合分析,得到当前学生的注意力集中度,包括,S31:将所述人眼视线区域与所述持续时间记录表以及所述画面重点与所述持续时间记录表进行合并,通过持续时间连接两表数据;S32:当所述人眼视线区域与所述画面重点相同时,则开始累积计算时间Ti;计算所述学生的专注时间,其中i大于0,i为整数;S33:对当前班级的学生课堂注意力集中度的得分T排序,并划分注意力等级:SABCDE;根据正态分布,S5%,A15%,B30%,C30%,D15%,E5%,将学生按照班级百分比排名划分档次;S34:对每个所述注意力等级设置分值,即专注得分,则该学期最终专注得分=各个课堂专注得分之和。
进一步的,S4中所述学生学习引导方案采用双面屏或者单面交互屏进行强制交互。
进一步的,S41中所述强制交互包括通过双面屏或者单面交互屏弹出页面或弹窗,询问学生状态,并根据学生选择结果推送引导方案或学习建议。
进一步的,S41中所述强制交互还包括对学生的反馈速度计算,根据学生反馈速度形成独立的反馈速度评分系统。
进一步的,S41中所述强制交互还包括老师自动发送问题。
进一步的,S4中所述引导方案包括鼓励信息推送、慰问信息推送、表情包推送以及奖励信息推送。
本发明优点如下:
1)以更加直观形式的反馈出学生课堂学习时的注意力集中情况,并进行交互提示,让学生集中注意力进行学习。
2)能够确定人眼视线区域所集中的位置。
3)能够确定画面重点的所在位置。
4)对多个画面重点进行调整,使得得到的画面重点分布记录表更真实。
5)将人眼视线区域和画面重点位置按照时间轴进行比对,能够得出各个时间段内的学生注意力集中度。
6)采用强制交互帮助学生集中注意力,提升学生学习效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的基于注意力集中度检测的交互提示方法流程图;
图2示出了根据本发明实施例的步骤S1的流程图;
图3示出了根据本发明实施例的步骤S2的流程图;
图4示出了根据本发明实施例的步骤S3的流程图;
图5示出了根据本发明实施例步骤S3中人眼视线区域与画面重点的对照表。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本发明进行理解,下面对本发明进行详细介绍。
本发明公开了一种基于注意力集中度检测的交互提示方法。如图1-4所示,所述交互提示方法包括以下步骤:
S1:实时采集学生的人眼视线区域;并对所述人眼视线区域进行处理,得到当前学生的注意力分布。
具体的,如图2所示,
S11:采用课堂平板电脑自带相机进行人脸的识别采集。
S12:采用SDM检测算法检测人眼特征点,经过多次迭代后找到特征点最优点,从而确定左/右的六个特征点,利用几何知识,定位人眼轮廓中心点。
S13:利用图像梯度信息来获取虹膜的中心位置。
S14:采用最小二乘法椭圆拟合算法拟合人眼轮廓,然后依据拟合椭圆的宽高比确定人眼的开闭状态。如果宽高比大于设定睁开阈值,则人眼属于睁开状态,跳转S15;如果宽高比小于设定的睁开阈值,人眼则属于关闭状态。
S15:判断人眼视线区域所在位置。示例性的,计算人眼轮廓中心点与实际瞳孔中心点的距离,将该距离与设定的给点中心半径进行比较,当所述距离大于给点中心半径,则判别人眼视线区域不在“中间”跳转S16;当所述距离小于给点中心半径,人眼视线区域为“中间”。
S16:如果人眼轮廓宽高比大于给定的临界阈值,则视线区域定位到“左上”、“右上”;进一步的,比较人眼轮廓中心位置与实际瞳孔的距离长度X和预定长度X0的关系,当X>X0+0.4*b,则判断人眼视线区域为“左上”;当X<X0-0.4*b时,人眼视线区域为右上;如果人眼轮廓宽高比小于或等于临界阈值,则人眼视线区域定位到“左下”、“右下”,进一步的,当X>X0+0.4*b时,人眼视线区域为“左下”,当X<X0-0.4*b时,人眼视线区域为“右下”。其中b为虹膜的短半轴长度。示例性的,临界阈值为0.3时,实验效果更接近真实场景。
S17:输出人眼视线区域分布记录表。所述人眼视线区域分布记录表主要内容为人眼视线区域与持续时间的对照。
以时间间隔30秒为例:
30秒:左下;60秒:左上;1分30秒:左上;2分:右上……则表示为0-30秒,人眼视线区域为“左下”,30秒-1分30秒,人眼视线区域为“左上”,1分30秒-2分,人眼视线区域为“右上”时间间隔越短,得到的数据越准确。
S2:实时采集屏幕中的视频图像信号,并根据视觉注意力计算模型,对所述视频图像信号进行处理,得到当前的所述视频图像信号下的画面重点分布。
具体的,如图3所示,
S21:获取视频图像信号。
S22:将所述视频图像信号进行分帧;将分解出的帧进行人脸检测和画面重点自动跟踪检测,所述画面重点包括但不限于所述画面上的人脸、重点物体以及突出的文字。
S23:将所述画面重点划分为多个区域并进行标记。
示例性的,将所述画面重点标识为中间、左上、左下、右上、右下五个区域,并且记录重点画面的持续时间。所标识的五个区域分别对应S1中人眼视线区域的五个区域。
示例性的,当画面存在多个画面重点时,进行区域调整合并,但是最多合并三个区域,另外两个区域用来检测注意力不集中,进行对比。
具体的,优先识别画面内容,根据画面内容对画面分区进行调整,示例性的,老师在推导一个知识点时,知识点大部分出现A区,但是有少部分出现在B区,此时可以调整A区与B区之间的分界线,将A区扩大,B区缩小,使得知识点全部出现在A区。
具体的,当知识点出现在所述画面内容的多个区域,可以将画面内容进行分区调整,例如将所述多个区域均标记为C区,在所述画面内容内标记出不存在知识点的对照区D区。
S24:输出当前画面重点分布记录表。所述分布表主要内容为所述视频图像信号的画面重点所在区域与持续时间的对照表。
示例性的,以相同的时间间隔为30秒为例:
30秒:左下;60秒:左下、中间;1分30秒:左下、中间、左上;2分:中间……,所述画面重点分布记录表与所述人眼视线区域分布记录表的时间间隔相同。
S3:对所述人眼视线区域与所述画面重点分布进行融合分析,得到当前学生的注意力集中度。
具体的,如图4所示,
S31:将人眼视线区域分布记录表和画面重点分布记录表进行合并,通过时间连接两表数据。
S32:当所述人眼视线区域与所述画面重点相同时,则开始累积计算时间Ti,其中i为整数,且i大于1。计算所述学生的专注时间,
具体的,如图5所示,在0-30秒内,人眼视线区域为“左下”,画面重点在“左下”,则0-30秒时间段内,学生处于注意力集中状态,T1为在此时间段内的得分;在30-60秒时间段内,人眼视线区域为“左上”,而画面重点为“左下和中间”,人眼视线区域不在画面重点区域内,学生处于注意力不集中状态,T2为在此时间段内的不得分,即T2=0,在60秒-1分30秒时间段内,人眼视线为“左上”,画面重点区域在“左下、中间、左上”,则人眼视线区域在画面重点区域内,T3为在此时间段内的得分;在1分30秒-2分钟时间端内,人眼实现区域为右上,画面重点区域在中间,T4在此时间段内的不得分,T4=0;…
总体学生课堂注意力集中度的得分T如下:
T=T1+T2+T3+T4+…
S33:对当前班级的学生课堂注意力集中度的得分T排序,并划分注意力等级:SABCDE;
根据正态分布,S5%,A15%,B30%,C30%,D15%,E5%,将学生按照班级百分比排名划分档次;
S34:对每个所述注意力等级设置分值,即专注得分,则该学期最终专注得分=各个课堂专注得分之和。
S4:根据所述当前学生的注意力集中度给出学生学习引导方案。
具体的,采用双面屏或者单面交互屏进行强制互动。
示例性的,所述强制互动包括通过双面屏或者单面交互屏弹出页面或者弹窗,询问学生状态,并根据学生选择结果推送引导方案或学习建议。通过强制互动能有效的提高学生注意力集中度。
示例性的,所述强制交互还包括对学生的反馈速度计算,根据学生反馈速度形成独立的反馈速度评分系统。
示例性的,所述引导方案包括鼓励信息推送、慰问信息推送、表情包推送以及奖励信息推送。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于注意力集中度检测的交互提示方法,其特征在于,所述交互提示方法步骤包括,
S1:实时采集学生的人眼视线区域;并对所述人眼视线区域进行处理,得到当前学生的注意力分布;
S2:实时采集屏幕中的视频图像信号,并根据视觉注意力计算模型,对所述视频图像信号进行处理,得到当前的所述视频图像信号下的画面重点分布;
S3:对所述学生注意力分布与所述画面重点分布进行融合分析,得到当前学生的注意力集中度;
S4:根据所述当前学生的注意力集中度给出学生学习引导方案。
2.根据权利要求1所述的基于注意力集中度检测的交互提示方法,其特征在于,S1中包括以下步骤:
S11:采用课堂平板电脑自带相机进行人脸的识别采集;
S12:采用SDM检测算法检测人眼特征点,经多次迭代后找到特征点最优解,从而确定左/右眼的六个特征点,利用几何知识,定位人眼轮廓中心点;
S13:利用图像梯度信息来获取虹膜的中心位置;
S14:采用最小二乘法椭圆拟合算法拟合人眼轮廓,然后依据拟合椭圆的宽高比确定人眼的开闭状态;
如果宽高比小于设定的睁开阈值,人眼属于关闭状态,输出人眼关闭;如果宽高比大于设定睁开阈值,则人眼属于睁开状态,则跳转到S15;
S15:计算人眼轮廓中心点与实际瞳孔的距离,将该距离与给定中心半径比较,当该距离小于给定中心半径,输出人眼视线区域为“中间”;当该距离大于给定中心半径,则判别人眼视线区域不在“中间”,跳转到下一步骤;
S16:如果宽高比小于或等于给定的临界阈值,则视线区域定位到“左下”、“右下”,比较人眼轮廓中心点位置x0与实际瞳孔位置x的距离和相对位置,当X<X0-0.4*b时,输出人眼视线区域为“右下”,并记录持续时间,当X>X0+0.4*b,输出人眼视线区域为“左下”,并记录持续时间;b为虹膜的短半轴长;
如果宽高比大于给定的临界阈值,则视线区域定位到“左上”、“右上”,比较人眼轮廓中心点位置与实际瞳孔位置的距离和相对位置,当X<X0-0.4*b时,输出人眼视线区域为“右上”,并记录持续时间,当X>X0+0.4*b,输出人眼视线区域为“左上”,并记录持续时间;
S17:输出当前人眼视线区域分布记录表。
3.根据权利要求2所述的基于注意力集中度检测的交互提示方法,其特征在于,S2中包括以下步骤,
S21:获取视频图像信号;
S22:对所述视频图像信号进行分帧,将分解出的帧进行人脸检测和画面重点自动跟踪监测,所述画面重点包括所述画面上的人脸、重点物体以及突出的文字;
S23:将所述重点画面标识为中间、左下、右下、左上、右上,并记录画面重点的持续时间;
S24:输出当前画面重点分布记录表。
4.根据权利要求3所述的基于注意力集中度检测的交互提示方法,其特征在于,当S23中所述画面存在多个画面重点时,所述多个画面重点合并为重点区域,且所述重点区域最多覆盖三个所述画面重点。
5.根据权利要求3所述的基于注意力集中度检测的交互提示方法,其特征在于,步骤S3中对所述人眼视线区域与所述画面重点分布进行融合分析,得到当前学生的注意力集中度,包括,
S31:将所述人眼视线区域分布记录表和画面重点分布记录表进行合并,通过持续时间连接两表数据;
S32:当所述人眼视线区域与所述画面重点相同时,则开始累积计算时间Ti;
计算所述学生的专注时间,其中i大于0,i为整数;
S33:对当前班级的学生课堂注意力集中度的得分T排序,并划分注意力等级:SABCDE;
根据正态分布,S5%,A15%,B30%,C30%,D15%,E5%,将学生按照班级百分比排名划分档次;
S34:对每个所述注意力等级设置分值,即专注得分,则学期最终专注得分=各个课堂专注得分之和。
6.根据权利要求1所述的基于注意力集中度检测的交互提示方法,其特在于,S4中所述学生学习引导方案采用双面屏或者单面交互屏进行强制交互。
7.根据权利要求6所述的基于注意力集中度检测的交互提示方法,其特征在于,S41中所述强制交互包括通过双面屏或者单面交互屏弹出页面或弹窗,询问学生状态,并根据学生选择结果推送引导方案或学习建议。
8.根据权利要求6所述的基于注意力集中度检测的交互提示方法,其特征在于,S41中所述强制交互还包括对学生的反馈速度计算,根据学生反馈速度形成独立的反馈速度评分系统。
9.根据权利要求6所述的基于注意力集中度检测的交互提示方法,其特征在于,S41中所述强制交互还包括老师自动发送问题。
10.根据权利要求6所述的基于注意力集中度检测的交互提示方法,其特征在于,S4中所述引导方案包括鼓励信息推送、慰问信息推送、表情包推送以及奖励信息推送。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010739386.3A CN111881830A (zh) | 2020-07-28 | 2020-07-28 | 一种基于注意力集中度检测的交互提示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010739386.3A CN111881830A (zh) | 2020-07-28 | 2020-07-28 | 一种基于注意力集中度检测的交互提示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111881830A true CN111881830A (zh) | 2020-11-03 |
Family
ID=73200861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010739386.3A Pending CN111881830A (zh) | 2020-07-28 | 2020-07-28 | 一种基于注意力集中度检测的交互提示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111881830A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113919981A (zh) * | 2021-10-08 | 2022-01-11 | 北京高途云集教育科技有限公司 | 一种专注监控方法及装置 |
CN115019570A (zh) * | 2021-03-03 | 2022-09-06 | 北京七鑫易维信息技术有限公司 | 一种智能教学系统 |
CN115113784A (zh) * | 2021-03-08 | 2022-09-27 | 北京七鑫易维信息技术有限公司 | 一种显示方法、装置、设备及存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101075265A (zh) * | 2007-07-23 | 2007-11-21 | 王文钢 | 自动跟踪画面重点区域的网页小窗口视频展示的方法 |
KR20140146750A (ko) * | 2013-06-18 | 2014-12-29 | 장현철 | 시선 기반 교육 콘텐츠 실행 방법 및 시스템 |
CN104517102A (zh) * | 2014-12-26 | 2015-04-15 | 华中师范大学 | 学生课堂注意力检测方法及系统 |
CN107392120A (zh) * | 2017-07-06 | 2017-11-24 | 电子科技大学 | 一种基于视线估计的注意力智能监督方法 |
CN108491781A (zh) * | 2018-03-16 | 2018-09-04 | 福州外语外贸学院 | 一种课堂专注度评估方法及终端 |
CN108762502A (zh) * | 2018-05-24 | 2018-11-06 | 山东师范大学 | 一种基于眼动追踪的虚拟现实人群仿真方法及系统 |
CN109086693A (zh) * | 2018-07-16 | 2018-12-25 | 安徽国通亿创科技股份有限公司 | 一种在线教学学习注意力的检测技术 |
CN109472464A (zh) * | 2018-10-22 | 2019-03-15 | 佛山市顺德区中山大学研究院 | 一种基于眼动追踪的在线课程质量的评估方法 |
CN109583292A (zh) * | 2018-10-11 | 2019-04-05 | 杭州电子科技大学 | 一种视线区域检测方法 |
CN109902630A (zh) * | 2019-03-01 | 2019-06-18 | 上海像我信息科技有限公司 | 一种注意力判断方法、装置、系统、设备和存储介质 |
CN109949193A (zh) * | 2019-04-02 | 2019-06-28 | 中国计量大学上虞高等研究院有限公司 | 可变光环境下学习注意力检测与预判装置和方法 |
CN110458069A (zh) * | 2019-08-02 | 2019-11-15 | 深圳市华方信息产业有限公司 | 一种基于脸部识别辅助管理用户在线学习状态的方法及系统 |
KR20200012355A (ko) * | 2018-07-27 | 2020-02-05 | 백석대학교산학협력단 | Clm과 가버 웨이블렛을 이용한 얼굴 인증 과정을 구비한 온라인 강의 모니터링 방법 |
US20200126444A1 (en) * | 2017-06-23 | 2020-04-23 | Beijing Yizhen Xuesi Education Technology Co., Ltd. | Method and apparatus for monitoring learning and electronic device |
-
2020
- 2020-07-28 CN CN202010739386.3A patent/CN111881830A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101075265A (zh) * | 2007-07-23 | 2007-11-21 | 王文钢 | 自动跟踪画面重点区域的网页小窗口视频展示的方法 |
KR20140146750A (ko) * | 2013-06-18 | 2014-12-29 | 장현철 | 시선 기반 교육 콘텐츠 실행 방법 및 시스템 |
CN104517102A (zh) * | 2014-12-26 | 2015-04-15 | 华中师范大学 | 学生课堂注意力检测方法及系统 |
US20200126444A1 (en) * | 2017-06-23 | 2020-04-23 | Beijing Yizhen Xuesi Education Technology Co., Ltd. | Method and apparatus for monitoring learning and electronic device |
CN107392120A (zh) * | 2017-07-06 | 2017-11-24 | 电子科技大学 | 一种基于视线估计的注意力智能监督方法 |
CN108491781A (zh) * | 2018-03-16 | 2018-09-04 | 福州外语外贸学院 | 一种课堂专注度评估方法及终端 |
CN108762502A (zh) * | 2018-05-24 | 2018-11-06 | 山东师范大学 | 一种基于眼动追踪的虚拟现实人群仿真方法及系统 |
CN109086693A (zh) * | 2018-07-16 | 2018-12-25 | 安徽国通亿创科技股份有限公司 | 一种在线教学学习注意力的检测技术 |
KR20200012355A (ko) * | 2018-07-27 | 2020-02-05 | 백석대학교산학협력단 | Clm과 가버 웨이블렛을 이용한 얼굴 인증 과정을 구비한 온라인 강의 모니터링 방법 |
CN109583292A (zh) * | 2018-10-11 | 2019-04-05 | 杭州电子科技大学 | 一种视线区域检测方法 |
CN109472464A (zh) * | 2018-10-22 | 2019-03-15 | 佛山市顺德区中山大学研究院 | 一种基于眼动追踪的在线课程质量的评估方法 |
CN109902630A (zh) * | 2019-03-01 | 2019-06-18 | 上海像我信息科技有限公司 | 一种注意力判断方法、装置、系统、设备和存储介质 |
CN109949193A (zh) * | 2019-04-02 | 2019-06-28 | 中国计量大学上虞高等研究院有限公司 | 可变光环境下学习注意力检测与预判装置和方法 |
CN110458069A (zh) * | 2019-08-02 | 2019-11-15 | 深圳市华方信息产业有限公司 | 一种基于脸部识别辅助管理用户在线学习状态的方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115019570A (zh) * | 2021-03-03 | 2022-09-06 | 北京七鑫易维信息技术有限公司 | 一种智能教学系统 |
CN115113784A (zh) * | 2021-03-08 | 2022-09-27 | 北京七鑫易维信息技术有限公司 | 一种显示方法、装置、设备及存储介质 |
CN113919981A (zh) * | 2021-10-08 | 2022-01-11 | 北京高途云集教育科技有限公司 | 一种专注监控方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111881830A (zh) | 一种基于注意力集中度检测的交互提示方法 | |
CN110991381B (zh) | 一种基于行为和语音智能识别的实时课堂学生状态分析与指示提醒系统和方法 | |
CN108281052B (zh) | 一种在线教学系统及在线教学方法 | |
CN109192204B (zh) | 一种基于智能设备摄像头的语音控制方法和智能设备 | |
Crosnoe | Studying the immigrant paradox in the Mexican-origin population. | |
Indi et al. | Detection of malpractice in e-exams by head pose and gaze estimation | |
Vilaró et al. | How sound is the Pear Tree Story? Testing the effect of varying audio stimuli on visual attention distribution | |
CN112183238A (zh) | 一种远程教育注意力检测方法及系统 | |
KR20210144421A (ko) | 온라인 학습 장치 및 그 방법 | |
US20240153395A1 (en) | Tracking concepts and presenting content in a learning system | |
US20230110002A1 (en) | Video highlight extraction method and system, and storage medium | |
CN107844762A (zh) | 信息处理方法及系统 | |
CN110930781A (zh) | 录播系统 | |
CN114971975A (zh) | 在线教育平台用的学习异常提醒方法及系统 | |
JP2022014890A (ja) | 集中度判別プログラム | |
CN113282840A (zh) | 一种训练采集综合管理平台 | |
CN117768597B (zh) | 一种导播方法、装置、设备和存储介质 | |
US10937331B2 (en) | Learning systems and automatic transitioning between learning systems | |
KR102439446B1 (ko) | 인공지능 기반 학습 관리 시스템 | |
WO2022263715A1 (en) | A method, an apparatus and a computer program product for smart learning platform | |
CN115544226A (zh) | 一种基于多模态情感分析的相似识别方法 | |
CN115936934A (zh) | 一种英语在线教育培训系统及培训方法 | |
CN108124186A (zh) | 一种视频录播的切换控制方法、装置及系统 | |
Tebbe et al. | Altercentric memory error at 9 months but correct object memory by 18 months revealed in infants’ pupil | |
Hwang et al. | Attentiveness assessment in learning based on fuzzy logic analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |