CN106778658B - 基于课堂场景及学习者视线分析学习者注意力的方法 - Google Patents
基于课堂场景及学习者视线分析学习者注意力的方法 Download PDFInfo
- Publication number
- CN106778658B CN106778658B CN201611235379.XA CN201611235379A CN106778658B CN 106778658 B CN106778658 B CN 106778658B CN 201611235379 A CN201611235379 A CN 201611235379A CN 106778658 B CN106778658 B CN 106778658B
- Authority
- CN
- China
- Prior art keywords
- centerj
- camera
- image2
- image
- learner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Abstract
本发明公开一种基于课堂场景及学习者视线分析学习者注意力的方法,首先采用图像增强技术对于课堂实时采集图像进行预处理,此后采用背景建模法对授课场景进行分析,提取出课堂场景中可能的感兴趣区域,同时对学生采集图像的颜色特征进行分析,确定学习者面部位置,通过Gabor滤波器获取眼部位置并对其眼动情况分析判定其视线,通过课堂场景中的感兴趣区域位置结合学习者视线判定学习者注意力是否集中。实时性高,可根据学生的眼动情况对课堂中内容进行有效的变换,实时生成对应学习策略。
Description
技术领域
本发明涉及机器视觉方法及教育学理论,尤其是一种实时性高、基于课堂场景及学习者视线分析学习者注意力的方法。
背景技术
随着教育模式以及电子教学平台的丰富,自动地判定学习者注意力状态,从而更加智能的根据学习者自身生理、智力特点生成学习策略,显得尤为重要。传统教育者对于学习者注意力状态的检测与分析主要依靠学习者视线的变换情况,分析的效果与教育者的教育经验及能力紧密联系,缺乏统一的量化或者评判标准,当学习者众多时,教育者往往就不能估计所有学生。目前已有的解决方法主要针对学习者使用数字界面时的眼动情况进行分析,但是并没有结合课堂场景,即并不能根据学生的眼动情况对课堂中内容进行有效的变换,不能实时生成对应学习策略。
发明内容
本发明是为了解决现有技术所存在的上述技术问题,提供一种一种实时性高、基于课堂场景及学习者视线分析学习者注意力的方法。
本发明的技术解决放案是:一种基于课堂场景及学习者视线分析学习者注意力的方法,按如下步骤进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机2获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image2图像,记为Image2j,j=1,6,11,16……n,对Image2j依次按照如下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色空间并保存,
设为Image2j-face;
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模板Directx和Directy,Directx= Arrayx*cos(theta) + Arrayy*sin(theta),Directy= Arrayx*cos(theta) +Arrayy*sin(theta),
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye;
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左眼外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),,;右眼的中心坐标为,,;
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj,y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧式距离Dmov;
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
h. 计算学生眼睛应移动的距离为,所述;计算实际学生眼睛坐标(x1centerj+5,y1centerj+5)和与(x1centerj,y1centerj)的欧式距离,计算学生眼睛(x2center j+5,y2center j+5)和与(x2centerj,y2centerj)的欧式距离,如果或者,则系统发出警报并置i+5,j+5回到步骤f,否则不报警,置i+5,j+5回到步骤f,若i=n,j=n,则结束。
本发明先采用图像增强技术对于课堂实时采集图像进行预处理,此后采用背景建模法对授课场景进行分析,提取出课堂场景中可能的感兴趣区域,同时对学生采集图像的颜色特征进行分析,确定学习者面部位置,通过Gabor滤波器获取眼部位置并对其眼动情况分析判定其视线,通过课堂场景中的感兴趣区域位置结合学习者视线判定学习者注意力是否集中。实时性高,可根据学生的眼动情况对课堂中内容进行有效的变换,实时生成对应学习策略。
附图说明
图1为本发明实施例设备布置示意图。
图2 为本发明实施例摄像机B采集到的学生照片Image2j。
图3 为本发明实施例确定面部区域图Image2j-face。
图4 为本发明实施例确定眼部区域图Image2j-eye。
具体实施方式
本发明的基于课堂场景及学习者视线分析学习者注意力的系统如图1所示:设有用于摄制教师所处的教学区域图像的摄像机A及用于摄制学习者所处区域图像的摄影机B,摄像机A、摄影机B通过传输线与分析系统(计算机)相接,按照如下方法进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机2获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image2图像,记为Image2j(如图2所示),j=1,6,11,16……n,对Image2j依次按照如下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色空间并保存,设为Image2j-face(如图3所示);
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模板Directx和Directy,Directx= Arrayx*cos(theta) + Arrayy*sin(theta),Directy= Arrayx*cos(theta) +Arrayy*sin(theta),
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face
进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye(如图4所示);
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左眼
外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),,;右眼的中心坐标为,,;
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj,y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧式距离Dmov;
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
Claims (1)
1.一种基于课堂场景及学习者视线分析学习者注意力的方法,其特征在于按如下步骤进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机B获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一
幅Image2图像,记为Image2j,j=1,6,11,16……n,对Image2j依次按照如
下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设
Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素
点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色
空间并保存,设为Image2j-face;
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行
的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为
[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模
板Directx和Directy, Directx= Arrayx*cos(theta) + Arrayy*sin(theta),
Directy= Arrayx*cos(theta) + Arrayy*sin(theta),
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face
进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye;
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左
眼外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像
中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计
算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),
x1center j =(x1left j + y1right j)/2,y1center j =(y1left j + y1right j)/2;右眼的中心坐标为(x2centerj,y2center j),x2centerj =(x2left j + y2right j)/2,y2centerj =(y2left j + y2right j)/2;
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取
人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj,
y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧
式距离Dmov;
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611235379.XA CN106778658B (zh) | 2016-12-28 | 2016-12-28 | 基于课堂场景及学习者视线分析学习者注意力的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611235379.XA CN106778658B (zh) | 2016-12-28 | 2016-12-28 | 基于课堂场景及学习者视线分析学习者注意力的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778658A CN106778658A (zh) | 2017-05-31 |
CN106778658B true CN106778658B (zh) | 2020-04-21 |
Family
ID=58923698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611235379.XA Expired - Fee Related CN106778658B (zh) | 2016-12-28 | 2016-12-28 | 基于课堂场景及学习者视线分析学习者注意力的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778658B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509923A (zh) * | 2018-03-30 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 课堂注意力检测方法、装置、设备及计算机可读介质 |
CN111652045B (zh) * | 2020-04-17 | 2022-10-28 | 西北工业大学太仓长三角研究院 | 课堂教学质量评估方法和系统 |
CN111610862A (zh) * | 2020-06-22 | 2020-09-01 | 江苏开放大学(江苏城市职业学院) | 一种基于眼动信号的在线教学模式切换方法 |
CN112906633B (zh) * | 2021-03-18 | 2021-11-02 | 南通师范高等专科学校 | 一种基于学生注意力的教学优化方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6879709B2 (en) * | 2002-01-17 | 2005-04-12 | International Business Machines Corporation | System and method for automatically detecting neutral expressionless faces in digital images |
CN101105895A (zh) * | 2007-08-10 | 2008-01-16 | 上海迈辉信息技术有限公司 | 音视频多流合并教学训练系统及实现方法 |
CN102902963A (zh) * | 2012-09-27 | 2013-01-30 | 无锡天授信息科技有限公司 | 一种基于人脸特征的固定场景运动目标检测系统及方法 |
CN103617421A (zh) * | 2013-12-17 | 2014-03-05 | 上海电机学院 | 基于综合视频特征分析的疲劳检测方法及系统 |
CN104517102B (zh) * | 2014-12-26 | 2017-09-29 | 华中师范大学 | 学生课堂注意力检测方法及系统 |
CN106228293A (zh) * | 2016-07-18 | 2016-12-14 | 重庆中科云丛科技有限公司 | 教学评估方法及系统 |
-
2016
- 2016-12-28 CN CN201611235379.XA patent/CN106778658B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN106778658A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778658B (zh) | 基于课堂场景及学习者视线分析学习者注意力的方法 | |
CN106650630B (zh) | 一种目标跟踪方法及电子设备 | |
US20230072627A1 (en) | Gaze correction method and apparatus for face image, device, computer-readable storage medium, and computer program product face image | |
JP2019117577A (ja) | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 | |
CN107749986B (zh) | 教学视频生成方法、装置、存储介质和计算机设备 | |
CN104809940B (zh) | 几何立体图形投影装置及投影方法 | |
CN113538659A (zh) | 一种图像生成方法、装置、存储介质及设备 | |
CN110298569B (zh) | 基于眼动识别的学习评价方法及装置 | |
US20200193632A1 (en) | Training apparatus, recognition apparatus, training method, recognition method, and program | |
CN110163567A (zh) | 基于多任务级联卷积神经网络的课堂点名系统 | |
CN115713469A (zh) | 基于通道注意力和形变生成对抗网络的水下图像增强方法 | |
Czakóová et al. | The application of modern technologies for image processing and creating real model in teaching computer science at secondary school | |
CN111325853A (zh) | 一种基于增强现实眼镜的远程辅导系统及方法 | |
CN112101146B (zh) | 一种动物行为学记录三维捕捉装置、方法、系统及应用 | |
CN112200230A (zh) | 一种训练板的识别方法、装置及机器人 | |
US20230353702A1 (en) | Processing device, system and method for board writing display | |
CN110689001B (zh) | 一种生成复杂环境下车牌训练样本的方法 | |
CN110298236A (zh) | 一种基于深度学习的盲文图像自动识别方法和系统 | |
Shinde et al. | Study of Image Processing, Enhancement and Restoration | |
CN116434253A (zh) | 图像处理方法、装置、设备、存储介质及产品 | |
Hou et al. | Mobile augmented reality system for preschool education | |
CN113784077B (zh) | 一种信息处理方法、装置和电子设备 | |
Wang et al. | AI Promotes the Inheritance and Dissemination of Chinese Boneless Painting——Research on Design Practice from Interdisciplinary Collaboration | |
Visual Saliency Analysis of Artistic Photography based on Single-Angle Image Reconstruction Algorithm with Attention Model | ||
Tang et al. | Feature Matching-Based Undersea Panoramic Image Stitching in VR Animation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200421 Termination date: 20201228 |