CN106778658B - 基于课堂场景及学习者视线分析学习者注意力的方法 - Google Patents

基于课堂场景及学习者视线分析学习者注意力的方法 Download PDF

Info

Publication number
CN106778658B
CN106778658B CN201611235379.XA CN201611235379A CN106778658B CN 106778658 B CN106778658 B CN 106778658B CN 201611235379 A CN201611235379 A CN 201611235379A CN 106778658 B CN106778658 B CN 106778658B
Authority
CN
China
Prior art keywords
centerj
camera
image2
image
learner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201611235379.XA
Other languages
English (en)
Other versions
CN106778658A (zh
Inventor
傅维利
傅博
宋传鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Normal University
Original Assignee
Liaoning Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Normal University filed Critical Liaoning Normal University
Priority to CN201611235379.XA priority Critical patent/CN106778658B/zh
Publication of CN106778658A publication Critical patent/CN106778658A/zh
Application granted granted Critical
Publication of CN106778658B publication Critical patent/CN106778658B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Abstract

本发明公开一种基于课堂场景及学习者视线分析学习者注意力的方法,首先采用图像增强技术对于课堂实时采集图像进行预处理,此后采用背景建模法对授课场景进行分析,提取出课堂场景中可能的感兴趣区域,同时对学生采集图像的颜色特征进行分析,确定学习者面部位置,通过Gabor滤波器获取眼部位置并对其眼动情况分析判定其视线,通过课堂场景中的感兴趣区域位置结合学习者视线判定学习者注意力是否集中。实时性高,可根据学生的眼动情况对课堂中内容进行有效的变换,实时生成对应学习策略。

Description

基于课堂场景及学习者视线分析学习者注意力的方法
技术领域
本发明涉及机器视觉方法及教育学理论,尤其是一种实时性高、基于课堂场景及学习者视线分析学习者注意力的方法。
背景技术
随着教育模式以及电子教学平台的丰富,自动地判定学习者注意力状态,从而更加智能的根据学习者自身生理、智力特点生成学习策略,显得尤为重要。传统教育者对于学习者注意力状态的检测与分析主要依靠学习者视线的变换情况,分析的效果与教育者的教育经验及能力紧密联系,缺乏统一的量化或者评判标准,当学习者众多时,教育者往往就不能估计所有学生。目前已有的解决方法主要针对学习者使用数字界面时的眼动情况进行分析,但是并没有结合课堂场景,即并不能根据学生的眼动情况对课堂中内容进行有效的变换,不能实时生成对应学习策略。
发明内容
本发明是为了解决现有技术所存在的上述技术问题,提供一种一种实时性高、基于课堂场景及学习者视线分析学习者注意力的方法。
本发明的技术解决放案是:一种基于课堂场景及学习者视线分析学习者注意力的方法,按如下步骤进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机2获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
计算摄像机A照射区域的面积与图像Image1大小的比值,记为ratio1,
Figure 139775DEST_PATH_IMAGE001
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image2图像,记为Image2j,j=1,6,11,16……n,对Image2j依次按照如下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色空间并保存,
设为Image2j-face
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模板Directx和Directy,Directx= Arrayx*cos(theta) + Arrayy*sin(theta),Directy= Arrayx*cos(theta) +Arrayy*sin(theta),
所述方向参数theta为要生成Gabor滤波器的角度,生成水平Gabor滤波器Gaborx时theta为0,生成竖直Gabor滤波器Gabory时theta为
Figure DEST_PATH_IMAGE002
, 按照如下公式:
Figure 228210DEST_PATH_IMAGE003
,sigma设置为3,分别生成水平Gabor滤波器Gaborx 和竖直Gabor滤波器Gabory
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左眼外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),
Figure 670561DEST_PATH_IMAGE004
Figure 11018DEST_PATH_IMAGE005
;右眼的中心坐标为
Figure 391183DEST_PATH_IMAGE006
Figure 968795DEST_PATH_IMAGE007
Figure 16386DEST_PATH_IMAGE008
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
Figure 388461DEST_PATH_IMAGE009
;
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj,y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧式距离Dmov
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
h. 计算学生眼睛应移动的距离为
Figure 318240DEST_PATH_IMAGE010
,所述
Figure 433964DEST_PATH_IMAGE011
;计算实际学生眼睛坐标(x1centerj+5,y1centerj+5)和与(x1centerj,y1centerj)的欧式距离
Figure 338990DEST_PATH_IMAGE012
,计算学生眼睛(x2center j+5,y2center j+5)和与(x2centerj,y2centerj)的欧式距离
Figure 881967DEST_PATH_IMAGE013
,如果
Figure 502304DEST_PATH_IMAGE014
或者
Figure 218456DEST_PATH_IMAGE015
,则系统发出警报并置i+5,j+5回到步骤f,否则不报警,置i+5,j+5回到步骤f,若i=n,j=n,则结束。
本发明先采用图像增强技术对于课堂实时采集图像进行预处理,此后采用背景建模法对授课场景进行分析,提取出课堂场景中可能的感兴趣区域,同时对学生采集图像的颜色特征进行分析,确定学习者面部位置,通过Gabor滤波器获取眼部位置并对其眼动情况分析判定其视线,通过课堂场景中的感兴趣区域位置结合学习者视线判定学习者注意力是否集中。实时性高,可根据学生的眼动情况对课堂中内容进行有效的变换,实时生成对应学习策略。
附图说明
图1为本发明实施例设备布置示意图。
图2 为本发明实施例摄像机B采集到的学生照片Image2j
图3 为本发明实施例确定面部区域图Image2j-face
图4 为本发明实施例确定眼部区域图Image2j-eye
具体实施方式
本发明的基于课堂场景及学习者视线分析学习者注意力的系统如图1所示:设有用于摄制教师所处的教学区域图像的摄像机A及用于摄制学习者所处区域图像的摄影机B,摄像机A、摄影机B通过传输线与分析系统(计算机)相接,按照如下方法进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机2获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
计算摄像机A照射区域的面积与图像Image1大小的比值,记为ratio1,
Figure 240639DEST_PATH_IMAGE001
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image2图像,记为Image2j(如图2所示),j=1,6,11,16……n,对Image2j依次按照如下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色空间并保存,设为Image2j-face(如图3所示);
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模板Directx和Directy,Directx= Arrayx*cos(theta) + Arrayy*sin(theta),Directy= Arrayx*cos(theta) +Arrayy*sin(theta),
所述方向参数theta为要生成Gabor滤波器的角度,生成水平Gabor滤波器Gaborx时theta为0,生成竖直Gabor滤波器Gabory时theta为
Figure 954517DEST_PATH_IMAGE002
, 按照如下公式:
Figure 861818DEST_PATH_IMAGE003
,sigma设置为3,分别生成水平Gabor滤波器Gaborx 和竖直Gabor滤波器Gabory
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face
进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye(如图4所示);
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左眼
外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),
Figure 319344DEST_PATH_IMAGE004
Figure 196033DEST_PATH_IMAGE005
;右眼的中心坐标为
Figure 205446DEST_PATH_IMAGE006
Figure 597113DEST_PATH_IMAGE007
Figure 48211DEST_PATH_IMAGE008
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
Figure 779406DEST_PATH_IMAGE009
;
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj,y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧式距离Dmov
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
h.计算学生眼睛应移动的距离为
Figure 835087DEST_PATH_IMAGE010
,所述
Figure 714050DEST_PATH_IMAGE011
;计算实际学生眼睛坐标(x1centerj+5,y1centerj+5)和与(x1centerj,y1centerj)的欧式距离
Figure 832486DEST_PATH_IMAGE012
,计算学生眼睛(x2center j+5,y2center j+5)和与(x2centerj,y2centerj)的欧式距离
Figure 857336DEST_PATH_IMAGE013
,如果
Figure 585383DEST_PATH_IMAGE014
或者
Figure 390790DEST_PATH_IMAGE015
,则系统发出警报并置i+5,j+5回到步骤f,否则不报警,置i+5,j+5回到步骤f,若i=n,j=n,则结束。

Claims (1)

1.一种基于课堂场景及学习者视线分析学习者注意力的方法,其特征在于按如下步骤进行:
a. 启动系统;
b. 设置拍摄教学区域的摄像机A,初始化摄像机A;
设摄像机A获取的视频帧图像为Image1,Image1的长为l1个像素,宽为w1个像素,摄像机A所照射区域的长为L1米,宽为W1米;
c. 设置拍摄学生所在区域的摄像机B,初始化摄像机B;
设摄像机B获取的视频帧图像为Image2,Image2的长为l2个像素,宽为w2个像素,摄像头机B所照射区域的长为L2米,宽为W2米;
d. 设i为摄像机A拍摄的帧图像序列,从第1帧开始,每隔5帧读取一幅Image1图像,记为Image1i,i=1,6,11,16……n,对Image1i进行双背景建模提取前景图像;
保留提取的前景图像内容,其余背景内容置零,保存前景图像结果图,记为Fimage_i;
计算Fimage_i所有非零内容的坐标的均值,记为(xfcenteri,yfcenteri);
计算摄像机A照射区域的面积与图像Image1大小的比值,记为ratio1,
Figure DEST_PATH_IMAGE001
e. 设j为摄像机B拍摄的帧图像序列,从第1帧开始,每隔5帧读取一
幅Image2图像,记为Image2j,j=1,6,11,16……n,对Image2j依次按照如
下步骤处理:
e.1 将Image2j由RGB颜色空间转为YcbCr颜色空间,转换公式为:
Y= 0.299*R + 0.587*G + 0.114*B,Cb=-0.1687*R-0.3313*G+0.5000*B+128,设
Cb色调在130~170之间的内容作为常见的人脸色调,对整幅图像搜索,如果像素
点Cb值小于170且大于130则置保存,否则置0,将上述结果反变换回RGB颜色
空间并保存,设为Image2j-face
e.2 生成两个规模为11*11的二维数组Arrayx和Arrayy,数组Arrayx中每一行
的值都为[-5,-4,-3,-2,-1,0,1,2,3,4,5],数组Arrayy中每一列的值都为
[-5,-4,-3,-2,-1,0,1,2,3,4,5],对Arrayx,Arrayy分别乘以方向参数theta以生成方向模
板Directx和Directy, Directx= Arrayx*cos(theta) + Arrayy*sin(theta),
Directy= Arrayx*cos(theta) + Arrayy*sin(theta),
所述方向参数theta为要生成Gabor滤波器的角度,生成水平Gabor滤波器Gaborx时theta为0,生成竖直Gabor滤波器Gabory时theta为
Figure 277065DEST_PATH_IMAGE002
, 按照如下公式:
Figure DEST_PATH_IMAGE003
,sigma设置为3,分别生成水平Gabor滤波器Gaborx 和竖直Gabor滤波器Gabory
e.3采用水平和竖直方向的Gabor滤波器Gaborx和Gabory分别对Image2j-face
进行卷积操作,得到的结果为第j帧图像中眼部图像区域,记为Image2j-eye
e.4 对Image2j- eye进行逐行扫描,计算两只眼睛的外包围盒:设图像中左
眼外包围盒的左上角为(x1left j,y1left j),右下角为(x1right j,y1right j),设图像
中右眼外包围盒的左上角为(x2left j,y2left j),右下角为(x2right j,y2right j),计
算两个眼睛的中心坐标并保存,左眼的中心坐标为(x1center j,y1center j),
x1center j =(x1left j + y1right j)/2,y1center j =(y1left j + y1right j)/2;右眼的中心坐标为(x2centerj,y2center j),x2centerj =(x2left j + y2right j)/2,y2centerj =(y2left j + y2right j)/2;
e.5计算摄像机B照射区域的面积与图像Image2大小的比值,设为ratio2,
Figure 990944DEST_PATH_IMAGE004
;
f. 从i=1,j=1起,获取(xfcentri+5,yfcenteri+5)并保存为(xfcentri,yfcenteri),获取
人眼的中心坐标(x1centerj+5,y1centerj+5)和(x2centerj+5,y2centerj+5),保存为(x1centerj
y1centerj)和(x2centerj,y2centerj),计算(xfcentri+5,yfcenteri+5)与(xfcentri,yfcenteri)的欧
式距离Dmov
g.如果Dmov大于20,进入下一步骤,否则置i+5,j+5回到步骤f,若i=n,j=n,则结束;
h. 计算学生眼睛应移动的距离为
Figure DEST_PATH_IMAGE005
,所述
Figure 583730DEST_PATH_IMAGE006
;计算实际学生眼睛坐标(x1centerj+5,y1centerj+5)和与(x1centerj,y1centerj)的欧式距离
Figure DEST_PATH_IMAGE007
,计算学生眼睛(x2center j+5,y2center j+5)和与(x2centerj,y2centerj)的欧式距离
Figure 713360DEST_PATH_IMAGE008
,如果
Figure DEST_PATH_IMAGE009
或者
Figure 324470DEST_PATH_IMAGE010
,则系统发出警报并置i+5,j+5回到步骤f,否则不报警,置i+5,j+5回到步骤f,若i=n,j=n,则结束。
CN201611235379.XA 2016-12-28 2016-12-28 基于课堂场景及学习者视线分析学习者注意力的方法 Expired - Fee Related CN106778658B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611235379.XA CN106778658B (zh) 2016-12-28 2016-12-28 基于课堂场景及学习者视线分析学习者注意力的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611235379.XA CN106778658B (zh) 2016-12-28 2016-12-28 基于课堂场景及学习者视线分析学习者注意力的方法

Publications (2)

Publication Number Publication Date
CN106778658A CN106778658A (zh) 2017-05-31
CN106778658B true CN106778658B (zh) 2020-04-21

Family

ID=58923698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611235379.XA Expired - Fee Related CN106778658B (zh) 2016-12-28 2016-12-28 基于课堂场景及学习者视线分析学习者注意力的方法

Country Status (1)

Country Link
CN (1) CN106778658B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509923A (zh) * 2018-03-30 2018-09-07 百度在线网络技术(北京)有限公司 课堂注意力检测方法、装置、设备及计算机可读介质
CN111652045B (zh) * 2020-04-17 2022-10-28 西北工业大学太仓长三角研究院 课堂教学质量评估方法和系统
CN111610862A (zh) * 2020-06-22 2020-09-01 江苏开放大学(江苏城市职业学院) 一种基于眼动信号的在线教学模式切换方法
CN112906633B (zh) * 2021-03-18 2021-11-02 南通师范高等专科学校 一种基于学生注意力的教学优化方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
CN101105895A (zh) * 2007-08-10 2008-01-16 上海迈辉信息技术有限公司 音视频多流合并教学训练系统及实现方法
CN102902963A (zh) * 2012-09-27 2013-01-30 无锡天授信息科技有限公司 一种基于人脸特征的固定场景运动目标检测系统及方法
CN103617421A (zh) * 2013-12-17 2014-03-05 上海电机学院 基于综合视频特征分析的疲劳检测方法及系统
CN104517102B (zh) * 2014-12-26 2017-09-29 华中师范大学 学生课堂注意力检测方法及系统
CN106228293A (zh) * 2016-07-18 2016-12-14 重庆中科云丛科技有限公司 教学评估方法及系统

Also Published As

Publication number Publication date
CN106778658A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
CN106778658B (zh) 基于课堂场景及学习者视线分析学习者注意力的方法
CN106650630B (zh) 一种目标跟踪方法及电子设备
US20230072627A1 (en) Gaze correction method and apparatus for face image, device, computer-readable storage medium, and computer program product face image
JP2019117577A (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
CN107749986B (zh) 教学视频生成方法、装置、存储介质和计算机设备
CN104809940B (zh) 几何立体图形投影装置及投影方法
CN113538659A (zh) 一种图像生成方法、装置、存储介质及设备
CN110298569B (zh) 基于眼动识别的学习评价方法及装置
US20200193632A1 (en) Training apparatus, recognition apparatus, training method, recognition method, and program
CN110163567A (zh) 基于多任务级联卷积神经网络的课堂点名系统
CN115713469A (zh) 基于通道注意力和形变生成对抗网络的水下图像增强方法
Czakóová et al. The application of modern technologies for image processing and creating real model in teaching computer science at secondary school
CN111325853A (zh) 一种基于增强现实眼镜的远程辅导系统及方法
CN112101146B (zh) 一种动物行为学记录三维捕捉装置、方法、系统及应用
CN112200230A (zh) 一种训练板的识别方法、装置及机器人
US20230353702A1 (en) Processing device, system and method for board writing display
CN110689001B (zh) 一种生成复杂环境下车牌训练样本的方法
CN110298236A (zh) 一种基于深度学习的盲文图像自动识别方法和系统
Shinde et al. Study of Image Processing, Enhancement and Restoration
CN116434253A (zh) 图像处理方法、装置、设备、存储介质及产品
Hou et al. Mobile augmented reality system for preschool education
CN113784077B (zh) 一种信息处理方法、装置和电子设备
Wang et al. AI Promotes the Inheritance and Dissemination of Chinese Boneless Painting——Research on Design Practice from Interdisciplinary Collaboration
Xing Visual Saliency Analysis of Artistic Photography based on Single-Angle Image Reconstruction Algorithm with Attention Model
Tang et al. Feature Matching-Based Undersea Panoramic Image Stitching in VR Animation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200421

Termination date: 20201228