CN106774950A - 基于眼球追踪的空间数据沉浸式交互方法 - Google Patents

基于眼球追踪的空间数据沉浸式交互方法 Download PDF

Info

Publication number
CN106774950A
CN106774950A CN201710143116.4A CN201710143116A CN106774950A CN 106774950 A CN106774950 A CN 106774950A CN 201710143116 A CN201710143116 A CN 201710143116A CN 106774950 A CN106774950 A CN 106774950A
Authority
CN
China
Prior art keywords
eyeball
database control
spatial database
coordinate
sight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710143116.4A
Other languages
English (en)
Inventor
郭明强
黄颖
刘袁缘
谢忠
吴亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Geosciences
Original Assignee
China University of Geosciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Geosciences filed Critical China University of Geosciences
Priority to CN201710143116.4A priority Critical patent/CN106774950A/zh
Publication of CN106774950A publication Critical patent/CN106774950A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Abstract

本发明公开了一种基于眼球追踪的空间数据沉浸式交互方法,包括以下步骤:初始化空间数据可视化窗口,启动摄像头,眼睛依次注视空间数据可视化窗口的四个顶点,标定眼球视线焦点在摄像头采集到的图像中的位置。位置标定完成后,开始空间数据可视化交互,通过摄像头采集人脸图像,计算眼球视线焦点位置,根据视线焦点位置推算出空间数据可视化窗口新的中心点地理坐标,然后更新空间数据可视化窗口中的图像。本发明方法解决了传统空间数据交互方式中需要依赖于手的缺陷,可让用户所有注意力全部沉浸到空间数据可视化窗口中,增强了空间数据可视化交互体验,尤其适用于上肢残障人群。

Description

基于眼球追踪的空间数据沉浸式交互方法
技术领域
本发明涉及地理信息系统技术,尤其是一种基于眼球追踪的空间数据沉浸式交互方法。
背景技术
空间数据沉浸式交互方法是地理信息系统中需要解决的重要问题之一,目前空间数据的交互方式主要是通过鼠标、键盘、触摸板等交互设备实现,也可以基于手势识别技术,通过手的动作来进行空间数据交互。上述交互方法在用户使用眼睛注视空间数据时,均需要同时使用手来进行设备操作,完成空间数据的交互过程。使得用户需要将一部分注意力放在手的控制上,降低了用户体验,而且无法适用于上肢残障人群。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于眼球追踪的空间数据沉浸式交互方法,利用便携式笔记本的前置摄像头、USB外置摄像头以及其它带有摄像头的硬件设备,通过追踪眼球位置的变化来自动完成空间数据的可视化交互,解决传统交互方式需要手参与的缺陷,增强用户体验。
本发明解决其技术问题所采用的技术方案是:一种基于眼球追踪的空间数据沉浸式交互方法,其包括以下步骤:
步骤1)初始化空间数据可视化窗口,计算空间数据可视化窗口中心点O’的坐标值(xo1,yo1),计算空间数据可视化窗口的四个顶点B’(xb1,yb1)、A’(xa1,ya1)、C’(xc1,yc1)、D’(xd1,yd1)的坐标值,设置操作类型为“位置标定”;
步骤2)启动摄像头设备,判断操作类型,如果操作类型是“位置标定”,转步骤3),如果是“可视化交互”,转步骤8);
步骤3)提示用户保持身体不动,头部向左上角移动,眼球注视空间数据可视化窗口的左上角B’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点(即两个眼球连线的中点)的坐标值,设其为点B,坐标为(xb,yb);
步骤4)提示用户保持身体不动,头部向左下角移动,眼球注视空间数据可视化窗口的左下角D’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点D,坐标为(xd,yd);
步骤5)提示用户保持身体不动,头部向右上角移动,眼球注视空间数据可视化窗口的右上角A’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点A,坐标为(xa,ya);
步骤6)提示用户保持身体不动,头部向右下角移动,眼球注视空间数据可视化窗口的右下角C’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点C,坐标为(xc,yc);
步骤7)计算视线焦点在X和Y方向上移动1个像素相当于空间数据在X和Y方向上移动的空间坐标距离,设其分别为px和py,坐标标定结束。关闭摄像头,设置操作类型为可视化交互,转步骤2)。
步骤8)提示用户保持身体不动,根据用户的交互需求,移动头部并用眼睛注视空间数据可视化窗口的相应位置;
步骤9)采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点坐标,判断该位置是否在坐标标定的四个点构成的四边形范围ABDC内,如果是,转步骤10),如果否,则转步骤12);
步骤10)计算眼球视线焦点相对于四边形范围ABDC中点O(xo,yo)在X和Y方向上的偏移量,判断X和Y方向偏移量是否小于指定阈值T,如果X和Y方向的偏移量均小于T,转8),如果否,则转11);
步骤11)根据眼球视线焦点的偏移量计算出新的空间数据可视化窗口的中心点坐标值,更新空间数据可视化窗口中的图像数据,更新中心点O’的坐标值(xo1,yo1),转步骤8)进行下一次交互;
步骤12)关闭摄像头,结束。
本发明的有益效果是能够通过摄像头采集到的人脸图像,自动追踪眼球的位置变化,并推算出新的空间数据可视化范围中心点,同步更新空间数据可视化窗口中的图像数据,解决传统空间数据交互方式中需要依赖于手的缺陷,让用户所有注意力全部沉浸到空间数据的可视化窗口中,增强空间数据可视化交互体验,尤其适用于上肢残障人群。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明的方法流程图;
图2是本发明摄像头采集图像中标定的视线焦点与空间数据可视化窗口四个顶点的映射关系图;
图3是本发明实施例使用的空间数据示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明提供的基于眼球追踪的空间数据沉浸式交互方法流程图,所述方法包括以下步骤:
步骤1)初始化空间数据可视化窗口,宽度为W像素,高度为H像素,设空间数据的原始地理坐标范围为[(xmin,xmax),(ymin,ymax)],根据公式(1)-(2)计算空间数据可视化窗口中心点O’的坐标值(xo1,yo1),根据公式(3)-(10)计算空间数据可视化窗口的四个顶点B’(xb1,yb1)、A’(xa1,ya1)、C’(xc1,yc1)、D’(xd1,yd1)的坐标值,四个顶点与摄像头采集图像中的眼球视线焦点的对应关系如图2所示。设置操作类型为“位置标定”。
xo1=xmin+max(xmax-xmin,ymax-ymin)/max(W,H)*W/2 公式(1)
yo1=ymin+max(xmax-xmin,ymax-ymin)/max(W,H)*H/2 公式(2)
xb1=xmin 公式(3)
yb1=ymin+max(xmax-xmin,ymax-ymin)/max(W,H)*H 公式(4)
xa1=xmin+max(xmax-xmin,ymax-ymin)/max(W,H)*W 公式(5)
ya1=ymin+max(xmax-xmin,ymax-ymin)/max(W,H)*H 公式(6)
xc1=xmin+max(xmax-xmin,ymax-ymin)/max(W,H)*W 公式(7)
yc1=ymin 公式(8)
xd1=xmin 公式(9)
yd1=ymin公式(10)
步骤2)启动摄像头设备,判断操作类型,如果操作类型是“位置标定”,转步骤3),如果是“可视化交互”,转步骤8)。
步骤3)提示用户保持身体不动,头部向左上角移动,眼球注视空间数据可视化窗口的左上角B’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,设左眼眼球中心点的坐标为(xl,yl),右眼眼球中心点的坐标为(xr,yr),依据公式(11)-(12)计算眼球视线焦点(即两个眼球连线的中点)的坐标值(xcur,ycur),设其为点B,坐标为(xb,yb)。
xcur=(xl+xr)/2 公式(11)
ycur=(yl+yr)/2 公式(12)
步骤4)提示用户保持身体不动,头部向左下角移动,眼球注视空间数据可视化窗口的左下角D’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,与步骤3)中B点坐标的计算方法相同,计算眼球视线焦点的坐标值,设其为点D,坐标为(xd,yd)。
步骤5)提示用户保持身体不动,头部向右上角移动,眼球注视空间数据可视化窗口的右上角A’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,与步骤3)中B点坐标的计算方法相同,设其为点A,坐标为(xa,ya)。
步骤6)提示用户保持身体不动,头部向右下角移动,眼球注视空间数据可视化窗口的右下角C’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,与步骤3)中B点坐标的计算方法相同,设其为点C,坐标为(xc,yc)。
步骤7)计算视线焦点在X和Y方向上移动1个像素相当于空间数据在X和Y方向上移动的空间坐标距离,设其分别为px和py,计算公式为公式(13)-(14),坐标标定结束。关闭摄像头,设置操作类型为可视化交互,转步骤2)。
px=(xa1-xb1)/(xb-xa) 公式(13)
py=(ya1-yc1)/(yc-ya) 公式(14)
步骤8)提示用户保持身体不动,根据用户自身的交互需求,自行移动头部并用眼睛注视空间数据可视化窗口的相应位置;
步骤9)采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点坐标(xcur,ycur),与步骤3)中B点坐标的计算方法相同,判断该位置是否在坐标标定的四个点构成的四边形范围ABDC内,如果是(估算方法为xa<xcur<xb且ya<ycur<yc),转步骤10),如果否,则转步骤12)。
步骤10)计算眼球视线焦点(xcur,ycur)相对于四边形范围ABDC中点O(xo,yo)在X和Y方向上的偏移量,设分别为dx和dy,则dx=xcur-xo,dy=ycur-yo。判断X和Y方向偏移量的绝对值是否小于指定阈值T,如果X和Y方向的偏移量均小于阈值T,转8),如果否,则转11)。
步骤11)根据眼球视线焦点的偏移量dx和dy计算出新的空间数据可视化窗口的中心点坐标值(tempx,tempy),其计算方法如公式(15)-(16)所示,使用新的中心点坐标更新空间数据可视化窗口中的图像数据,更新中心点O’的坐标值(xo1,yo1),转步骤8)进行下一次交互。
tempx=xo1-dx*px 公式(13)
tempy=yo1-dy*py 公式(14)
步骤12)关闭摄像头,结束。
本发明最明显的不同借助摄像头设备采集到的人脸图像,实现眼球视线焦点的自动跟踪,根据眼球视线焦点的位置变化来推算空间数据的位移,同步更新空间数据可视化窗口中的图像,使得用户不需要使用手来进行空间数据的交互,从而可以将注意力全部沉浸到空间数据可视化窗口中,增强空间数据可视化交互体验,尤其适用于上肢残障人群。
实施例一:
为了更清晰的说明本发明的思想,下面对基于眼球追踪的空间数据沉浸式交互方法进行进一步的说明,以图3所示的空间数据为例,其原始空间数据范围为[(-180,-90),(180,90)],设置眼球视线焦点偏移阈值T为5像素,空间数据可视化窗口宽度设置为1000像素,高度设置为600像素,以眼球注视图3中点F的交互过程为例进行阐述,使用Openlayers作为空间数据显示引擎,使用OpenCV图像处理库采集摄像头图像并对图像进行处理,具体步骤如下:
步骤1)初始化空间数据可视化窗口,宽度为1000像素,高度为600像素,空间数据的原始地理坐标范围为[(-180,-90),(180,90)],根据公式(1)-(2)计算空间数据可视化窗口中心点O’的坐标值(xo1,yo1),根据公式(3)-(10)计算空间数据可视化窗口的四个顶点B’(xb1,yb1)、A’(xa1,ya1)、C’(xc1,yc1)、D’(xd1,yd1)的坐标值,计算结果如表1所示,调用Openlayers提供的setCenter方法,设置空间数据可视化窗口的中心点为(0,18),并调用setResolution方法设置空间数据可视化分辨率为360/1000=0.36。设置操作类型为“位置标定”。表1空间数据可视化窗口各个顶点坐标
坐标点 坐标值
O’ (0,18)
A’ (180,126)
B’ (-180,126)
C’ (180,-90)
D’ (-180,-90)
步骤2)调用OpenCV中VideoCapture提供的open函数启动摄像头设备,判断操作类型,如果操作类型是“位置标定”,转步骤3),如果是“可视化交互”,转步骤8)。
步骤3)提示用户保持身体不动,头部向左上角移动,眼球注视空间数据可视化窗口的左上角B’,通过OpenCV中VideoCapture提供的frame变量采集图像数据,通过OpenCV中CascadeClassifier提供的detectMultiScale函数提取图像数据中左眼和右眼的眼球位置信息,左眼眼球中心点的坐标(x1,y1)为(369,195),右眼眼球中心点的坐标(xr,yr)为(299,193),依据公式(11)-(12)计算眼球视线焦点(即两个眼球连线的中点)的坐标值(xcur,ycur),xcur=(369+299)/2=334,ycur=(193+195)/2=194,设其为点B(xb,yb),即xb=334,yb=194。
步骤4)提示用户保持身体不动,头部向左下角移动,眼球注视空间数据可视化窗口的左下角D’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,左眼眼球中心点的坐标为(365,231),右眼眼球中心点的坐标为(295,233),与步骤3)中的计算方法相同,计算出眼球视线焦点的坐标值为(330,232),设其为点D(xd,yd),即xd=330,yd=232。
步骤5)提示用户保持身体不动,头部向右上角移动,眼球注视空间数据可视化窗口的右上角A’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,左眼眼球中心点的坐标为(280,192),右眼眼球中心点的坐标为(200,190),与步骤3)中的计算方法相同,计算出眼球视线焦点的坐标值为(240,191),设其为点A(xa,ya),即xa=240,ya=191。
步骤6)提示用户保持身体不动,头部向右下角移动,眼球注视空间数据可视化窗口的右下角C’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,左眼眼球中心点的坐标为(269,234),右眼眼球中心点的坐标为(191,232),与步骤3)中的计算方法相同,计算出眼球视线焦点的坐标值为(230,233),设其为点C(xc,yc),即xc=230,yc=233。
步骤7)计算视线焦点在X和Y方向上移动1个像素相当于空间数据在X和Y方向上移动的空间坐标距离,设其分别为px和py,计算公式为公式(13)-(14),px=(180+180)/(334-240)=3.829787,py=(126+90)/(233-191)=5.142857。坐标标定结束。调用OpenCV中VideoCapture提供的release函数关闭摄像头,设置操作类型为可视化交互,转步骤2)。
步骤8)提示用户保持身体不动,用户根据自身的交互需求,自行移动头部并用眼睛注视空间数据可视化窗口F点;
步骤9)通过OpenCV中VideoCapture提供的frame变量采集图像数据,通过OpenCV中CascadeClassifier提供的detectMultiScale函数提取图像数据中左眼和右眼的眼球位置信息,左眼眼球中心点的坐标为(287,205),右眼眼球中心点的坐标为(209,205)。与步骤3)中的计算方法相同,计算眼球视线焦点坐标(xcur,ycur)为(248,205),估算该位置是否在坐标标定的四个点构成的四边形范围ABDC内,因为240=xa<xcur=248<xb=334且191=ya<ycur=205<yc=233,因此转步骤10)。
步骤10)估算当前眼球视线焦点(248,205)相对于四边形范围ABDC中点O(xo,yo)在X和Y方向上的偏移量,设分别为dx和dy,则dx=xcur-xo=xcur–(xb+xa)/2=248-(334+240)/2=-39,dy=ycur-yo=ycur-(yc+ya)/2=205-(233+191)/2=-7。判断X和Y方向偏移量的绝对值是否小于指定阈值T=5,因为X和Y方向的偏移量绝对值均大于阈值5,因此转11)。
步骤11)根据眼球视线焦点的偏移量dx和dy计算出新的空间数据可视化窗口的中心点坐标值(tempx,tempy),其计算方法如公式(15)-(16)所示,tempx=0-(-39)*3.829787=149.361693,tempy=18-(-7)*5.142857=53.999999。调用Openlayers中提供的setCenter方法,使用新的中心点坐标(149.361693,53.999999)更新空间数据可视化窗口中的图像数据,更新中心点O’的坐标值(xo1,yo1)为(149.361693,53.999999)。至此,眼球注视图3中F点时同步更新可视化窗口中空间数据的沉浸式交互过程到此结束。
采用本发明设计的基于眼球追踪的空间数据沉浸式交互方法,在用户眼睛注视空间数据可视化窗口时,能够通过摄像头采集到的人脸图像,计算出眼球视线焦点的变化,从而进一步推算出空间数据可视化窗口中的数据的偏移量,该方法摆脱了传统交互方式需要依赖于手操作的缺陷,使得用户注意力可以完全沉浸到空间数据可视化中,极大地增强了用户体验,尤其适用于上肢残障人群。
在上述步骤中需要特别说明的是:
1.本发明将两个眼球连线中点作为眼球视线焦点,使用该点在摄像头采集图像中的像素坐标偏移来推算空间数据的地理坐标位移。
2.本发明支持空间数据在同一分辨率下向任意方向移动,基于该方法可以进一步改进和演化,基于左眼和右眼的距离变化来改变空间数据的显示分辨率,同样在权利保护范围内。
3.本发明同时适用于空间数据在二维视图和三维视图中的可视化交互,且适用于矢量空间数据和栅格空间数据,均在权利保护范围内。
4.基于双摄像头眼动仪、多摄像头眼动仪、Kinect等任何带有摄像头的设备,均可以在本发明的基础上进行改进和变换,所有基于这些硬件进行的改进和变换均在权利保护范围内。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (2)

1.一种基于眼球追踪的空间数据沉浸式交互方法,其特征在于,其包括以下步骤:
步骤1)初始化空间数据可视化窗口,计算空间数据可视化窗口中心点O’的坐标值(xo1,yo1),计算空间数据可视化窗口的四个顶点B’(xb1,yb1)、A’(xa1,ya1)、C’(xc1,yc1)、D’(xd1,yd1)的坐标值,设置操作类型为“位置标定”;
步骤2)启动摄像头设备,判断操作类型,如果操作类型是“位置标定”,转步骤3),如果是“可视化交互”,转步骤8);
步骤3)提示用户保持身体不动,头部向左上角移动,眼球注视空间数据可视化窗口的左上角B’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点B,坐标为(xb,yb);
步骤4)提示用户保持身体不动,头部向左下角移动,眼球注视空间数据可视化窗口的左下角D’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点D,坐标为(xd,yd);
步骤5)提示用户保持身体不动,头部向右上角移动,眼球注视空间数据可视化窗口的右上角A’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点A,坐标为(xa,ya);
步骤6)提示用户保持身体不动,头部向右下角移动,眼球注视空间数据可视化窗口的右下角C’,采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点的坐标值,设其为点C,坐标为(xc,yc);
步骤7)计算视线焦点在X和Y方向上移动1个像素相当于空间数据在X和Y方向上移动的空间坐标距离,设其分别为px和py,坐标标定结束;设置操作类型为可视化交互,转步骤2);
步骤8)提示用户保持身体不动,根据用户的交互需求,移动头部并用眼睛注视空间数据可视化窗口的相应位置;
步骤9)采集图像数据,提取图像数据中左眼和右眼的眼球位置信息,计算眼球视线焦点坐标,判断该位置是否在坐标标定的四个点构成的四边形范围ABDC内,如果是,转步骤10),如果否,则转步骤12);
步骤10)计算眼球视线焦点相对于四边形范围ABDC中点O(xo,yo)在X和Y方向上的偏移量,判断X和Y方向偏移量是否小于指定阈值T,如果X和Y方向的偏移量均小于T,转8),如果否,则转11);
步骤11)根据眼球视线焦点的偏移量计算出新的空间数据可视化窗口的中心点坐标值,更新空间数据可视化窗口中的图像数据,更新中心点O’的坐标值(xo1,yo1),转步骤8)进行下一次交互;
步骤12)关闭摄像头,结束。
2.根据权利要求1所述的基于眼球追踪的空间数据沉浸式交互方法,其特征在于,所述眼球视线焦点为两个眼球连线的中点。
CN201710143116.4A 2017-03-10 2017-03-10 基于眼球追踪的空间数据沉浸式交互方法 Pending CN106774950A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710143116.4A CN106774950A (zh) 2017-03-10 2017-03-10 基于眼球追踪的空间数据沉浸式交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710143116.4A CN106774950A (zh) 2017-03-10 2017-03-10 基于眼球追踪的空间数据沉浸式交互方法

Publications (1)

Publication Number Publication Date
CN106774950A true CN106774950A (zh) 2017-05-31

Family

ID=58962144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710143116.4A Pending CN106774950A (zh) 2017-03-10 2017-03-10 基于眼球追踪的空间数据沉浸式交互方法

Country Status (1)

Country Link
CN (1) CN106774950A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107065197A (zh) * 2017-06-20 2017-08-18 合肥工业大学 面向vr眼镜的人眼跟踪远程渲染实时显示方法及系统
CN112603336A (zh) * 2020-12-30 2021-04-06 国科易讯(北京)科技有限公司 基于脑电波的注意力分析方法、系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1889016A (zh) * 2006-07-25 2007-01-03 周辰 眼睛对电脑光标自动定位控制方法和系统
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
CN102830793A (zh) * 2011-06-16 2012-12-19 北京三星通信技术研究有限公司 视线跟踪方法和设备
CN103345305A (zh) * 2013-07-22 2013-10-09 百度在线网络技术(北京)有限公司 用于移动终端输入法的候选词控制方法、装置和移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1889016A (zh) * 2006-07-25 2007-01-03 周辰 眼睛对电脑光标自动定位控制方法和系统
CN102830793A (zh) * 2011-06-16 2012-12-19 北京三星通信技术研究有限公司 视线跟踪方法和设备
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
CN103345305A (zh) * 2013-07-22 2013-10-09 百度在线网络技术(北京)有限公司 用于移动终端输入法的候选词控制方法、装置和移动终端

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107065197A (zh) * 2017-06-20 2017-08-18 合肥工业大学 面向vr眼镜的人眼跟踪远程渲染实时显示方法及系统
CN107065197B (zh) * 2017-06-20 2020-02-18 合肥工业大学 面向vr眼镜的人眼跟踪远程渲染实时显示方法及系统
CN112603336A (zh) * 2020-12-30 2021-04-06 国科易讯(北京)科技有限公司 基于脑电波的注意力分析方法、系统
CN112603336B (zh) * 2020-12-30 2023-05-16 国科易讯(北京)科技有限公司 基于脑电波的注意力分析方法、系统

Similar Documents

Publication Publication Date Title
CN106056092B (zh) 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN103607554B (zh) 一种基于全自动人脸无缝合成的视频合成方法
CN102567727B (zh) 一种背景目标替换方法和装置
KR102212209B1 (ko) 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
WO2017054589A1 (zh) 一种多深度图融合方法及装置
CN105844256B (zh) 一种全景视频帧图像处理方法和装置
US8073243B2 (en) Replacing image information in a captured image
CN106201173B (zh) 一种基于投影的用户交互图标的交互控制方法及系统
CN110493525B (zh) 变焦图像确定方法及装置、存储介质、终端
US11263723B2 (en) Image warping method and device
CN104898832B (zh) 一种基于智能终端的3d实时眼镜试戴方法
CN104299220B (zh) 一种对Kinect深度图像中的空洞进行实时填充的方法
CN104778460B (zh) 一种在复杂背景以及光照下的单目手势识别方法
CN108416754A (zh) 一种自动去除鬼影的多曝光图像融合方法
CN109949237A (zh) 图像处理方法及装置、图像设备及存储介质
CN108737715A (zh) 一种拍照方法及装置
CN103632126A (zh) 人脸跟踪方法及装置
CN110264396A (zh) 视频人脸替换方法、系统及计算机可读存储介质
CN103412643A (zh) 终端及其遥控的方法
CN106774950A (zh) 基于眼球追踪的空间数据沉浸式交互方法
CN103327254A (zh) 一种自动对焦方法及对焦系统
CN107734254A (zh) 一种无人机自动择机拍照方法
CN109658441A (zh) 基于深度信息的前景检测方法及装置
CN110488876A (zh) 宠物喂食的方法、装置、存储介质以及计算机设备
CN110442242B (zh) 一种基于双目空间手势交互的智能镜系统及控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170531

RJ01 Rejection of invention patent application after publication