CN109634431B - 无介质浮空投影视觉追踪互动系统 - Google Patents

无介质浮空投影视觉追踪互动系统 Download PDF

Info

Publication number
CN109634431B
CN109634431B CN201910059087.2A CN201910059087A CN109634431B CN 109634431 B CN109634431 B CN 109634431B CN 201910059087 A CN201910059087 A CN 201910059087A CN 109634431 B CN109634431 B CN 109634431B
Authority
CN
China
Prior art keywords
user
pupil
image
eye
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910059087.2A
Other languages
English (en)
Other versions
CN109634431A (zh
Inventor
洪增辉
李俊
张兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xianghang Shanghai Technology Co ltd
Original Assignee
Xianghang Shanghai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xianghang Shanghai Technology Co ltd filed Critical Xianghang Shanghai Technology Co ltd
Priority to CN201910059087.2A priority Critical patent/CN109634431B/zh
Publication of CN109634431A publication Critical patent/CN109634431A/zh
Application granted granted Critical
Publication of CN109634431B publication Critical patent/CN109634431B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds

Abstract

本发明公开了一种无介质浮空投影视觉追踪互动系统,包含:显示模块,所述显示模块用于产生影像内容;投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。本发明能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。

Description

无介质浮空投影视觉追踪互动系统
技术领域
本发明涉及一种无介质投影技术,特别涉及一种无介质浮空投影视觉追踪互动系统。
背景技术
现有技术中,无介质浮空投影技术,利用一种使入射图像的光线产生弯曲的微通道矩阵光波导平板,所述光线在光学元件中经过至少2次反射后,形成与入射图像对应的空中实像。应用无介质浮空投影技术,不需要任何介质,可在不存在任何事物的空中,出现正视的映像,便于实现崭新的空中成像人机交互系统。而现有技术中无介质浮空投影系统的交互是利用手势、语音或者红外触控等技术来实现交互,目前还不能通过视线接触进行信息交互,只能凭直觉操控电子设备,用户体验并不高,不能实现大规模商业化。
发明内容
根据本发明实施例,提供了一种无介质浮空投影视觉追踪互动系统,包含:
显示模块,所述显示模块用于产生影像内容;
投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;
视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;
控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。
进一步,所述投影模块包含光学成像元件,所述光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。
进一步,所述光学成像元件为微通道矩阵光波导平板。
进一步,所述视觉交互模块包含:
光源,所述光源用于使用户眼睛的角膜和瞳孔上产成反射图像;
图像传感器,所述图像传感器用于采集所述角膜和瞳孔上产成的反射图像;
视觉处理器,所述视觉处理器用于根据所述图像传感器采集的反射图像确定眼睛在空间中的位置和视线位置。
进一步,所述控制模块用户眼睛静止注视目标时间不少于800毫秒。
进一步,所述光源为近红外光源。
进一步,所述近红外光源为近红外LED。
进一步,所述近红外光源与用户的眼睛距离不小于60cm。
进一步,所述图像传感器为高分辨率摄像传感器。
进一步,所述视觉处理器采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。
根据本发明实施例的无介质浮空投影视觉追踪互动系统,能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并 且意图在于提供要求保护的技术的进一步说明。
附图说明
图1为根据本发明实施例无介质浮空投影视觉追踪互动系统的逻辑框图。
具体实施方式
以下将结合附图,详细描述本发明的优选实施例,对本发明做进一步阐述。
首先,将结合图1描述根据本发明实施例的无介质浮空投影视觉追踪互动系统,可广泛应用于人机交互、智能家居控制系统、辅助驾驶、心理研究、虚拟现实和军事等多个领域,应用场景很广。
如图1所示,本发明实施例的无介质浮空投影视觉追踪互动系统,具有:显示模块1、投影模块2、视觉交互模块3和控制模块4。其中,显示模块1用于产生影像内容;投影模块2用于将影像内容转化成浮空的空中实像;视觉交互模块3用于对用户视觉进行定位;控制模块4用于根据用户视觉数据,控制显示模块1的显示内容与用户进行交互。在本实施例中,为了取得最佳的控制效果,用户眼睛静止注视目标时间不少于800毫秒,既不会增加用户的注视时间影响用户体验,也能够保证系统响应的速度。
具体地,如图1所示,显示模块1除了显示器11的必配备外,在本实施例中,为了增加用户体验,还增加了与显示器连接的转向机构12,其中,显示器11用于显示外部设备的影像内容,转向机构12和控制模块5通过电路连接,控制模块5与视觉交互模块3相连,根据视觉交互的内容控制转向机构带动显示器11转向,以实现与系统进行视觉交互的用户能够正视空中实像。在本实施例中,转向机构12为转盘。
具体地,如图1所示,投影模块2包含光学成像元件,光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。在本实施例中,光学成像元件选用微通道矩阵光波导平板(Microchannel matrix opticalwaveguide plate,简称MOW)。
具体地,如图1所示,视觉交互模块3包含:光源31、图像传感器32、视觉处理器33。
其中,光源31用于使用户眼睛的角膜和瞳孔上产成反射图像,采用近红外光源,由于用户瞳孔和虹膜之间的分界线并没那么清晰,为了提高这一步的精准度,交替用不同方位的光源向人眼发出近红外线,然后在每两帧相邻的图像中,获取用户暗淡的瞳孔,从而更清晰地“抠”出瞳孔,再计算瞳孔的质心和形状等参数。采用近红外光源,由于光束很弱,并且近红外光源与用户的眼睛距离不小于60cm,用户即使在工作的视觉交互模块3前待8个小时也不会有放射性危险,保证用户的使用安全。在本实施例中,近红外光源采用近红外LED。
图像传感器32用于采集经光源31照射后用户角膜和瞳孔上产成的反射图像,在本实施例中,图像传感器32为高分辨率摄像传感器。图像传感器32将来自一个或者多个传感器的输入信号转换成某种适合的信号模式。通常,使用红外照相机拍摄一副眼睛的图像,并抓取适当解析度,比如640×480的图像。为了减少噪声和处理代价,也可以选择生成更小的图像。另外,对于特殊硬件的系统,图像传感器32负责将视频信号拆解开,分别生成亮瞳孔和暗瞳孔图像。明瞳追踪,即光源31与成像设备在同一条光学路径上,使瞳孔出现发亮的效果(这与相片中出现的红眼现象相同);暗瞳追踪,即光源31放置在成像设备较远的位置(不在同一条光学路径上),产生瞳孔比虹膜暗的效果(明显的对比)。通常,近红外光源31的轴线和高分辨率摄像传感器镜头同轴时会产生亮瞳孔效应;反之,在两者不同轴时,瞳孔比眼睛的其他部分更暗一些。在使用这两种追踪技术时,瞳孔的检测都会受到不同的因素影响。例如,当使用明瞳追踪时,诸如被试者的年龄和光线环境等因素可能会对眼睛的追踪能力产生影响。被试者的人种也是能够影响明瞳/暗瞳追踪的其他因素之一:对于拉美和高加索人种来说,明瞳追踪的效果较好,但是这种方法经证实不太适合亚洲人种;而对于亚洲人种,暗瞳追踪可提供更好的追踪能力。在使用这两种追踪技术时,瞳孔的检测都会受到不同的因素影响。例如,当使用明瞳追踪时,诸如被试者的年龄和光线环境等因素可能会对眼睛的追踪能力产生影响。被试者的人种也是能够影响明瞳/暗瞳追踪的其他因素之一:对于拉美和高加索人种来说,明瞳追踪的效果较好,但是这种方法经证实不太适合亚洲人种;而对于亚洲人种,暗瞳追踪可提供更好的追踪能力。
视觉处理器33用于根据图像传感器32采集的反射图像确定眼睛在空间中的位置和视线位置。视觉处理器33从采集到的反射图像中提取瞳孔中心坐标和角膜反射光斑中心坐标。首先,探测瞳孔轮廓以及获得特征点,然后验证拟合瞳孔轮廓,确定瞳孔中心坐标。由于瞳孔中心坐标是后续工作的基础,因此瞳孔中心坐标的提取环节,定位算法的优劣将直接并严重影响整个视觉交互模块3的精确度。同时还要对眨眼或眼睑遮蔽瞳孔的情况作处理。瞳孔定位,为了确定瞳孔和角膜高光的位置,首先使用高分辨率摄像传感器拍摄眼睛的图像,然后对图像进行分割,并对得到的眼睛各部分进行分析参数化。通常,先对眼睛图像进行灰度化处理,然后使用阈值的方法或者搜索眼睛图像中的连通区域的方法实现对瞳孔的检测。在检测到候选瞳孔后,使用人体测量学的方法对瞳孔进行确认。然后对瞳孔进行参数化处理,以消除睫毛、下眼皮和普金野图像等对瞳孔区域的覆盖而产生的影响。双椭圆拟和方法可以很好地消除这些噪声。首先要大致确定出瞳孔中心点的位置和瞳孔半径,进行瞳孔粗定位,为下一步精确计算瞳孔中心坐标提供基础。在粗定位瞳孔的基础上,检测瞳孔边缘,然后拟合瞳孔轮廓,最终确定瞳孔中心的精确位置。
在本实施例中,视觉处理器33采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。具体地,人的注视点可以看作是人眼球中心和虹膜中心的连线与注视平面之间的交点。可以认为虹膜中心坐标和注视点坐标之间满足二阶多项式关系:
X0= f(xe,ye) = a0 + a1xe+ a2ye + a3xeye+ a4xe 2 + a5ye 2
y0= f(xe,ye) = b0 + b1xe + b2ye + b3xeye + b4xe 2 + b5ye 2
其中(x0,y0)表示注视点坐标,(xe,ye)表示相应时刻虹膜中心在眼图中的坐标。
注视点标定使用了基于映射的方法,认为虹膜中心和注视点坐标之间存在某种映射关系,通过校准过程获取映射函数,之后,利用这个映射关系计算用户的注视点。人的注视点可以看作是人眼球中心和虹膜中心的连线与注视平面之间的交点,当人的头部静止不动时,眼球中心的位置是不变的,这时唯一在动的就是虹膜中心,映射到眼图中,可以认为虹膜中心在眼图中的位置和注视点在注视平面上的位置是一一对应的。人眼注视点估计方法就是基于这一点,在真正开始计算人的注视点之前,先让用户注视几个校准点,获取对应时刻眼图中的虹膜中心坐标,计算得到注视点和虹膜中心坐标之间的对应关系,之后,可以利用这个映射关系,实现注视点的标定。校准开始后,用户需要保持头部静止,然后按照提示依次观看这九个点的坐标,计算机会实时记录记录人眼注视点坐标和相应时刻图片中的虹膜中心坐标,用于映射函数的计算。
令A=[a0,a1,a2,a3,a4,a5]T, B =[b0,b1,b2,b3,b4,b5]T,给定n个样本对,用(x0,y0),(xe,ye)分别表示i个样本点对的虹膜中心坐标和注视点坐标,那么使得公式中取最小值的参数A,B就是本发明要求得的映射函数的参数。每一个校准点给出两个方程,4个校准点给出8个方程。被测水平移动,得到不同位置变换参数,经插值运算后可用于实测。
标定后,由于人眼形状,大小,结构,存在个体差异,眼睛球面上的点在图像传感器32参照系中的投影点位置和眼睛转动角度之间存在非线性关系,并且视线估计方向与真实视线方向有模型误差,所以视觉交互模块3需要校准环节。由于视网膜中心不完全在眼球几何轴线上,所以视线方向与眼球光轴存在一定的夹角。视线方向与眼球光轴在水平方向夹角大约为5度,左眼为5度,右眼为-5度,竖直方向夹角大约为1.5度,不同的使用者之间最大存在3度的差异,所以使用时需要标定其kappa角:具体步骤如下:
1)使用者注视屏幕上固定点Pe,同时根据上一过程计算出光轴方向OP0
2)连接眼球中心O和固定点Pe,得出视线方向OPe
3)分别求出视线和光轴两直线的方位角。
当眼睛注视各点时,测量相应的瞳孔与光斑间位置相对偏移量,然后确定眼睛转动引起的注视点变化与偏移量间存在的映射关系。
在此过程中,视觉处理器33会测量用户眼睛的特征并利用这些与内部的眼球模型结合计算凝视数据。此模型包含了眼睛不同部分(如角膜,中央窝位置等)的形状,光线折射与反射信息。在校准过程中,用户需要观察屏幕上特定位置出现的点,此点被称为校准点,建立用户眼睛特征与屏幕呈现内容之间的关系, 从而获得一个对应点的集合。在此期间,视觉处理器33会对采集到的几幅眼睛的图像进行分析。然后分析的结果信息会与眼球模型结合并计算出每幅图像的凝视点。在校准过程中用户不需要将头部完全保持静止,只要令视线的焦点跟随移动的校准点移动即可。在校准时视觉处理器33会使用明瞳和暗瞳两种方式进行测试以识别最适合当前光线条件和用户眼睛特征的追踪方式。
当本发明的无介质浮空投影视觉追踪互动系统工作时,用户只需要通过视觉控制虚拟图像,即可通过视觉交互模块3确定用户的注视方向和目标,有控制模块4控制显示模块1呈现响应的操作。
以上,参照图1描述了根据本发明实施例的无介质浮空投影视觉追踪互动系统,能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个无介质浮空投影视觉追踪互动系统”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (8)

1.一种无介质浮空投影视觉追踪互动系统,其特征在于,包含:
显示模块,所述显示模块用于产生影像内容;
投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;
视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;
所述视觉交互模块包含,
光源,所述光源用于使用户眼睛的角膜和瞳孔上产成反射图像;
图像传感器,所述图像传感器用于采集所述角膜和瞳孔上产成的反射图像;
视觉处理器,所述视觉处理器用于根据所述图像传感器采集的反射图像确定眼睛在空间中的位置和视线位置,用户眼睛静止注视目标时间不少于800毫秒;所述视觉处理器采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置,眼球中心和虹膜中心的连线与注视平面之间的交点视为人的注视点,虹膜中心坐标和注视点坐标之间的映射关系的二阶多项式关系为,
x0= f(xe,ye) = a0 + a1xe+ a2ye + a3xeye+ a4xe 2 + a5ye 2
y0= f(xe,ye) = b0 + b1xe + b2ye + b3xeye + b4xe 2 + b5ye 2
其中,(x0,y0)表示注视点坐标,(xe,ye)表示相应时刻虹膜中心在眼图中的坐标;
在确定所述注视点之前,先让用户注视多个校准点,获取对应时刻眼图中的虹膜中心坐标,获取注视点和所述虹膜中心的坐标之间的对应的映射关系,再利用所述映射关系,实现注视点的标定;
所述映射关系的获取方法为,
令A=[a0,a1,a2,a3,a4,a5]T, B =[b0,b1,b2,b3,b4,b5]T,给定n个样本对,用(x0, y0),(xe,ye)分别表示i个样本点对的虹膜中心坐标和注视点坐标,取最小值的A,B就是所述映射关系的函数参数;
在校准标定时,所述视觉处理器分别使用明瞳和暗瞳的方式进行测试以识别最适合当前光线条件和用户眼睛特征的追踪方式;
控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。
2.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述投影模块包含光学成像元件,所述光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。
3.如权利要求2所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述光学成像元件为微通道矩阵光波导平板。
4.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述光源为近红外光源。
5.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述近红外光源为近红外LED。
6.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述近红外光源与用户的眼睛距离不小于60cm。
7.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述图像传感器为高分辨率摄像传感器。
8.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述视觉处理器采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。
CN201910059087.2A 2019-01-22 2019-01-22 无介质浮空投影视觉追踪互动系统 Active CN109634431B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910059087.2A CN109634431B (zh) 2019-01-22 2019-01-22 无介质浮空投影视觉追踪互动系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910059087.2A CN109634431B (zh) 2019-01-22 2019-01-22 无介质浮空投影视觉追踪互动系统

Publications (2)

Publication Number Publication Date
CN109634431A CN109634431A (zh) 2019-04-16
CN109634431B true CN109634431B (zh) 2024-04-26

Family

ID=66063091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910059087.2A Active CN109634431B (zh) 2019-01-22 2019-01-22 无介质浮空投影视觉追踪互动系统

Country Status (1)

Country Link
CN (1) CN109634431B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112445328A (zh) * 2019-09-03 2021-03-05 北京七鑫易维信息技术有限公司 映射控制方法及装置
CN110727378A (zh) * 2019-10-25 2020-01-24 像航(上海)科技有限公司 浮空投影自助服务系统
CN111460412B (zh) * 2020-04-24 2024-03-22 像航(上海)科技有限公司 电子电器设备的无接触授权系统
CN112000227A (zh) * 2020-08-31 2020-11-27 中国科学院重庆绿色智能技术研究院 一种工作状态监测反馈系统

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749991A (zh) * 2012-04-12 2012-10-24 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法
CN104094197A (zh) * 2012-02-06 2014-10-08 索尼爱立信移动通讯股份有限公司 利用投影仪的注视追踪
JP2015123262A (ja) * 2013-12-27 2015-07-06 学校法人東海大学 角膜表面反射画像を利用した視線計測方法及びその装置
CN105791728A (zh) * 2016-05-30 2016-07-20 北京视友科技有限责任公司 一种通过脑电控制的全息立体投影系统
CN107145086A (zh) * 2017-05-17 2017-09-08 上海青研科技有限公司 一种免定标的视线追踪装置及方法
CN107436675A (zh) * 2016-05-25 2017-12-05 深圳纬目信息技术有限公司 一种视觉交互方法、系统和设备
CN108196681A (zh) * 2018-01-27 2018-06-22 像航(上海)科技有限公司 根据人脸识别和激光影像实现空中成像的实时触控系统
KR101875293B1 (ko) * 2016-12-29 2018-07-06 극동대학교 산학협력단 허상 투영 디스플레이용 광학장치
CN108335364A (zh) * 2018-01-23 2018-07-27 北京易智能科技有限公司 一种基于全息投影的三维场景显示方法
CN108646578A (zh) * 2018-04-28 2018-10-12 杭州飞像科技有限公司 一种无介质浮空投影虚拟画面与现实交互技术
CN208126030U (zh) * 2018-03-09 2018-11-20 杭州飞像科技有限公司 车用无介质浮空成像系统、汽车中控台及汽车
CN108983331A (zh) * 2018-07-24 2018-12-11 京东方科技集团股份有限公司 一种半透半逆反膜片和空中显示装置
CN109143581A (zh) * 2018-08-28 2019-01-04 北京七鑫易维信息技术有限公司 一种头戴式显示设备及其眼球追踪方法
CN109157748A (zh) * 2018-09-13 2019-01-08 清华大学深圳研究生院 一种用于角膜交联的智能系统及控制方法
CN209590778U (zh) * 2019-01-22 2019-11-05 像航(上海)科技有限公司 无介质浮空投影视觉追踪互动系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090109174A1 (en) * 2007-10-30 2009-04-30 Fein Gene S Method and Apparatus for User Interface in Electronic Devices With Visual Display Units
JP6689203B2 (ja) * 2014-03-19 2020-04-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 立体ビューワのための視線追跡を統合する医療システム
US9760772B2 (en) * 2014-03-20 2017-09-12 Lc Technologies, Inc. Eye image stimuli for eyegaze calibration procedures
CN107643603B (zh) * 2016-07-21 2021-04-09 天马微电子股份有限公司 立体显示装置及控制方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104094197A (zh) * 2012-02-06 2014-10-08 索尼爱立信移动通讯股份有限公司 利用投影仪的注视追踪
CN102749991A (zh) * 2012-04-12 2012-10-24 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法
JP2015123262A (ja) * 2013-12-27 2015-07-06 学校法人東海大学 角膜表面反射画像を利用した視線計測方法及びその装置
CN107436675A (zh) * 2016-05-25 2017-12-05 深圳纬目信息技术有限公司 一种视觉交互方法、系统和设备
CN105791728A (zh) * 2016-05-30 2016-07-20 北京视友科技有限责任公司 一种通过脑电控制的全息立体投影系统
KR101875293B1 (ko) * 2016-12-29 2018-07-06 극동대학교 산학협력단 허상 투영 디스플레이용 광학장치
CN107145086A (zh) * 2017-05-17 2017-09-08 上海青研科技有限公司 一种免定标的视线追踪装置及方法
CN108335364A (zh) * 2018-01-23 2018-07-27 北京易智能科技有限公司 一种基于全息投影的三维场景显示方法
CN108196681A (zh) * 2018-01-27 2018-06-22 像航(上海)科技有限公司 根据人脸识别和激光影像实现空中成像的实时触控系统
CN208126030U (zh) * 2018-03-09 2018-11-20 杭州飞像科技有限公司 车用无介质浮空成像系统、汽车中控台及汽车
CN108646578A (zh) * 2018-04-28 2018-10-12 杭州飞像科技有限公司 一种无介质浮空投影虚拟画面与现实交互技术
CN108983331A (zh) * 2018-07-24 2018-12-11 京东方科技集团股份有限公司 一种半透半逆反膜片和空中显示装置
CN109143581A (zh) * 2018-08-28 2019-01-04 北京七鑫易维信息技术有限公司 一种头戴式显示设备及其眼球追踪方法
CN109157748A (zh) * 2018-09-13 2019-01-08 清华大学深圳研究生院 一种用于角膜交联的智能系统及控制方法
CN209590778U (zh) * 2019-01-22 2019-11-05 像航(上海)科技有限公司 无介质浮空投影视觉追踪互动系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
一种基于立体视觉的视线估计方法;张闯;迟健男;张朝晖;王志良;;电子学报(第05期);全文 *
使用立体视觉信息的视线追踪系统设计;张鹏翼;王志良;郑思仪;张琼;;北京邮电大学学报(第01期);全文 *
基于直线的全维视觉系统标定方法研究;王宇;王勇;徐心和;;微计算机信息(第34期);全文 *
基于视线追踪的眼控鼠标设计;朱麒文;闫隆鑫;张若兰;张帅;杨兰兰;;电子器件(第02期);全文 *
视线追踪系统眼部特征检测及视线方向计算方法研究;迟健男;张闯;胡涛;颜艳桃;刘洋;;控制与决策(第09期);全文 *

Also Published As

Publication number Publication date
CN109634431A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
CN109634431B (zh) 无介质浮空投影视觉追踪互动系统
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
CN108427503B (zh) 人眼追踪方法及人眼追踪装置
US9439592B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US7538744B1 (en) Method and apparatus for computer-aided determination of viewer's gaze direction
EP2150170B1 (en) Methods and apparatus for estimating point-of-gaze in three dimensions
CN113808160B (zh) 视线方向追踪方法和装置
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN111603134A (zh) 眼球运动测试的装置及方法
TW202044828A (zh) 眼動追蹤裝置及其方法
Zhang et al. Gaze estimation in a gaze tracking system
CN108537103B (zh) 基于瞳孔轴测量的活体人脸检测方法及其设备
CN112987910B (zh) 眼球追踪设备的测试方法、装置、设备及存储介质
Liu et al. 3D model-based gaze tracking via iris features with a single camera and a single light source
Tatler et al. Eye movement recordings in natural settings
CN113138664A (zh) 基于光场感知的眼球追踪系统、方法
CN116382473A (zh) 一种基于自适应时序分析预测的视线校准、运动追踪及精度测试方法
CN110881981A (zh) 一种基于虚拟现实技术的阿尔兹海默症辅助检测系统
CN114661152B (zh) 一种降低视觉疲劳的ar显示控制系统及方法
CN111134693A (zh) 基于虚拟现实技术的自闭症儿童辅助检测方法、系统及终端
CN209590778U (zh) 无介质浮空投影视觉追踪互动系统
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置
US20220125297A1 (en) Device calibration via a projective transform matrix
CN116458835B (zh) 一种幼儿近视及弱视的检测预防系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant