CN109634431A - 无介质浮空投影视觉追踪互动系统 - Google Patents
无介质浮空投影视觉追踪互动系统 Download PDFInfo
- Publication number
- CN109634431A CN109634431A CN201910059087.2A CN201910059087A CN109634431A CN 109634431 A CN109634431 A CN 109634431A CN 201910059087 A CN201910059087 A CN 201910059087A CN 109634431 A CN109634431 A CN 109634431A
- Authority
- CN
- China
- Prior art keywords
- module
- user
- interaction systems
- pupil
- medium floating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 44
- 238000007667 floating Methods 0.000 title claims abstract description 32
- 230000003993 interaction Effects 0.000 title claims abstract description 26
- 210000001508 eye Anatomy 0.000 claims abstract description 54
- 230000002452 interceptive effect Effects 0.000 claims abstract description 18
- 210000001747 pupil Anatomy 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 28
- 210000004087 cornea Anatomy 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000012634 optical imaging Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000021317 sensory perception Effects 0.000 abstract description 3
- 238000013507 mapping Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005266 casting Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 2
- 239000000700 radioactive tracer Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000002285 radioactive effect Effects 0.000 description 1
- 229910052705 radium Inorganic materials 0.000 description 1
- HCWPIIXVSYCSAN-UHFFFAOYSA-N radium atom Chemical compound [Ra] HCWPIIXVSYCSAN-UHFFFAOYSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 230000001550 time effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F19/00—Advertising or display means not otherwise provided for
- G09F19/12—Advertising or display means not otherwise provided for using special optical effects
- G09F19/18—Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Marketing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种无介质浮空投影视觉追踪互动系统,包含:显示模块,所述显示模块用于产生影像内容;投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。本发明能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。
Description
技术领域
本发明涉及一种无介质投影技术,特别涉及一种无介质浮空投影视觉追踪互动系统。
背景技术
现有技术中,无介质浮空投影技术,利用一种使入射图像的光线产生弯曲的微通道矩阵光波导平板,所述光线在光学元件中经过至少2次反射后,形成与入射图像对应的空中实像。应用无介质浮空投影技术,不需要任何介质,可在不存在任何事物的空中,出现正视的映像,便于实现崭新的空中成像人机交互系统。而现有技术中无介质浮空投影系统的交互是利用手势、语音或者红外触控等技术来实现交互,目前还不能通过视线接触进行信息交互,只能凭直觉操控电子设备,用户体验并不高,不能实现大规模商业化。
发明内容
根据本发明实施例,提供了一种无介质浮空投影视觉追踪互动系统,包含:
显示模块,所述显示模块用于产生影像内容;
投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;
视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;
控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。
进一步,所述投影模块包含光学成像元件,所述光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。
进一步,所述光学成像元件为微通道矩阵光波导平板。
进一步,所述视觉交互模块包含:
光源,所述光源用于使用户眼睛的角膜和瞳孔上产成反射图像;
图像传感器,所述图像传感器用于采集所述角膜和瞳孔上产成的反射图像;
视觉处理器,所述视觉处理器用于根据所述图像传感器采集的反射图像确定眼睛在空间中的位置和视线位置。
进一步,所述控制模块用户眼睛静止注视目标时间不少于800毫秒。
进一步,所述光源为近红外光源。
进一步,所述近红外光源为近红外LED。
进一步,所述近红外光源与用户的眼睛距离不小于60cm。
进一步,所述图像传感器为高分辨率摄像传感器。
进一步,所述视觉处理器采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。
根据本发明实施例的无介质浮空投影视觉追踪互动系统,能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并 且意图在于提供要求保护的技术的进一步说明。
附图说明
图1为根据本发明实施例无介质浮空投影视觉追踪互动系统的逻辑框图。
具体实施方式
以下将结合附图,详细描述本发明的优选实施例,对本发明做进一步阐述。
首先,将结合图1描述根据本发明实施例的无介质浮空投影视觉追踪互动系统,可广泛应用于人机交互、智能家居控制系统、辅助驾驶、心理研究、虚拟现实和军事等多个领域,应用场景很广。
如图1所示,本发明实施例的无介质浮空投影视觉追踪互动系统,具有:显示模块1、投影模块2、视觉交互模块3和控制模块4。其中,显示模块1用于产生影像内容;投影模块2用于将影像内容转化成浮空的空中实像;视觉交互模块3用于对用户视觉进行定位;控制模块4用于根据用户视觉数据,控制显示模块1的显示内容与用户进行交互。在本实施例中,为了取得最佳的控制效果,用户眼睛静止注视目标时间不少于800毫秒,既不会增加用户的注视时间影响用户体验,也能够保证系统响应的速度。
具体地,如图1所示,显示模块1除了显示器11的必配备外,在本实施例中,为了增加用户体验,还增加了与显示器连接的转向机构12,其中,显示器11用于显示外部设备的影像内容,转向机构12和控制模块5通过电路连接,控制模块5与视觉交互模块3相连,根据视觉交互的内容控制转向机构带动显示器11转向,以实现与系统进行视觉交互的用户能够正视空中实像。在本实施例中,转向机构12为转盘。
具体地,如图1所示,投影模块2包含光学成像元件,光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。在本实施例中,光学成像元件选用微通道矩阵光波导平板(Microchannel matrix opticalwaveguide plate,简称MOW)。
具体地,如图1所示,视觉交互模块3包含:光源31、图像传感器32、视觉处理器33。
其中,光源31用于使用户眼睛的角膜和瞳孔上产成反射图像,采用近红外光源,由于用户瞳孔和虹膜之间的分界线并没那么清晰,为了提高这一步的精准度,交替用不同方位的光源向人眼发出近红外线,然后在每两帧相邻的图像中,获取用户暗淡的瞳孔,从而更清晰地“抠”出瞳孔,再计算瞳孔的质心和形状等参数。采用近红外光源,由于光束很弱,并且近红外光源与用户的眼睛距离不小于60cm,用户即使在工作的视觉交互模块3前待8个小时也不会有放射性危险,保证用户的使用安全。在本实施例中,近红外光源采用近红外LED。
图像传感器32用于采集经光源31照射后用户角膜和瞳孔上产成的反射图像,在本实施例中,图像传感器32为高分辨率摄像传感器。图像传感器32将来自一个或者多个传感器的输入信号转换成某种适合的信号模式。通常,使用红外照相机拍摄一副眼睛的图像,并抓取适当解析度,比如640×480的图像。为了减少噪声和处理代价,也可以选择生成更小的图像。另外,对于特殊硬件的系统,图像传感器32负责将视频信号拆解开,分别生成亮瞳孔和暗瞳孔图像。明瞳追踪,即光源31与成像设备在同一条光学路径上,使瞳孔出现发亮的效果(这与相片中出现的红眼现象相同);暗瞳追踪,即光源31放置在成像设备较远的位置(不在同一条光学路径上),产生瞳孔比虹膜暗的效果(明显的对比)。通常,近红外光源31的轴线和高分辨率摄像传感器镜头同轴时会产生亮瞳孔效应;反之,在两者不同轴时,瞳孔比眼睛的其他部分更暗一些。在使用这两种追踪技术时,瞳孔的检测都会受到不同的因素影响。例如,当使用明瞳追踪时,诸如被试者的年龄和光线环境等因素可能会对眼睛的追踪能力产生影响。被试者的人种也是能够影响明瞳/暗瞳追踪的其他因素之一:对于拉美和高加索人种来说,明瞳追踪的效果较好,但是这种方法经证实不太适合亚洲人种;而对于亚洲人种,暗瞳追踪可提供更好的追踪能力。在使用这两种追踪技术时,瞳孔的检测都会受到不同的因素影响。例如,当使用明瞳追踪时,诸如被试者的年龄和光线环境等因素可能会对眼睛的追踪能力产生影响。被试者的人种也是能够影响明瞳/暗瞳追踪的其他因素之一:对于拉美和高加索人种来说,明瞳追踪的效果较好,但是这种方法经证实不太适合亚洲人种;而对于亚洲人种,暗瞳追踪可提供更好的追踪能力。
视觉处理器33用于根据图像传感器32采集的反射图像确定眼睛在空间中的位置和视线位置。视觉处理器33从采集到的反射图像中提取瞳孔中心坐标和角膜反射光斑中心坐标。首先,探测瞳孔轮廓以及获得特征点,然后验证拟合瞳孔轮廓,确定瞳孔中心坐标。由于瞳孔中心坐标是后续工作的基础,因此瞳孔中心坐标的提取环节,定位算法的优劣将直接并严重影响整个视觉交互模块3的精确度。同时还要对眨眼或眼睑遮蔽瞳孔的情况作处理。瞳孔定位,为了确定瞳孔和角膜高光的位置,首先使用高分辨率摄像传感器拍摄眼睛的图像,然后对图像进行分割,并对得到的眼睛各部分进行分析参数化。通常,先对眼睛图像进行灰度化处理,然后使用阈值的方法或者搜索眼睛图像中的连通区域的方法实现对瞳孔的检测。在检测到候选瞳孔后,使用人体测量学的方法对瞳孔进行确认。然后对瞳孔进行参数化处理,以消除睫毛、下眼皮和普金野图像等对瞳孔区域的覆盖而产生的影响。双椭圆拟和方法可以很好地消除这些噪声。首先要大致确定出瞳孔中心点的位置和瞳孔半径,进行瞳孔粗定位,为下一步精确计算瞳孔中心坐标提供基础。在粗定位瞳孔的基础上,检测瞳孔边缘,然后拟合瞳孔轮廓,最终确定瞳孔中心的精确位置。
在本实施例中,视觉处理器33采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。具体地,人的注视点可以看作是人眼球中心和虹膜中心的连线与注视平面之间的交点。可以认为虹膜中心坐标和注视点坐标之间满足二阶多项式关系:
X0= f(xe,ye) = a0 + a1xe+ a2ye + a3xeye+ a4xe 2 + a5ye 2
y0= f(xe,ye) = b0 + b1xe + b2ye + b3xeye + b4xe 2 + b5ye 2
其中(x0,y0)表示注视点坐标,(xe,ye)表示相应时刻虹膜中心在眼图中的坐标。
注视点标定使用了基于映射的方法,认为虹膜中心和注视点坐标之间存在某种映射关系,通过校准过程获取映射函数,之后,利用这个映射关系计算用户的注视点。人的注视点可以看作是人眼球中心和虹膜中心的连线与注视平面之间的交点,当人的头部静止不动时,眼球中心的位置是不变的,这时唯一在动的就是虹膜中心,映射到眼图中,可以认为虹膜中心在眼图中的位置和注视点在注视平面上的位置是一一对应的。人眼注视点估计方法就是基于这一点,在真正开始计算人的注视点之前,先让用户注视几个校准点,获取对应时刻眼图中的虹膜中心坐标,计算得到注视点和虹膜中心坐标之间的对应关系,之后,可以利用这个映射关系,实现注视点的标定。校准开始后,用户需要保持头部静止,然后按照提示依次观看这九个点的坐标,计算机会实时记录记录人眼注视点坐标和相应时刻图片中的虹膜中心坐标,用于映射函数的计算。
令A=[a0,a1,a2,a3,a4,a5]T, B =[b0,b1,b2,b3,b4,b5]T,给定n个样本对,用(x0,y0),(xe,ye)分别表示i个样本点对的虹膜中心坐标和注视点坐标,那么使得公式中取最小值的参数A,B就是本发明要求得的映射函数的参数。每一个校准点给出两个方程,4个校准点给出8个方程。被测水平移动,得到不同位置变换参数,经插值运算后可用于实测。
标定后,由于人眼形状,大小,结构,存在个体差异,眼睛球面上的点在图像传感器32参照系中的投影点位置和眼睛转动角度之间存在非线性关系,并且视线估计方向与真实视线方向有模型误差,所以视觉交互模块3需要校准环节。由于视网膜中心不完全在眼球几何轴线上,所以视线方向与眼球光轴存在一定的夹角。视线方向与眼球光轴在水平方向夹角大约为5度,左眼为5度,右眼为-5度,竖直方向夹角大约为1.5度,不同的使用者之间最大存在3度的差异,所以使用时需要标定其kappa角:具体步骤如下:
1)使用者注视屏幕上固定点Pe,同时根据上一过程计算出光轴方向OP0。
2)连接眼球中心O和固定点Pe,得出视线方向OPe。
3)分别求出视线和光轴两直线的方位角。
当眼睛注视各点时,测量相应的瞳孔与光斑间位置相对偏移量,然后确定眼睛转动引起的注视点变化与偏移量间存在的映射关系。
在此过程中,视觉处理器33会测量用户眼睛的特征并利用这些与内部的眼球模型结合计算凝视数据。此模型包含了眼睛不同部分(如角膜,中央窝位置等)的形状,光线折射与反射信息。在校准过程中,用户需要观察屏幕上特定位置出现的点,此点被称为校准点,建立用户眼睛特征与屏幕呈现内容之间的关系, 从而获得一个对应点的集合。在此期间,视觉处理器33会对采集到的几幅眼睛的图像进行分析。然后分析的结果信息会与眼球模型结合并计算出每幅图像的凝视点。在校准过程中用户不需要将头部完全保持静止,只要令视线的焦点跟随移动的校准点移动即可。在校准时视觉处理器33会使用明瞳和暗瞳两种方式进行测试以识别最适合当前光线条件和用户眼睛特征的追踪方式。
当本发明的无介质浮空投影视觉追踪互动系统工作时,用户只需要通过视觉控制虚拟图像,即可通过视觉交互模块3确定用户的注视方向和目标,有控制模块4控制显示模块1呈现响应的操作。
以上,参照图1描述了根据本发明实施例的无介质浮空投影视觉追踪互动系统,能够让用户根据视线来控制程序,富有科技感,给用户一种用眼睛控制电脑的打破次元壁的超能力体验,大大提高了客户体验。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个无介质浮空投影视觉追踪互动系统”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (10)
1.一种无介质浮空投影视觉追踪互动系统,其特征在于,包含:
显示模块,所述显示模块用于产生影像内容;
投影模块,所述投影模块用于将所述影像内容转化成浮空的空中实像;
视觉交互模块,所述视觉交互模块用于对用户视觉进行定位;
控制模块,所述控制模块用于根据用户视觉数据,控制所述显示模块的显示内容与用户进行交互。
2.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述投影模块包含光学成像元件,所述光学成像元件将显示模块所显示的影像内容,进行不少于2次反射,在浮空中形成与入射影像内容对应的空中实像。
3.如权利要求2所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述光学成像元件为微通道矩阵光波导平板。
4.如权利要求1所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述视觉交互模块包含:
光源,所述光源用于使用户眼睛的角膜和瞳孔上产成反射图像;
图像传感器,所述图像传感器用于采集所述角膜和瞳孔上产成的反射图像;
视觉处理器,所述视觉处理器用于根据所述图像传感器采集的反射图像确定眼睛在空间中的位置和视线位置。
5.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述控制模块用户眼睛静止注视目标时间不少于800毫秒。
6.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述光源为近红外光源。
7.如权利要求6所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述近红外光源为近红外LED。
8.如权利要求6所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述近红外光源与用户的眼睛距离不小于60cm。
9.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述图像传感器为高分辨率摄像传感器。
10.如权利要求4所述的无介质浮空投影视觉追踪互动系统,其特征在于,所述视觉处理器采用瞳孔角膜向量反射法确定眼睛在空间中的位置和视线位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910059087.2A CN109634431B (zh) | 2019-01-22 | 2019-01-22 | 无介质浮空投影视觉追踪互动系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910059087.2A CN109634431B (zh) | 2019-01-22 | 2019-01-22 | 无介质浮空投影视觉追踪互动系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109634431A true CN109634431A (zh) | 2019-04-16 |
CN109634431B CN109634431B (zh) | 2024-04-26 |
Family
ID=66063091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910059087.2A Active CN109634431B (zh) | 2019-01-22 | 2019-01-22 | 无介质浮空投影视觉追踪互动系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109634431B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727378A (zh) * | 2019-10-25 | 2020-01-24 | 像航(上海)科技有限公司 | 浮空投影自助服务系统 |
CN111460412A (zh) * | 2020-04-24 | 2020-07-28 | 像航(上海)科技有限公司 | 电子电器设备的无接触授权系统 |
CN112000227A (zh) * | 2020-08-31 | 2020-11-27 | 中国科学院重庆绿色智能技术研究院 | 一种工作状态监测反馈系统 |
CN112445328A (zh) * | 2019-09-03 | 2021-03-05 | 北京七鑫易维信息技术有限公司 | 映射控制方法及装置 |
CN114882813A (zh) * | 2021-01-19 | 2022-08-09 | 幻景启动股份有限公司 | 浮空图像系统 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090109174A1 (en) * | 2007-10-30 | 2009-04-30 | Fein Gene S | Method and Apparatus for User Interface in Electronic Devices With Visual Display Units |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN104094197A (zh) * | 2012-02-06 | 2014-10-08 | 索尼爱立信移动通讯股份有限公司 | 利用投影仪的注视追踪 |
JP2015123262A (ja) * | 2013-12-27 | 2015-07-06 | 学校法人東海大学 | 角膜表面反射画像を利用した視線計測方法及びその装置 |
US20150269729A1 (en) * | 2014-03-20 | 2015-09-24 | Lc Technologies, Inc. | Eye Image Stimuli for Eyegaze Calibration Procedures |
CN105791728A (zh) * | 2016-05-30 | 2016-07-20 | 北京视友科技有限责任公司 | 一种通过脑电控制的全息立体投影系统 |
US20170180720A1 (en) * | 2014-03-19 | 2017-06-22 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking for stereo viewer |
CN107145086A (zh) * | 2017-05-17 | 2017-09-08 | 上海青研科技有限公司 | 一种免定标的视线追踪装置及方法 |
CN107436675A (zh) * | 2016-05-25 | 2017-12-05 | 深圳纬目信息技术有限公司 | 一种视觉交互方法、系统和设备 |
US20180027225A1 (en) * | 2016-07-21 | 2018-01-25 | Tianma Japan, Ltd. | Stereoscopic display apparatus and control method |
CN108196681A (zh) * | 2018-01-27 | 2018-06-22 | 像航(上海)科技有限公司 | 根据人脸识别和激光影像实现空中成像的实时触控系统 |
KR101875293B1 (ko) * | 2016-12-29 | 2018-07-06 | 극동대학교 산학협력단 | 허상 투영 디스플레이용 광학장치 |
CN108335364A (zh) * | 2018-01-23 | 2018-07-27 | 北京易智能科技有限公司 | 一种基于全息投影的三维场景显示方法 |
CN108646578A (zh) * | 2018-04-28 | 2018-10-12 | 杭州飞像科技有限公司 | 一种无介质浮空投影虚拟画面与现实交互技术 |
CN208126030U (zh) * | 2018-03-09 | 2018-11-20 | 杭州飞像科技有限公司 | 车用无介质浮空成像系统、汽车中控台及汽车 |
CN108983331A (zh) * | 2018-07-24 | 2018-12-11 | 京东方科技集团股份有限公司 | 一种半透半逆反膜片和空中显示装置 |
CN109143581A (zh) * | 2018-08-28 | 2019-01-04 | 北京七鑫易维信息技术有限公司 | 一种头戴式显示设备及其眼球追踪方法 |
CN109157748A (zh) * | 2018-09-13 | 2019-01-08 | 清华大学深圳研究生院 | 一种用于角膜交联的智能系统及控制方法 |
CN209590778U (zh) * | 2019-01-22 | 2019-11-05 | 像航(上海)科技有限公司 | 无介质浮空投影视觉追踪互动系统 |
-
2019
- 2019-01-22 CN CN201910059087.2A patent/CN109634431B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090109174A1 (en) * | 2007-10-30 | 2009-04-30 | Fein Gene S | Method and Apparatus for User Interface in Electronic Devices With Visual Display Units |
CN104094197A (zh) * | 2012-02-06 | 2014-10-08 | 索尼爱立信移动通讯股份有限公司 | 利用投影仪的注视追踪 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
JP2015123262A (ja) * | 2013-12-27 | 2015-07-06 | 学校法人東海大学 | 角膜表面反射画像を利用した視線計測方法及びその装置 |
US20170180720A1 (en) * | 2014-03-19 | 2017-06-22 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking for stereo viewer |
US20150269729A1 (en) * | 2014-03-20 | 2015-09-24 | Lc Technologies, Inc. | Eye Image Stimuli for Eyegaze Calibration Procedures |
CN107436675A (zh) * | 2016-05-25 | 2017-12-05 | 深圳纬目信息技术有限公司 | 一种视觉交互方法、系统和设备 |
CN105791728A (zh) * | 2016-05-30 | 2016-07-20 | 北京视友科技有限责任公司 | 一种通过脑电控制的全息立体投影系统 |
US20180027225A1 (en) * | 2016-07-21 | 2018-01-25 | Tianma Japan, Ltd. | Stereoscopic display apparatus and control method |
KR101875293B1 (ko) * | 2016-12-29 | 2018-07-06 | 극동대학교 산학협력단 | 허상 투영 디스플레이용 광학장치 |
CN107145086A (zh) * | 2017-05-17 | 2017-09-08 | 上海青研科技有限公司 | 一种免定标的视线追踪装置及方法 |
CN108335364A (zh) * | 2018-01-23 | 2018-07-27 | 北京易智能科技有限公司 | 一种基于全息投影的三维场景显示方法 |
CN108196681A (zh) * | 2018-01-27 | 2018-06-22 | 像航(上海)科技有限公司 | 根据人脸识别和激光影像实现空中成像的实时触控系统 |
CN208126030U (zh) * | 2018-03-09 | 2018-11-20 | 杭州飞像科技有限公司 | 车用无介质浮空成像系统、汽车中控台及汽车 |
CN108646578A (zh) * | 2018-04-28 | 2018-10-12 | 杭州飞像科技有限公司 | 一种无介质浮空投影虚拟画面与现实交互技术 |
CN108983331A (zh) * | 2018-07-24 | 2018-12-11 | 京东方科技集团股份有限公司 | 一种半透半逆反膜片和空中显示装置 |
CN109143581A (zh) * | 2018-08-28 | 2019-01-04 | 北京七鑫易维信息技术有限公司 | 一种头戴式显示设备及其眼球追踪方法 |
CN109157748A (zh) * | 2018-09-13 | 2019-01-08 | 清华大学深圳研究生院 | 一种用于角膜交联的智能系统及控制方法 |
CN209590778U (zh) * | 2019-01-22 | 2019-11-05 | 像航(上海)科技有限公司 | 无介质浮空投影视觉追踪互动系统 |
Non-Patent Citations (5)
Title |
---|
张闯;迟健男;张朝晖;王志良;: "一种基于立体视觉的视线估计方法", 电子学报, no. 05 * |
张鹏翼;王志良;郑思仪;张琼;: "使用立体视觉信息的视线追踪系统设计", 北京邮电大学学报, no. 01 * |
朱麒文;闫隆鑫;张若兰;张帅;杨兰兰;: "基于视线追踪的眼控鼠标设计", 电子器件, no. 02 * |
王宇;王勇;徐心和;: "基于直线的全维视觉系统标定方法研究", 微计算机信息, no. 34 * |
迟健男;张闯;胡涛;颜艳桃;刘洋;: "视线追踪系统眼部特征检测及视线方向计算方法研究", 控制与决策, no. 09 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112445328A (zh) * | 2019-09-03 | 2021-03-05 | 北京七鑫易维信息技术有限公司 | 映射控制方法及装置 |
CN110727378A (zh) * | 2019-10-25 | 2020-01-24 | 像航(上海)科技有限公司 | 浮空投影自助服务系统 |
CN111460412A (zh) * | 2020-04-24 | 2020-07-28 | 像航(上海)科技有限公司 | 电子电器设备的无接触授权系统 |
CN111460412B (zh) * | 2020-04-24 | 2024-03-22 | 像航(上海)科技有限公司 | 电子电器设备的无接触授权系统 |
CN112000227A (zh) * | 2020-08-31 | 2020-11-27 | 中国科学院重庆绿色智能技术研究院 | 一种工作状态监测反馈系统 |
CN114882813A (zh) * | 2021-01-19 | 2022-08-09 | 幻景启动股份有限公司 | 浮空图像系统 |
CN114882813B (zh) * | 2021-01-19 | 2024-05-14 | 幻景启动股份有限公司 | 浮空图像系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109634431B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109634431A (zh) | 无介质浮空投影视觉追踪互动系统 | |
Kar et al. | A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms | |
Santini et al. | Calibme: Fast and unsupervised eye tracker calibration for gaze-based pervasive human-computer interaction | |
Lai et al. | Hybrid method for 3-D gaze tracking using glint and contour features | |
CN108427503B (zh) | 人眼追踪方法及人眼追踪装置 | |
Morimoto et al. | Eye gaze tracking techniques for interactive applications | |
US9411417B2 (en) | Eye gaze tracking system and method | |
Coutinho et al. | Improving head movement tolerance of cross-ratio based eye trackers | |
US10489648B2 (en) | Eye tracking using time multiplexing | |
US7538744B1 (en) | Method and apparatus for computer-aided determination of viewer's gaze direction | |
US9285872B1 (en) | Using head gesture and eye position to wake a head mounted device | |
US9398848B2 (en) | Eye gaze tracking | |
CA2750287A1 (en) | Gaze detection in a see-through, near-eye, mixed reality display | |
US10896545B1 (en) | Near eye display interface for artificial reality applications | |
Schnieders et al. | Reconstruction of display and eyes from a single image | |
Toivanen et al. | Probabilistic approach to robust wearable gaze tracking | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
SE541262C2 (en) | Method and device for eye metric acquisition | |
CN108828771A (zh) | 可穿戴设备的参数调整方法、装置、穿戴设备及存储介质 | |
Tatler et al. | Eye movement recordings in natural settings | |
CN112987910B (zh) | 眼球追踪设备的测试方法、装置、设备及存储介质 | |
CN209590778U (zh) | 无介质浮空投影视觉追踪互动系统 | |
CN113491502A (zh) | 一种眼球追踪校准检验方法、装置、设备及存储介质 | |
US11743447B2 (en) | Gaze tracking apparatus and systems | |
US11925412B2 (en) | Gaze tracking apparatus and systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |