CN106226911A - 一种通过视线进行人机交互的智能眼镜以及交互方法 - Google Patents
一种通过视线进行人机交互的智能眼镜以及交互方法 Download PDFInfo
- Publication number
- CN106226911A CN106226911A CN201610812986.1A CN201610812986A CN106226911A CN 106226911 A CN106226911 A CN 106226911A CN 201610812986 A CN201610812986 A CN 201610812986A CN 106226911 A CN106226911 A CN 106226911A
- Authority
- CN
- China
- Prior art keywords
- sight line
- intelligent glasses
- eyes
- machine interaction
- concave mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 25
- 230000003993 interaction Effects 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 title claims abstract description 12
- 210000001508 eye Anatomy 0.000 claims abstract description 70
- 210000003128 head Anatomy 0.000 claims abstract description 23
- 210000001747 pupil Anatomy 0.000 claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000009471 action Effects 0.000 claims abstract description 6
- 239000011248 coating agent Substances 0.000 claims description 4
- 238000000576 coating method Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 3
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000018199 S phase Effects 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种通过视线进行人机交互的智能眼镜以及交互方法,其中智能眼镜包括眼镜架、设置在眼镜架上的镜片,所述镜片包括用于放大眼睛瞳孔的凹面镜,所述凹面镜的凹面侧朝向眼睛方向;所述智能眼镜还包括设置在所述凹面镜的凹面侧用于拍摄眼睛瞳孔的近红外摄像头,用于计算眼睛瞳孔中心位置并根据所述中心位置得出当前视线焦点在视线范围内的二维坐标的定位模块,接收针对当前的视线焦点对准的对象的操作并进行响应的响应模块。本发明通过将瞳孔进行高倍放大,获取更加精确的中心位置,从而实现对人眼的动作进行准确捕捉进行相应的响应。
Description
技术领域
本发明涉及穿戴式设备,尤其涉及可利用视线进行人机交互的智能眼镜以及具体的交互方法。
背景技术
随着智能穿戴设备在2014年的爆发,2015年随着苹果的Apple Watch正式推出,华为的Huawei Watch、HTC的Grip健身手环、三星的智能手表,谷歌的智能眼镜和虚拟现实头戴设备Vive等新产品的发布,智能穿戴产品将会变得更加时尚、智能,种类将更加丰富。据IHS预计,全球可穿戴设备市场在2018年将达300亿美元。IDC预计2018年全球出货量将达到1.119亿部,年复合增长率达到78.4%。据统计:2015年,美国有3950万成年人使用智能手表和健身追踪器等可穿戴设备,同比增长率高达57.7%,到2018年, 这个数字还将再翻一番,很有可能将拥有8170万用户。借助物联网发展的大趋势,可穿戴设备必将继续扩大其市场认可度,提高普及率,并将成为一种新的生活方式。
然而如何更好的实现人机交互却一直业内难以解决的问题,虽然目前已经出现了眼球追踪的交互方法,但是现有的交互设备精准度及可靠度差,捕捉位置不精准,导致大部分的穿戴式设备均是通过一个类似于鼠标或者功能比鼠标还要丰富的手柄来进行相应的人机交互操控,限制了穿戴式设备的进一步发展,且不能很好地满足人们希望设备进一步智能化的需求。
发明内容
本发明为了解决上述现有技术中存在的技术问题,提出一种通过视线进行人机交互的智能眼镜,包括眼镜架、设置在眼镜架上的镜片,所述镜片包括用于放大眼睛瞳孔的凹面镜,所述凹面镜的凹面侧朝向眼睛方向;所述智能眼镜还包括设置在所述凹面镜的凹面侧用于拍摄眼睛瞳孔的近红外摄像头,用于计算眼睛瞳孔中心位置并根据所述中心位置得出当前视线焦点在视线范围内的二维坐标的定位模块,接收针对当前的视线焦点对准的对象的操作并进行响应的响应模块。
在本技术方案中,所述操作包括眨眼、凝视一定时间、触发按钮,所述近红外摄像头设有两个,分别独立对应两只眼睛,所述近红外摄像头内设有用于滤除其他可见光的红外滤光片。
优选的,所述凹面镜的凹面侧还设有近红外补光灯。
进一步本技术方案的所述凹面镜的凹面侧可以镀有反射膜。所述镜片靠近眼睛的一侧设有显示器,所述定位模块计算眼睛瞳孔中心位置并根据所述中心位置得出当前视线焦点在显示器所显示的画面中的二维坐标,所述响应模块根据当前的视线焦点实现眼睛对显示器显示的画面中的内容进行相应的响应操作。
本发明同时还提出了一种基于上述技术方案的通过视线进行人机交互的智能眼镜实现的交互方法,具体包括如下步骤:
步骤1:注视眼前所述显示器显示的画面时,左右两只眼睛的视线汇聚相交于一对象;
步骤2:测出左右两只眼睛各自的视线角度,确定眼睛所观察的对象的三维坐标;
步骤3:根据所述近红外摄像头、凹面镜以及眼睛三者的不变的相对位置关系,对所述近红外摄像头拍摄的照片进行分析,得到瞳孔当前的中心位置;
步骤4:根据瞳孔当前的中心位置、对象的三维坐标以及所述显示器显示的画面,计算出当前视线方向在显示器显示的画面中的二维坐标;
步骤5:获取眼睛的当前动作,进行相应的响应。
本发明通过将瞳孔进行高倍放大,使得虹膜能被清晰识别,便于机器对使用者进行虹膜身份识别,可以用来虹膜解锁,同时也克服了市面上智能眼镜的人机交互系统多依赖于有形物理按键、旋钮、触摸板等劣势。同时,通过对人眼的高倍放大,能对人的视线聚焦位置精准捕捉,清楚的了解人的视觉意识形态,为进一步的增强现实应用打下坚实基础。而且因近红外摄像头、凹面镜、人眼三者相对位置关系不变,可靠性十分稳定。即使在运动过程中,如骑行越野、蹦极、跳伞等,也可以只用眼神就能操控显示界面,完全解放了双手,带来了极大便利。
附图说明
图1为本发明的人眼瞳孔中心位置捕捉原理图;
图2为本发明的方法流程图;
图3为本发明的目视线识别定位原理图。
具体实施方式
下面结合附图对本发明的原理及方法进行详细说明。
本发明一实施例提供的智能眼镜,包括镜架、镜片、近红外摄像头、近红外补光灯,定位模块和响应模块。
图1显示了本发明的瞳孔中心位置捕捉的原理图,镜片安装在镜架上,镜架未在图中示出,镜片包括一个用于放大眼睛瞳孔的凹面镜5,凹面镜5的凹面侧朝向眼睛方向,该凹面镜5可以为使用者所佩戴的智能眼镜镜片的一部分或全部。近红外摄像头2设置在凹面镜5的凹面侧用于拍摄经凹面镜5放大后的眼睛瞳孔6,也就是图中所示出的眼睛瞳孔4经过凹面镜5放大后在像屏1处得到放大的眼睛瞳孔6,经过放大的眼睛瞳孔6的像可以被置于凹面镜后、眼睛下方与凹面镜有固定距离L1的近红外摄像头2清晰捕捉,由于瞳孔与周围虹膜在红外成像中具有明显的对比差别,通过定位模块可轻易锁定瞳孔中心的位置,将此位置换算成视线的方向,便可确定使用者当前视线焦点在视野中的二维位置坐标。此时眼睛作出一些动作,然后响应模块可以针对当前的视线焦点对这些动作进行相应的响应。例如,眼睛盯着一对象并对其进行眨眼或者是凝视5秒的时间,响应模块就进行相应的处理。例如,根据使用者正在注视的物体形貌和位置信息的识别,预判出使用者的现实需求,从而推送相关的信息服务给使用者等等。当然,还可以结合现有的触发按钮的方式,由眼睛注视一个文件夹,然后按钮可以实现鼠标的左键点击或右键点击等等。
在一个实施例中,近红外摄像头2可以设有一个,可以针对单眼视觉的人进行相应的瞳孔捕捉,从而实现与智能眼镜的人机交互。在另一实施例中,近红外摄像头2也可以设有两个,分别独立对应两只眼睛,通过两只注视同一对象时的眼神交汇,还可以算出当前对象的三维坐标。
近红外补光灯3并不是一个必要部件,它采用了LED芯片,作用在于当光线不足时,可以补充相应的近红外光,这是人眼所察觉不到的光线,不会对人的视觉效果造成影响,同时近红外摄像头2采用可以滤除其他可见光的红外滤光片,只留下近红外光,可以避免其他可见光的干扰,使瞳孔的中心位置获取得更加精准,最大程度地降低误差。
镜片的凹面镜的凹面侧还可以镀反射膜。镜片靠近眼睛的一侧设置显示器,显示器可以是透明显示器,其投射出去的画面会经过反射膜的反射从而被人眼所看到。定位模块计算眼睛瞳孔中心位置并根据中心位置得出当前视线焦点在显示器所显示的画面中的二维坐标,响应模块根据当前的视线焦点实现眼睛对显示器显示的画面中的内容进行相应的响应操作。例如显示器显示一段英文,此时眼睛盯着英文的地方超过5秒,响应模块就显示相应的翻译或释义。
如图2所示,基于本发明的智能眼镜,还提出了该智能眼镜实现的交互方法,包括如下步骤:
步骤1:注视眼前所述显示器显示的画面时,左右两只眼睛的视线汇聚相交于一对象;
步骤2:测出左右两只眼睛各自的视线角度,确定眼睛所观察的对象的三维坐标;
步骤3:根据所述近红外摄像头、凹面镜以及眼睛三者的不变的相对位置关系,对所述近红外摄像头拍摄的照片进行分析,得到瞳孔当前的中心位置;
步骤4:根据瞳孔当前的中心位置、对象的三维坐标以及所述显示器显示的画面,计算出当前视线方向在显示器显示的画面中的二维坐标;
步骤5:获取眼睛的当前动作,进行相应的响应。
图3显示了两只眼睛注视同一对象时的目视线识别定位原理图,相当于左右眼各用一套独立的单目视线识别系统。人眼的视觉原理告诉我们,当双目注视眼前的物体时,左右两只眼睛7的视线会汇聚相交于该物体8。因此,通过独立测出左右眼睛7各自的视线角度,我们便可以确定出使用者所观察对象的三维位置坐标,这为实现3D立体人机交互以及真正的虚拟和增强现实应用打下了坚实基础。由于近红外摄像头、凹面镜、人眼三者相对位置关系不变,采用三点定标或者其它算法,对近红外摄像头拍摄的照片或视频数据进行分析计算,即使在使用者处于身体运动的状态下也能很精准的捕捉到人眼球的绝对位置以及相对移动轨迹,以便于机器对人的主观视觉意识进行准确的判断和识别,实现人机交互。把该项技术应用在现有的穿戴设备智能眼镜上,因其能准确定位眼球轨迹,当人眼在显示屏界面上移动到某个文件夹停留超过一定时间时或者眨眼睛等,均可指示为打开此文件夹等等。
以上具体实施例仅用以举例说明本发明的结构,本领域的普通技术人员在本发明的构思下可以做出多种变形和变化,这些变形和变化均包括在本发明的保护范围之内。
Claims (8)
1.一种通过视线进行人机交互的智能眼镜,包括眼镜架、设置在眼镜架上的镜片,其特征在于,所述镜片包括用于放大眼睛瞳孔的凹面镜,所述凹面镜的凹面侧朝向眼睛方向;
所述智能眼镜还包括设置在所述凹面镜的凹面侧用于拍摄眼睛瞳孔的近红外摄像头,用于计算眼睛瞳孔中心位置并根据所述中心位置得出当前视线焦点在视线范围内的二维坐标的定位模块,接收针对当前的视线焦点对准的对象的操作并进行响应的响应模块。
2.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述操作包括包括眨眼、凝视一定时间、触发按钮。
3.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述近红外摄像头设有两个,分别独立对应两只眼睛。
4.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述凹面镜的凹面侧还设有近红外补光灯。
5.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述凹面镜的凹面侧镀有反射膜。
6.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述近红外摄像头内设有用于滤除其他可见光的红外滤光片。
7.如权利要求1所述的通过视线进行人机交互的智能眼镜,其特征在于,所述镜片靠近眼睛的一侧设有显示器,所述定位模块计算眼睛瞳孔中心位置并根据所述中心位置得出当前视线焦点在显示器所显示的画面中的二维坐标,所述响应模块根据当前的视线焦点实现眼睛对显示器显示的画面中的内容进行相应的响应操作。
8.采用上述任意一项权利要求所述的智能眼镜实现的交互方法,其特征在于,包括如下步骤:
步骤1:注视眼前所述显示器显示的画面时,左右两只眼睛的视线汇聚相交于一对象;
步骤2:测出左右两只眼睛各自的视线角度,确定眼睛所观察的对象的三维坐标;
步骤3:根据所述近红外摄像头、凹面镜以及眼睛三者的不变的相对位置关系,对所述近红外摄像头拍摄的照片进行分析,得到瞳孔当前的中心位置;
步骤4:根据瞳孔当前的中心位置、对象的三维坐标以及所述显示器显示的画面,计算出当前视线方向在显示器显示的画面中的二维坐标;
步骤5:获取眼睛的当前动作,进行相应的响应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610812986.1A CN106226911A (zh) | 2016-09-09 | 2016-09-09 | 一种通过视线进行人机交互的智能眼镜以及交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610812986.1A CN106226911A (zh) | 2016-09-09 | 2016-09-09 | 一种通过视线进行人机交互的智能眼镜以及交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106226911A true CN106226911A (zh) | 2016-12-14 |
Family
ID=58074635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610812986.1A Pending CN106226911A (zh) | 2016-09-09 | 2016-09-09 | 一种通过视线进行人机交互的智能眼镜以及交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106226911A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299678A (zh) * | 2018-09-08 | 2019-02-01 | 太若科技(北京)有限公司 | 一种利用虹膜解锁ar眼镜的方法、解锁装置及ar眼镜 |
CN109846635A (zh) * | 2019-02-20 | 2019-06-07 | 浙江强脑科技有限公司 | 基于眼镜和脑机接口的护理床系统 |
CN109996044A (zh) * | 2019-04-17 | 2019-07-09 | 北京亮亮视野科技有限公司 | 基于瞳孔追踪技术的人像识别眼镜、识别方法及可读存储介质 |
CN113610901A (zh) * | 2021-07-07 | 2021-11-05 | 江西科骏实业有限公司 | 双目动作捕捉摄像头控制装置及一体机设备 |
CN116807388A (zh) * | 2023-06-20 | 2023-09-29 | 广州视景医疗软件有限公司 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
CN113610901B (zh) * | 2021-07-07 | 2024-05-31 | 江西科骏实业有限公司 | 双目动作捕捉摄像头控制装置及一体机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799277A (zh) * | 2012-07-26 | 2012-11-28 | 深圳先进技术研究院 | 一种基于眨眼动作的人机交互方法及系统 |
EP2093094B1 (en) * | 2006-11-27 | 2013-06-26 | Nippon Seiki Co., Ltd. | Head-up display device |
CN105141938A (zh) * | 2015-08-18 | 2015-12-09 | 深圳先进技术研究院 | 视线定位装置 |
CN105138965A (zh) * | 2015-07-31 | 2015-12-09 | 东南大学 | 一种近眼式视线跟踪方法及其系统 |
CN204883092U (zh) * | 2015-09-10 | 2015-12-16 | 陈包容 | 一种基于视线追踪技术的智能眼镜 |
CN205015838U (zh) * | 2015-10-15 | 2016-02-03 | 长沙师范学院 | 一种人机交互头盔式计算机图像系统 |
CN105739705A (zh) * | 2016-02-04 | 2016-07-06 | 重庆邮电大学 | 一种车载系统人眼控制方法及装置 |
CN105759973A (zh) * | 2016-03-09 | 2016-07-13 | 电子科技大学 | 一种基于3d视线估计的远近距离人机交互系统与方法 |
-
2016
- 2016-09-09 CN CN201610812986.1A patent/CN106226911A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2093094B1 (en) * | 2006-11-27 | 2013-06-26 | Nippon Seiki Co., Ltd. | Head-up display device |
CN102799277A (zh) * | 2012-07-26 | 2012-11-28 | 深圳先进技术研究院 | 一种基于眨眼动作的人机交互方法及系统 |
CN105138965A (zh) * | 2015-07-31 | 2015-12-09 | 东南大学 | 一种近眼式视线跟踪方法及其系统 |
CN105141938A (zh) * | 2015-08-18 | 2015-12-09 | 深圳先进技术研究院 | 视线定位装置 |
CN204883092U (zh) * | 2015-09-10 | 2015-12-16 | 陈包容 | 一种基于视线追踪技术的智能眼镜 |
CN205015838U (zh) * | 2015-10-15 | 2016-02-03 | 长沙师范学院 | 一种人机交互头盔式计算机图像系统 |
CN105739705A (zh) * | 2016-02-04 | 2016-07-06 | 重庆邮电大学 | 一种车载系统人眼控制方法及装置 |
CN105759973A (zh) * | 2016-03-09 | 2016-07-13 | 电子科技大学 | 一种基于3d视线估计的远近距离人机交互系统与方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299678A (zh) * | 2018-09-08 | 2019-02-01 | 太若科技(北京)有限公司 | 一种利用虹膜解锁ar眼镜的方法、解锁装置及ar眼镜 |
CN109846635A (zh) * | 2019-02-20 | 2019-06-07 | 浙江强脑科技有限公司 | 基于眼镜和脑机接口的护理床系统 |
CN109996044A (zh) * | 2019-04-17 | 2019-07-09 | 北京亮亮视野科技有限公司 | 基于瞳孔追踪技术的人像识别眼镜、识别方法及可读存储介质 |
CN109996044B (zh) * | 2019-04-17 | 2021-03-12 | 北京亮亮视野科技有限公司 | 基于瞳孔追踪技术的人像识别眼镜、识别方法及可读存储介质 |
CN113610901A (zh) * | 2021-07-07 | 2021-11-05 | 江西科骏实业有限公司 | 双目动作捕捉摄像头控制装置及一体机设备 |
CN113610901B (zh) * | 2021-07-07 | 2024-05-31 | 江西科骏实业有限公司 | 双目动作捕捉摄像头控制装置及一体机设备 |
CN116807388A (zh) * | 2023-06-20 | 2023-09-29 | 广州视景医疗软件有限公司 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
CN116807388B (zh) * | 2023-06-20 | 2023-12-05 | 广州视景医疗软件有限公司 | 基于眼动追踪的主导眼检测方法、装置、终端设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106168853B (zh) | 一种自由空间头戴式视线跟踪系统 | |
Plopski et al. | Corneal-imaging calibration for optical see-through head-mounted displays | |
Stengel et al. | An affordable solution for binocular eye tracking and calibration in head-mounted displays | |
Chen et al. | A robust 3D eye gaze tracking system using noise reduction | |
CN103838378B (zh) | 一种基于瞳孔识别定位的头戴式眼睛操控系统 | |
Nishino et al. | The world in an eye [eye image interpretation] | |
Shih et al. | A novel approach to 3-D gaze tracking using stereo cameras | |
CN104113680B (zh) | 视线跟踪系统及方法 | |
CN106226911A (zh) | 一种通过视线进行人机交互的智能眼镜以及交互方法 | |
WO2016184107A1 (zh) | 用于视线焦点定位的可穿戴设备及视线焦点定位方法 | |
EP3371781B1 (en) | Systems and methods for generating and using three-dimensional images | |
Nitschke et al. | Corneal imaging revisited: An overview of corneal reflection analysis and applications | |
WO2015051751A1 (en) | Interactive projection display | |
CN114391117A (zh) | 眼睛跟踪延迟增强 | |
WO2018154272A1 (en) | Systems and methods for obtaining information about the face and eyes of a subject | |
Ko et al. | A robust gaze detection method by compensating for facial movements based on corneal specularities | |
Wan et al. | Pupil-contour-based gaze estimation with real pupil axes for head-mounted eye tracking | |
Nakazawa et al. | Non-calibrated and real-time human view estimation using a mobile corneal imaging camera | |
CN111524175A (zh) | 非对称式多摄像头的深度重建及眼动追踪方法及系统 | |
Sun et al. | A Novel Integrated Eye-Tracking System With Stereo Stimuli for 3-D Gaze Estimation | |
CN206161962U (zh) | 一种通过视线进行人机交互的智能眼镜 | |
Park | A real-time gaze position estimation method based on a 3-D eye model | |
Itoh et al. | Monocular focus estimation method for a freely-orienting eye using Purkinje-Sanson images | |
Lee et al. | Automated enabling of head mounted display using gaze-depth estimation | |
EP2521007A1 (en) | Method for object 3D position identification based on multiple image analysis applying to gaze tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161214 |
|
RJ01 | Rejection of invention patent application after publication |