CN108170279B - 头显设备的眼动和头动交互方法 - Google Patents

头显设备的眼动和头动交互方法 Download PDF

Info

Publication number
CN108170279B
CN108170279B CN201810031135.2A CN201810031135A CN108170279B CN 108170279 B CN108170279 B CN 108170279B CN 201810031135 A CN201810031135 A CN 201810031135A CN 108170279 B CN108170279 B CN 108170279B
Authority
CN
China
Prior art keywords
head
eye
module
tracking
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810031135.2A
Other languages
English (en)
Other versions
CN108170279A (zh
Inventor
卫荣杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tapuyihai Shanghai Intelligent Technology Co ltd
Original Assignee
Tapuyihai Shanghai Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tapuyihai Shanghai Intelligent Technology Co ltd filed Critical Tapuyihai Shanghai Intelligent Technology Co ltd
Priority to CN201810031135.2A priority Critical patent/CN108170279B/zh
Publication of CN108170279A publication Critical patent/CN108170279A/zh
Application granted granted Critical
Publication of CN108170279B publication Critical patent/CN108170279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种头显设备的眼动和头动交互方法,包括计算显示模组、眼追踪识别模组和头动追踪模组,方法如下步骤:步骤一,头显设备中计算显示模组显示图形交互界面,便于用户观看和控制;步骤二,眼追踪处理模组采集用户眼睛的图像判断并追踪;步骤三,头动追踪模块采集用户在注视过程中头部的修正动作来移动修正鼠标到用户需要的兴趣关注点位置;步骤四,通过用户点击得到鼠标确认事件;步骤五,将点击状态时的修正数值反馈给眼追踪算法;步骤六,执行交互输出,返回重复步骤二。本发明通过头动修正眼动精确度,主动适配校正眼动跟踪算法,使之在使用过程中越用越精准。

Description

头显设备的眼动和头动交互方法
技术领域
本发明属于头戴式设备技术领域,具体涉及一种头显设备的眼动和头动交互方法。
背景技术
目前现有的眼动设备跟踪精度差抖动,无法瞄准具体的一个点,其原因是人视野识别的是一个范围,眼睛运动以跳转和凝视为主,再加上佩戴和安放过程中眼睛相对设备的位置稍有移动就出现误差,而用户自然生理心理行为下,头部动作能主动配合眼球动作寻找移动和校准视线到兴趣关注点,因此需要使用头动对眼动进行补偿修正。
本人之前申请的:《一种头戴装置的光标控制方法》申请号:201310295425.5,有使用头动和眼动并行对鼠标控制的方法,适用于大型计算交互系统,但存在计算量过大,头动主导和眼动主导切换难顺畅,对小视角到大视角的切换,以及头戴显示器到外部显示器的切换,让不同使用者难习惯不适应,其程序步骤复杂和难以调节,因此发明:一种头显设备的眼动和头动交互方法,更为简洁明确,计算量小更适合移动头戴端使用。
发明内容
本发明的目的是提供一种头显设备的眼动和头动交互方法。
实现本发明目的的技术方案是:一种头显设备的眼动和头动交互方法,包括计算显示模组、眼追踪识别模组和头动追踪模组,
所述计算显示模组包括计算机模块、头显模块、图形交互界面、特征点、修正区域、鼠标确认事件、眼追踪算法和执行输出模块,
所述眼追踪识别模组包括红外LED和红外摄像头,
所述头动追踪模组包括多轴运动传感器,
用户自然生理心理行为下,头部动作能主动配合眼球动作寻找移动和校准视线到兴趣关注点,因此通过眼动跟踪得到视野的区域,再通过头动跟踪修正在该区域内的鼠标到兴趣区域,得到点击确认后主动适配校正眼动跟踪算法,使之在使用过程中越用越精准,方法包括如下步骤:
步骤一、头显设备中计算显示模组显示图形交互界面,便于用户观看和控制;
步骤二,眼追踪处理模组采集用户眼睛的图像判断并追踪,通过眼追踪算法得出用户眼睛注视的屏幕相应区域并在头显设备的图形界面内显示鼠标;
步骤三,头动追踪模块采集用户在注视过程中头部的修正动作来移动修正鼠标到用户需要的兴趣关注点位置;
步骤四,通过用户点击得到鼠标确认事件;
步骤五,将点击状态时的修正数值反馈给眼追踪算法;
步骤六,执行交互输出,返回重复步骤二。
运行方法为:
A、计算机模组驱动头显模组显示图形交互界面,用于用户观看和控制,
B、眼追踪识别模组驱动红外LED发出的红外光照射人眼,红外摄像头得到正常人眼红外图像;
C、眼追踪识别模组判断,是否是首次使用:
C-Y、判断如果是首次使用,交互界面将给出带有特征点的校正界面,让用户凝视相应的特征点,得到眼动算法用户初始值,进入C-N步骤;
C-N、如果非首次使用,通过眼追踪算法判断并追踪得出用户眼睛注视的屏幕相应区域并在图形界面内显示鼠标,然后进入眼追踪速度判断;
D、眼追踪速度判断,是否是大于眼动闸值:
D-Y、如果眼球瞳孔的移动大于眼动闸值时将优先调用眼追踪算法并忽略头动得出鼠标新位置;
D-N、如果眼球瞳孔的移动小于眼动闸值时将启用滤波收敛算法稳定鼠标,进入头动速度判断程序;
E、头动速度判断,是否是大于头动闸值:
E-Y、如果头部转动角速度大于头动闸值时,忽略头动数据,进入C-N步骤;
E-N、如果头部转动角速度小于头动闸值时,进入头动鼠标修正程序;
F、头动鼠标修正程序:在视野区域内通过头动识别模组的多轴运动传感器采样头部转动角数据,正相关映射转换为屏幕的鼠标位移增量,来移动修正鼠标到用户需要的兴趣位置;
G、当用户发出鼠标确认事件并有效点击图标事件后,得出此过程的修正数值并反馈给眼追踪算法,执行鼠标点击后重复步骤B-2。
所述鼠标确认事件还包括但不仅限于:兴趣区悬停点击、牙齿的敲击信号、面部肌肉电信号、口腔声音信号、按键和外部无线设备信号来触发形成鼠标确认事件。
所述眼追踪识别模组包括但不限于使用表面特征法、多类分类器法或红外光源法。
所述眼追踪算法包括但不限于hough算法、Kalman算法、Mean算法或Shift算法。
所述头动追踪模组中转动角数据正相关映射算法中线性倍率为一个定值倍率或动态倍率。
所述头动追踪模组还可以独立为一个手持控制设备。
所述图形交互界面中可以设立当鼠标接近按键图块时,按键图块对鼠标产生磁性吸引和图像特效。
所述红外摄像头可以获取虹膜图像,通过识别用户身份,调取用户初始档案。
所述头戴设备包括眼镜、护目镜或头盔中的至少一个。
本发明具有积极的效果:本发明通过眼动跟踪得到视野的区域,再通过头动跟踪修正在该区域内的鼠标到兴趣区域,得到点击确认后主动适配校正眼动跟踪算法,使之在使用过程中越用越精准。
附图说明
为了使本发明的内容更容易被清楚的理解,下面根据具体实施例并结合附图,对本发明作进一步详细的说明,其中:
图1为本发明的流程示意图;
图2为本发明的运行流程示意图。
具体实施方式
实施例一
如图1和如图2,一种头显设备的眼动和头动交互方法,包括计算显示模组、眼追踪识别模组和头动追踪模组,
所述计算显示模组包括计算机模块、头显模块、图形交互界面、特征点、修正区域、鼠标确认事件、眼追踪算法和执行输出模块,
所述眼追踪识别模组包括红外LED和红外摄像头,
所述头动追踪模组包括多轴运动传感器,
用户自然生理心理行为下,头部动作能主动配合眼球动作寻找移动和校准视线到兴趣关注点,因此通过眼动跟踪得到视野的区域,再通过头动跟踪修正在该区域内的鼠标到兴趣区域,得到点击确认后主动适配校正眼动跟踪算法,使之在使用过程中越用越精准,方法包括如下步骤:
步骤一、头显设备中计算显示模组显示图形交互界面,便于用户观看和控制;
步骤二,眼追踪处理模组采集用户眼睛的图像判断并追踪,通过眼追踪算法得出用户眼睛注视的屏幕相应区域并在头显设备的图形界面内显示鼠标;
步骤三,头动追踪模块采集用户在注视过程中头部的修正动作来移动修正鼠标到用户需要的兴趣关注点位置;
步骤四,通过用户点击得到鼠标确认事件;
步骤五,将点击状态时的修正数值反馈给眼追踪算法;
步骤六,执行交互输出,返回重复步骤二。
运行方法为:
A、计算机模组驱动头显模组显示图形交互界面,用于用户观看和控制,
B、眼追踪识别模组驱动红外LED发出的红外光照射人眼,红外摄像头得到正常人眼红外图像;
C、眼追踪识别模组判断,是否是首次使用:
C-Y、判断如果是首次使用,交互界面将给出带有特征点的校正界面,让用户凝视相应的特征点,得到眼动算法用户初始值,进入C-N步骤;
C-N、如果非首次使用,通过眼追踪算法判断并追踪得出用户眼睛注视的屏幕相应区域并在图形界面内显示鼠标,然后进入眼追踪速度判断;
D、眼追踪速度判断,是否是大于眼动闸值:
D-Y、如果眼球瞳孔的移动大于眼动闸值时将优先调用眼追踪算法并忽略头动得出鼠标新位置;
D-N、如果眼球瞳孔的移动小于眼动闸值时将启用滤波收敛算法稳定鼠标,进入头动速度判断程序;
E、头动速度判断,是否是大于头动闸值:
E-Y、如果头部转动角速度大于头动闸值时,忽略头动数据,进入C-N步骤;
E-N、如果头部转动角速度小于头动闸值时,进入头动鼠标修正程序;
F、头动鼠标修正程序:在视野区域内通过头动识别模组的多轴运动传感器采样头部转动角数据,正相关映射转换为屏幕的鼠标位移增量,来移动修正鼠标到用户需要的兴趣位置;
G、当用户发出鼠标确认事件并有效点击图标事件后,得出此过程的修正数值并反馈给眼追踪算法,执行鼠标点击后重复步骤B-2。
所述鼠标确认事件还包括但不仅限于:兴趣区悬停点击、牙齿的敲击信号、面部肌肉电信号、口腔声音信号、按键和外部无线设备信号来触发形成鼠标确认事件。
所述眼追踪识别模组包括但不限于使用表面特征法、多类分类器法或红外光源法。
所述眼追踪算法包括但不限于hough算法、Kalman算法、Mean算法或Shift算法。
所述头动追踪模组中转动角数据正相关映射算法中线性倍率为一个定值倍率或动态倍率。
所述头动追踪模组还可以独立为一个手持控制设备。
所述图形交互界面中可以设立当鼠标接近按键图块时,按键图块对鼠标产生磁性吸引和图像特效。
所述红外摄像头可以获取虹膜图像,通过识别用户身份,调取用户初始档案。
所述头戴设备包括眼镜、护目镜或头盔中的至少一个。
其中多轴运动传感器常识认知包括:微型机电MEMS的陀螺仪传感器、加速度传感器、多轴磁强仪、重力传感器等,
其中图形交互界面:可以通过头部动作追踪让交互界面(2D,3D)随着头部的移动拓展场景,使其场景相对地球惯性系相对静止,如同显示画面在真实场景中一样的交互界面,并且可透明。
其中图形交互界面可以通过摄像头和景深摄像头识别后,作为眼动鼠标点击交互的对象,其对象的反馈资料可来自本地存储文件也可来自网络和人工智能。
其动态界面可衍生出:当鼠标接近兴趣块时,兴趣块具有磁性吸引和加亮放大功能,并且识别眼睛在凝视后使鼠标特效加亮;
其中还可以衍生出:鼠标确认事件还包括:双击事件、按下拖动、和鼠标右键。其中在权利2中的C步骤常识认知可推导:通过红外摄像头可以得到虹膜特征并识别其对应的用户身份,并调取用户初始值作为密码解锁和金融支付。
衍生实施案例:所述头戴式设备还包含一套加权算法,其中:
通过头眼随动的生理心理机制分析得出:
头动和眼动同时往一个方向走,意味着注意力集中主导转向,以眼球转动为主进行加权移动;
头部方向和眼睛方向相反,意味着鼠标在用户意识相反的方向,或是在全景操作界面或点击外环境物标,需要对头动进行加权修正;
通过场景模式,识别在走动过程中,切换至单纯眼动识别。
衍生实施案例:所述头戴式设备还可以包含可透视型的头显,其中:眼追踪识别模组还包括:半反半透曲面反射镜、红外摄像头、红外LED,
一个以上红外LED发出的红外光通过半反半透反射镜反射至人眼,红外摄像头通过半反半透反射镜得到人眼红外图像;
其它实施案例一:头显模组还包括:投影显示屏、半反半透曲面反射镜,
计算机模组驱动投影显示模组,发出图像光线经半反半透反射镜反射,和外界透射来的环境光线合成后,投射至人眼成像,其中红外LED以符合摄像头曝光帧率的1/2时间点进行闪烁以节省功耗和差分帧,红外摄像头得到明暗不同的两幅差分帧眼动图像,通过图像差分算法得到去除背景干扰的图像,再通过眼动模块得到眼睛看的区域显示鼠标,再通过头动校正位置,在使用中校正眼动算法,使用户在交互使用过程中越用越精准。
其它实施案例二:所述眼追踪识别模组可以为系统处理器软件算法实现也可以使用独立的集成化硬件实现,包括:眼追踪识别模组和头动追踪模组以及计算模块,集成到一个模组里,实现规模化量产,降低体积、重量和成本。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而这些属于本发明的实质精神所引伸出的显而易见的变化或变动仍属于本发明的保护范围。

Claims (12)

1.一头显设备的眼动和头动交互系统,其特征在于,包括:
一头戴设备,用于显示一图形交互界面;
一眼追踪识别模组,其中所述眼追踪识别模组被连接于所述头戴设备,其中所述眼追踪识别模组用于确定所述图形交互界面的被眼睛注视的相应区域,以在后续在所述图形交互界面的所述相应区域内显示鼠标;以及
一头动追踪模组,其中所述头动追踪模组被连接于所述眼追踪识别模组和所述头戴设备,其中所述头动追踪模组用于采集头部的修正动作,以在后续根据头部的修正动作修正鼠标到兴趣关注点位置;其中所述头动追踪模组采样头部转动角数据,正相关映射转换为图形交互界面的鼠标位置增量来修正鼠标到兴趣关注点位置。
2.根据权利要求1所述的交互系统,进一步包括一执行输出模块,其中所述执行输出模块被连接于所述头戴设备,其中所述执行输出模块用于在接收点击的鼠标确认事件后执行交互输出。
3.根据权利要求2所述的交互系统,其中所述鼠标确认事件选自:兴趣区悬停点击、面部肌肉电信号、口腔声音信号、按键和外部无线设备信号形成的事件组。
4.根据权利要求2所述的交互系统,其中所述鼠标确认事件是牙齿的敲击信号。
5.根据权利要求1所述的交互系统,其中所述头戴设备是护目镜或者头盔。
6.根据权利要求1所述的交互系统,其中所述头戴设备是眼镜。
7.根据权利要求1至6中任一所述的交互系统,其中所述头戴设备包括一计算机显示模组和被可驱动地连接于所述计算机显示模组的一头显模组,其中所述头显模组用于显示所述图形交互界面。
8.根据权利要求7所述的交互系统,其中所述头戴设备进一步包括一半反半透反射镜,其中所述半反半透反射镜被保持在所述头显模组的前部,以使所述头显模组产生的光线在被所述半反半透反射镜反射后和穿过所述半反半透反射镜的环境光线合成而能够在眼前形成所述图形交互界面。
9.根据权利要求1至6中任一所述的交互系统,其中所述头动追踪模组包括至少一个多轴运动传感器。
10.根据权利要求8所述的交互系统,其中所述头动追踪模组包括至少一个多轴运动传感器。
11.根据权利要求8所述的交互系统,其中所述眼追踪识别模组包括一红外LED和一红外摄像头,其中所述红外摄像头能够在所述红外LED向眼睛发射红外光线后获取眼睛的图像,以在后续基于眼睛的图像进行判断和追踪,以确定在所述图形交互界面中的被眼睛注视的所述相应区域。
12.根据权利要求11所述的交互系统,其中所述红外LED以符合所述红外摄像头曝光帧率的1/2时间点进行闪烁,以使所述红外摄像头得到明暗不同的两幅差分帧眼动图像,以藉由所述两幅差分帧眼动图像去除背景干扰的图像,从而确定所述图形交互界面中的被眼睛注视的所述相应区域。
CN201810031135.2A 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法 Active CN108170279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810031135.2A CN108170279B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510296970.5A CN104866105B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法
CN201810031135.2A CN108170279B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510296970.5A Division CN104866105B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法

Publications (2)

Publication Number Publication Date
CN108170279A CN108170279A (zh) 2018-06-15
CN108170279B true CN108170279B (zh) 2021-07-30

Family

ID=53911986

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201810031135.2A Active CN108170279B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法
CN201510296970.5A Active CN104866105B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法
CN201810030529.6A Active CN108153424B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201510296970.5A Active CN104866105B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法
CN201810030529.6A Active CN108153424B (zh) 2015-06-03 2015-06-03 头显设备的眼动和头动交互方法

Country Status (1)

Country Link
CN (3) CN108170279B (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106970697B (zh) 2016-01-13 2020-09-08 华为技术有限公司 界面交互装置及方法
CN105824409A (zh) * 2016-02-16 2016-08-03 乐视致新电子科技(天津)有限公司 虚拟现实的交互控制方法及装置
CN105807915A (zh) 2016-02-24 2016-07-27 北京小鸟看看科技有限公司 虚拟鼠标的控制方法、控制装置以及头戴显示设备
CN106020591A (zh) * 2016-05-10 2016-10-12 上海青研信息技术有限公司 一种眼控人机交互移动窗口技术
CN106125931A (zh) * 2016-06-30 2016-11-16 刘兴丹 一种眼球追踪操作的方法及装置
CN106383575B (zh) * 2016-09-07 2020-04-10 北京奇虎科技有限公司 一种vr视频的交互控制方法和装置
CN106383597B (zh) * 2016-09-07 2020-04-28 北京奇虎科技有限公司 一种实现与智能终端、与vr设备交互的方法和装置
CN107885311A (zh) * 2016-09-29 2018-04-06 深圳纬目信息技术有限公司 一种视觉交互的确认方法、系统和设备
CN106598219A (zh) * 2016-11-15 2017-04-26 歌尔科技有限公司 基于虚拟现实技术选择座位的方法、系统及虚拟现实头戴
CN106791699A (zh) * 2017-01-18 2017-05-31 北京爱情说科技有限公司 一种远程头戴交互式视频共享系统
CN108334185A (zh) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 一种头戴显示设备的眼动数据反馈系统
CN107368782A (zh) * 2017-06-13 2017-11-21 广东欧珀移动通信有限公司 控制方法、控制装置、电子装置和计算机可读存储介质
CN107633206B (zh) 2017-08-17 2018-09-11 平安科技(深圳)有限公司 眼球动作捕捉方法、装置及存储介质
CN109799899B (zh) * 2017-11-17 2021-10-22 腾讯科技(深圳)有限公司 交互控制方法、装置、存储介质和计算机设备
CN108536285B (zh) * 2018-03-15 2021-05-14 中国地质大学(武汉) 一种基于眼部移动识别与控制的鼠标交互方法与系统
US10748021B2 (en) * 2018-05-11 2020-08-18 Samsung Electronics Co., Ltd. Method of analyzing objects in images recorded by a camera of a head mounted device
CN108509173A (zh) * 2018-06-07 2018-09-07 北京德火科技有限责任公司 图像展示系统及方法、存储介质、处理器
CN109032347A (zh) * 2018-07-06 2018-12-18 昆明理工大学 一种基于眼电信号控制鼠标的方法
CN109597489A (zh) * 2018-12-27 2019-04-09 武汉市天蝎科技有限公司 一种近眼显示设备的眼动追踪交互的方法及系统
CN109542240B (zh) * 2019-02-01 2020-07-10 京东方科技集团股份有限公司 眼球追踪装置及追踪方法
CN109960412B (zh) * 2019-03-22 2022-06-07 北京七鑫易维信息技术有限公司 一种基于触控调整注视区域的方法以及终端设备
CN112416115B (zh) * 2019-08-23 2023-12-15 亮风台(上海)信息科技有限公司 一种用于控件交互界面中进行人机交互的方法与设备
CN110633014B (zh) * 2019-10-23 2024-04-05 常州工学院 一种头戴式眼动追踪装置
CN110881981A (zh) * 2019-11-16 2020-03-17 嘉兴赛科威信息技术有限公司 一种基于虚拟现实技术的阿尔兹海默症辅助检测系统
CN111147743B (zh) * 2019-12-30 2021-08-24 维沃移动通信有限公司 摄像头控制方法及电子设备
CN111722716B (zh) * 2020-06-18 2022-02-08 清华大学 眼动交互方法、头戴式设备和计算机可读介质
GB2596541B (en) 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
CN113111745B (zh) * 2021-03-30 2023-04-07 四川大学 基于openpose的产品关注度的眼动识别的方法
CN113035355B (zh) * 2021-05-27 2021-09-03 上海志听医疗科技有限公司 视频头脉冲试验传感器后校正方法、系统、电子设备及存储介质
CN113448435B (zh) * 2021-06-11 2023-06-13 北京数易科技有限公司 一种基于卡尔曼滤波的眼控光标稳定方法
CN113253851B (zh) * 2021-07-16 2021-09-21 中国空气动力研究与发展中心计算空气动力研究所 一种基于眼动跟踪的沉浸式流场可视化人机交互方法
CN113805334A (zh) * 2021-09-18 2021-12-17 京东方科技集团股份有限公司 一种眼动追踪系统、控制方法、显示面板
CN114578966B (zh) * 2022-03-07 2024-02-06 北京百度网讯科技有限公司 交互方法、装置、头戴显示设备、电子设备及介质
CN115111964A (zh) * 2022-06-02 2022-09-27 中国人民解放军东部战区总医院 一种用于单兵训练的mr全息智能头盔

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN103336580A (zh) * 2013-07-16 2013-10-02 卫荣杰 一种头戴装置的光标控制方法
CN103499880A (zh) * 2013-10-23 2014-01-08 卫荣杰 头戴透视显示装置
CN103838378A (zh) * 2014-03-13 2014-06-04 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
CN101135945A (zh) * 2007-09-20 2008-03-05 苏勇 头控鼠标
WO2011004403A1 (en) * 2009-07-07 2011-01-13 Eythor Kristjansson Method for accurate assessment and graded training of sensorimotor functions
CN102221881A (zh) * 2011-05-20 2011-10-19 北京航空航天大学 基于仿生代理与视线追踪兴趣区域分析的人机交互方法
US20140247286A1 (en) * 2012-02-20 2014-09-04 Google Inc. Active Stabilization for Heads-Up Displays
CN103294180B (zh) * 2012-03-01 2017-02-15 联想(北京)有限公司 一种人机交互控制方法及电子终端
US9619021B2 (en) * 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
WO2014129105A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CN103543843A (zh) * 2013-10-09 2014-01-29 中国科学院深圳先进技术研究院 基于加速度传感器的人机接口设备及人机交互方法
CN103914152B (zh) * 2014-04-11 2017-06-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统
CN104123002B (zh) * 2014-07-15 2017-03-01 河海大学常州校区 基于头部运动的无线体感鼠标
CN204347751U (zh) * 2014-11-06 2015-05-20 李妍 头戴式显示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN103336580A (zh) * 2013-07-16 2013-10-02 卫荣杰 一种头戴装置的光标控制方法
CN103499880A (zh) * 2013-10-23 2014-01-08 卫荣杰 头戴透视显示装置
CN103838378A (zh) * 2014-03-13 2014-06-04 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统

Also Published As

Publication number Publication date
CN108170279A (zh) 2018-06-15
CN108153424B (zh) 2021-07-09
CN104866105A (zh) 2015-08-26
CN108153424A (zh) 2018-06-12
CN104866105B (zh) 2018-03-02

Similar Documents

Publication Publication Date Title
CN108170279B (zh) 头显设备的眼动和头动交互方法
CN110908503B (zh) 跟踪设备的位置的方法
US10712901B2 (en) Gesture-based content sharing in artificial reality environments
US10078377B2 (en) Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
CN106873778B (zh) 一种应用的运行控制方法、装置和虚拟现实设备
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
AU2021290132B2 (en) Presenting avatars in three-dimensional environments
CN117178247A (zh) 用于动画化及控制虚拟和图形元素的手势
US11941167B2 (en) Head-mounted VR all-in-one machine
US20150212576A1 (en) Radial selection by vestibulo-ocular reflex fixation
KR20180096434A (ko) 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
US11579693B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
CN118401910A (zh) 用于生成和显示用户的表示的设备、方法和图形用户界面
Perra et al. Adaptive eye-camera calibration for head-worn devices
US20230290096A1 (en) Progressive body capture of user body for building an avatar of user
WO2021044732A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
WO2024054433A2 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
TW202414033A (zh) 追蹤系統、追蹤方法及自追蹤追蹤器
CN113660477A (zh) 一种vr眼镜及其图像呈现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Room 493-61, Building 3, No. 2111, Beiyan Road, Chongming District, Shanghai 202177

Patentee after: TAPUYIHAI (SHANGHAI) INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: 201802 room 412, building 5, No. 1082, Huyi Road, Jiading District, Shanghai

Patentee before: TAPUYIHAI (SHANGHAI) INTELLIGENT TECHNOLOGY Co.,Ltd.