CN109634427B - 基于头部追踪的ar眼镜控制系统及控制方法 - Google Patents

基于头部追踪的ar眼镜控制系统及控制方法 Download PDF

Info

Publication number
CN109634427B
CN109634427B CN201811583427.3A CN201811583427A CN109634427B CN 109634427 B CN109634427 B CN 109634427B CN 201811583427 A CN201811583427 A CN 201811583427A CN 109634427 B CN109634427 B CN 109634427B
Authority
CN
China
Prior art keywords
space
glasses
degrees
spatial
ray emission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811583427.3A
Other languages
English (en)
Other versions
CN109634427A (zh
Inventor
张斌
程悦
闫梦若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Pi Culture And Education Technology Co ltd
Original Assignee
Shaanxi Pi Culture And Education Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Pi Culture And Education Technology Co ltd filed Critical Shaanxi Pi Culture And Education Technology Co ltd
Priority to CN201811583427.3A priority Critical patent/CN109634427B/zh
Publication of CN109634427A publication Critical patent/CN109634427A/zh
Application granted granted Critical
Publication of CN109634427B publication Critical patent/CN109634427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于头部追踪的AR眼镜控制系统及控制方法,解决了佩戴AR眼镜需借助手持控制器进行操作的问题。该控制系统包括UI系统、人体头部追踪模块和隐形射线发射模块;UI系统用于在以AR眼镜佩戴者为中心的空间弧形面上显示控件;人体头部追踪模块包括运动数据采集单元和角度转换单元;运动数据采集单元用于采集AR眼镜佩戴者的头部运动数据,同时将该数据发送给角度转换单元;角度转换单元将运动数据转换为隐形射线发射模块相应的角度数据,并将该数据发送给隐形射线发射模块;隐形射线发射模块根据接收到的角度信息在弧形面上显示射线与UI系统的碰撞点,从而UI系统执行操作指令。本发明还提供一种基于头部追踪的AR眼镜控制方法。

Description

基于头部追踪的AR眼镜控制系统及控制方法
技术领域
本发明涉及增强现实(Augmented Reality,AR)技术领域,具体涉及一种基于头部追踪的AR眼镜控制系统及控制方法。
背景技术
AR技术是在VR(Virtual Reality,虚拟现实)技术的基础上发展起来的一种现代信息技术,其借助光电显示技术、多种传感技术、计算机图形与多媒体等技术将计算机生成的虚拟环境与用户周围的现实环境融为一体,使用户从感官效果上确信虚拟环境是其周围真实环境组成的一部分。
AR技术具有虚实结合、实时交互和三维注册的特点,其与VR技术相比,具有真实感强、建模工作量小等优点,可广泛应用于工程设计、医疗、军事、教育、娱乐、旅游等领域。
AR眼镜是谷歌率先推向市场应用的一款带有科幻色彩的产品,也是一项拥有前卫技术的产品,可以实现诸多功能。目前主流AR眼镜主要使用手持控制器的方式进行相应操作,用户在佩戴AR眼镜时还需要额外借助手持控制器进行操作,体验感较差,同时也有部分AR眼镜配备了声音操控的方式,但是声音的准确识别仍是目前未解决的难题之一。
发明内容
本发明的主要目的是提出了一种基于头部追踪的AR眼镜控制系统及控制方法,解决了佩戴AR眼镜需借助手持控制器进行操作的问题,解放了佩戴者的双手,增强了AR眼镜便利性,提升了用户体验。
该方法主要通过在AR眼镜中搭建空间球体UI系统,并在球体中心设置隐形射线发射模块,隐形射线与球体UI的碰撞点即为AR眼镜佩戴者的操控点,通过追踪的人体头部的运动情况,相应调整隐形射线的发射角度,即可实现碰撞点在球体UI上的移动,碰撞点在球体UI空间区域停留,并满足触发条件时,立即执行该UI控件指向的操作动作。
本发明的技术方案是:
一种基于头部追踪的AR眼镜控制系统,包括UI系统、人体头部追踪模块和隐形射线发射模块;所述UI系统用于在以AR眼镜佩戴者为中心的空间弧形面上显示控件;所述人体头部追踪模块包括运动数据采集单元和角度转换单元;所述运动数据采集单元用于采集AR眼镜佩戴者的头部运动数据,同时将头部运动数据发送给角度转换单元;所述角度转换单元将头部运动数据转换为隐形射线发射模块相应的角度信息,并将该角度信息发送给隐形射线发射模块;所述隐形射线发射模块根据接收到的角度数据在弧形面上显示射线与UI系统的碰撞点,从而UI系统执行操作指令。
进一步地,还包括操作触发判断模块,所述操作触发判断模块包括UI系统触发判断单元和操作触发判断单元;所述UI系统触发判断单元根据碰撞点在空间弧形面上的位置坐标判断其是否落在UI系统上;所述操作触发判断单元根据碰撞点在UI系统上的停留时间判断是否需要对UI系统执行操作。
进一步地,所述UI系统为以AR眼镜佩戴者为中心的空间球体。
进一步地,所述UI系统包括第一空间、第二空间、第三空间和第四空间;第一空间、第二空间、第三空间和第四空间具体为在垂直方向将空间球体等分的四个空间区域。
进一步地,所述运动数据采集单元为三轴陀螺仪传感器。
同时,本发明还提供一种基于头部追踪的AR眼镜控制方法,包括以下步骤:
步骤一、建立空间球面UI系统;
所述UI系统用于在以AR眼镜佩戴者为中心的空间弧形面上显示控件;
步骤二、运动数据采集单元采集记录AR眼镜佩戴者的头部运动数据,同时将该头部运动数据发送给角度转换单元;
步骤三、角度转换单元将头部运动数据转换为隐形射线发射模块相应的角度信息,并将该角度信息发送给隐形射线发射模块;
步骤四、隐形射线发射模块根据接收到的角度信息计算碰撞点;
步骤五、根据触碰点的位置以及停留时间判断是否执行对应操作。
进一步地,步骤五具体为:
判断碰撞点是否落在空间控件上,若碰撞点不在空间控件上,则返回步骤二;若碰撞点落在空间控件上,则启动操作触发判断,当碰撞点停留时间超过设置时间时,则执行该空间控件对应操作,否则返回步骤二。
进一步地,步骤一中的UI系统为以AR眼镜佩戴者为中心的空间球体,包括第一空间(-45°,45°)、第二空间(45°,135°)、第三空间(135°,225°)和第四空间(225°,315°),第一空间、第二空间、第三空间和第四空间具体为在垂直方向将空间球体等分的四个空间区域。
进一步地,步骤一和步骤二之间还包括初始化隐形射线发射模块步骤:以空间球体中心建立空间直线坐标轴,x轴、y轴、z轴皆从球心穿过,其中x轴指向正南方向,隐形射线发射模块的初始发射角度为水平方向朝正北。
进一步地,步骤一和步骤二之间还包括空间坐标标定步骤:首次执行本方法时,需根据获得的运动数据信息进行空间坐标标定;首先判断AR眼镜佩戴者在水平面上的转动角度θ1是否超出第一空间(-45°,45°)范围,若超出,则激活相应的空间区域及空间UI系统,当前空间区域及空间UI系统转入休眠状态。
本发明与现有技术相比,具有以下技术效果:
1.本发明使AR眼镜佩戴者通过头部动作即可完成AR眼镜操作,无需借助手持控制器,对后续AR眼镜缩小体积提供了技术支持。
2.本发明提供的一种基于头部追踪的AR眼镜控制系统,相对于现有的眼部控制的AR眼镜设备和脑电波控制的AR眼镜设备拥有更好的可移植性,只需AR眼镜平台内置三轴陀螺仪即可快速移植,这一硬件条件目前主流AR眼镜平台都满足,同时本发明系统的控制效率更好,所有头部运动都可得到相应的控制反馈信息,控制准确性为100%。
3.本发明简单合理,方法步骤简单、易于实现、实用性强,使用效果好,具有广泛的应用前景和市场价值。
附图说明
图1为本发明系统组成框图;
图2A为本发明隐形射线发射模块工作示意图;
图2B为本发明UI系统划分工作示意图;
图3A为本发明方法中的空间坐标系,其中x-y平面表示水平面,x轴指向正南方向;
图3B为本发明使用的隐形射线初始发射角度示意图;
图4为本发明使用方法流程图;
图5A为本发明使用方法简单案例示意图一;
图5B为本发明使用方法简单案例示意图二。
具体实施方式
以下结合附图和具体实施例对本发明的内容作进一步详细描述。
本发明提供一种基于头部追踪的AR眼镜控制系统和控制方法,该方法主要在AR眼镜中搭建空间球体UI系统,并在球体中心设置隐形射线发射模块,通过人体头部追踪模块获取人体头部的移动数据,并将其转换成隐形射线的偏移角度,当射线与空间球体UI系统发生碰撞时,其碰撞点即为用户操作点,通过判断操作点的触发条件,即可完成相应控制操作。本发明解决了现有技术中AR眼镜佩戴者只能借助手持控制器来进行操作的问题,提升了用户的视觉交互体验,为进一步缩小AR眼镜的体积提供了技术支持。
图1所示为本发明系统组成示意图,包括UI系统、人体头部追踪模块、操作触发判断模块和隐形射线发射模块。
UI系统用于在以AR眼镜佩戴者为中心的空间弧形面上显示控件,空间弧形面为空间球体。如图2A所示,设置为球体的优点是:所有控件到球体中心距离相等,AR眼镜佩戴者在进行头部旋转时,隐形射线可以触碰到球体上所有的点,实际设置过程中,AR眼镜佩戴者头顶区域和下巴区域不会设置UI控件。在垂直方向将空间球体等分为四个空间区域,如图2B所示,具体为第一空间(-45°,45°)、第二空间(45°,135°)、第三空间(135°,225°)和第四空间(225°,315°),四个空间区域为四个布局一样的空间UI系统,其外观和功能完全一致。在某一时刻,对于AR眼镜佩戴者,其视线始终对应着图2B中所指向的某一空间,在感受上与现行平面UI并无差别。将UI系统分为四个空间区域的优点是:减少资源占用,对于AR眼镜佩戴者,其某一时刻视线总处于某一空间区域内,其余三个空间区域及其空间UI系统均处于休眠状态。
也就是说,建立空间UI系统,以AR眼镜佩戴者为中心,将球体UI系统等分为四个空间区域,以每个空间区域的中心点为初始点,在四个空间相对应的位置同步生成空间UI控件,相对应位置的控件指向同一操作,空间球体UI外观对于AR眼镜佩戴者与现行的平面UI外观并无区别,某一时刻内,AR眼镜佩戴者只在一个空间区域内进行操作,其余三个控件区域和空间UI系统处于休眠状态。
如图1所示,隐形射线发射模块主要通过在空间球体UI系统中心设置隐形射线发射模块,其工作样式如图2A,同时以空间球体UI中心建立空间直线坐标轴,x轴、y轴、z轴皆从球心穿过,如图3A,其中x轴指向正南方向(以正南方向为x轴,在计算隐形射线发射器角度时更加直观)。隐形射线发射器的初始发射角度为水平方向朝正北,垂直面0°,如图3B,射线发射器启动后持续发射射线。
隐形射线发射模块的原理是以空间UI球体正中心为起始端点,以水平方向朝正北,垂直面0°为初始发射角度向外发射射线,由于射线并不在AR眼镜佩戴者视野中显示,因此射线设置为透明隐形状态。隐形射线发射方式:
Figure BDA0001918485060000061
此坐标点即为碰撞点坐标,其中θ为AR眼镜佩戴者头部在水平方向转动角度,
Figure BDA0001918485060000062
为AR眼镜佩戴者头部在垂直方向转动角度。
人体头部追踪模块包括运动数据采集单元和角度转换单元;其中运动数据采集单元随着AR眼镜佩戴者的头部运动不断记录当前头部的运动数据,同时将该数据发送给角度转换单元,运动数据包括水平转动角度θ1和垂直转动角度φ1。角度转换主要将采集到的运动数据转换为隐形射线发射器相应的角度θ2和φ2,转换公式为:θ2=2×θ1
Figure BDA0001918485060000063
并将该发送给隐形射线发射模块;隐形射线发射模块则按计算得到的角度θ2和φ2发射射线,其与空间球体的碰撞点随AR眼镜佩戴者的头部运动变化而变化。运动数据采集单元为三轴陀螺仪传感器。三轴陀螺仪也叫作微机械陀螺仪,它的特点在于能够同时进行六个方向的位置测定工作,还能对这些方向移动的轨迹及加速的测定。
操作触发判断模块主要包括空间UI系统触发判断单元和操作触发判断单元两部分。其中UI系统触发判断单元主要是根据碰撞点在空间球体上的位置坐标判断其是否落在空间UI系统上,如果落在空间UI系统上,则启动操作触发判断。操作触发判断单元主要是当碰撞点落在空间UI系统上,判断其停留的时间,在本发明方法里,判断时间具体可设置为1秒,若停留时间大于1秒,则执行该空间UI系统对应操作。
如图4所示,本发明基于头部追踪的AR眼镜控制方法包括以步骤下:
步骤一、建立空间球体UI系统;
通过在AR眼镜的操作系统中建立以AR眼镜佩戴者为中心的空间球体,并在垂直方向,将空间球体等分成四个空间区域,分别为第一空间(-45°,45°)、第二空间(45°,135°)、第三空间(135°,225°)和第四空间(225°,315°),然后在四个空间区域所包含的球体表面,以每个空间区域中心点为初始点,依次建立4个布局一样的空间UI系统,相对应的空间UI控件的外观和功能完全一致。在某一时刻,对于佩戴者,其视线始终对应着图2B中所指向的某一空间,在视觉感受上与现行平面UI并无差别,此时其他三个空间区域和空间UI系统处于休眠状态;
步骤二:初始化隐形射线发射器;
在空间球体UI中心设置隐形射线发射模块(隐形射线发射器),同时以空间球体UI中心建立空间直线坐标轴,x轴、y轴、z轴皆从球心穿过,其中x轴指向正南方向,隐形射线发射器的初始发射角度为水平方向朝正北,垂直面0°,由于射线并不在AR眼镜佩戴者视野中显示,因此射线设置为透明隐形状态,隐形射线发射方式:
Figure BDA0001918485060000081
其中θ为AR眼镜佩戴者头部在水平方向转动角度,
Figure BDA0001918485060000082
为AR眼镜佩戴者头部在垂直方向转动角度;
步骤三:第一次运行本发明系统时,需根据获得的运动数据信息进行空间坐标标定,首先判断AR眼镜佩戴者在水平面上转动角度θ1是否超出第一空间区域(-45°,45°)范围,判断依据步骤一空间区域角度划分标准,若超出,则激活相应的空间区域及空间UI系统,当前空间区域及空间UI系统转入休眠状态;
步骤四、运动数据采集单元实时追踪AR眼镜佩戴者头部所处姿态,实时采集记录AR眼镜佩戴者的头部运动数据,同时将该数据发送给角度转换单元,其中,运动数据包括水平转动角度θ1和垂直转动角度φ1
步骤五、若AR眼镜佩戴者头部运动范围未超过当前空间区域角度范围,角度转换单元将运动数据转换为隐形射线发射模块相应的角度信息,并将该信息发送给隐形射线发射模块;
角度转换主要将采集到的运动数据转换为隐形射线发射器相应的角度θ2和φ2,并将该信息发送给隐形射线发射模块,转换公式为:θ2=2×θ1
Figure BDA0001918485060000083
步骤六、隐形射线发射器则按计算得到的角度θ2和φ2发射射线,其与空间球体的碰撞点随AR眼镜佩戴者的头部运动变化而变化;
步骤七:判断碰撞点是否落在空间UI系统上,若碰撞点不在空间UI系统上,则返回步骤四;若碰撞点落在某空间UI系统上,则启动操作触发判断,当碰撞点停留时间超过1秒,则执行该空间UI系统对应操作,否则返回步骤四;
步骤八、AR眼镜佩戴者完成操作指令,返回步骤四;
如图5A,当启动本方法,AR眼镜佩戴者视野中出现碰撞点,当用户需要执行关闭操作时,AR眼镜佩戴者向右上角转动头部,碰撞点光圈随之移动。如图5B,当AR眼镜佩戴者将碰撞点光圈移动至关闭的空间UI系统上,并且停留超过1秒,则执行当前程序关系操作。

Claims (2)

1.一种基于头部追踪的AR眼镜控制系统,其特征在于:包括UI系统、人体头部追踪模块、操作触发判断模块和隐形射线发射模块;
所述UI系统用于在以AR眼镜佩戴者为中心的空间弧形面上显示控件;
所述人体头部追踪模块包括运动数据采集单元和角度转换单元;
所述操作触发判断模块包括UI系统触发判断单元和操作触发判断单元;
所述基于头部追踪的AR眼镜控制系统通过如下方法进行控制:
步骤一、建立空间球面UI系统;
UI系统为以AR眼镜佩戴者为中心的空间球体,包括第一空间(-45°,45°)、第二空间(45°,135°)、第三空间(135°,225°)和第四空间 (225°,315°),第一空间、第二空间、第三空间和第四空间具体为在垂直方向将空间球体等分的四个空间区域;
步骤一和步骤二之间还包括空间坐标标定步骤:
首次执行本方法时,需根据获得的运动数据信息进行空间坐标标定;首先判断AR眼镜佩戴者在水平面上的转动角度θ 1是否超出第一空间(-45°,45°)范围,若超出,则激活相应的空间区域及空间UI系统,当前空间区域及空间UI系统转入休眠状态;
步骤一和步骤二之间还包括初始化隐形射线发射模块步骤:
以空间球体中心建立空间直线坐标轴, x轴、y轴、z轴皆从球心穿过,其中x轴指向正南方向,隐形射线发射模块的初始发射角度为水平方向朝正北;
步骤二、运动数据采集单元采集记录AR眼镜佩戴者的头部运动数据,同时将该头部运动数据发送给角度转换单元;
步骤三、角度转换单元将头部运动数据转换为隐形射线发射模块相应的角度信息,并将该角度信息发送给隐形射线发射模块;
步骤四、隐形射线发射模块根据接收到的角度信息计算碰撞点;
步骤五、根据触碰点的位置以及停留时间判断是否执行对应操作;
所述UI系统触发判断单元根据碰撞点在空间弧形面上的位置坐标判断其是否落在空间控件上,若碰撞点不在空间控件上,则返回步骤二;若碰撞点落在空间控件上,则通过所述操作触发判断单元启动操作触发判断,当碰撞点停留时间超过设置时间时,则执行该空间控件对应操作,否则返回步骤二。
2.根据权利要求1所述的基于头部追踪的AR眼镜控制系统,其特征在于:所述运动数据采集单元为三轴陀螺仪传感器。
CN201811583427.3A 2018-12-24 2018-12-24 基于头部追踪的ar眼镜控制系统及控制方法 Active CN109634427B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811583427.3A CN109634427B (zh) 2018-12-24 2018-12-24 基于头部追踪的ar眼镜控制系统及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811583427.3A CN109634427B (zh) 2018-12-24 2018-12-24 基于头部追踪的ar眼镜控制系统及控制方法

Publications (2)

Publication Number Publication Date
CN109634427A CN109634427A (zh) 2019-04-16
CN109634427B true CN109634427B (zh) 2022-06-14

Family

ID=66076924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811583427.3A Active CN109634427B (zh) 2018-12-24 2018-12-24 基于头部追踪的ar眼镜控制系统及控制方法

Country Status (1)

Country Link
CN (1) CN109634427B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113589523B (zh) * 2021-07-06 2023-05-02 江西影创信息产业有限公司 一种具有高精度运动追踪定位功能的mr眼镜

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095111A (zh) * 2016-06-24 2016-11-09 北京奇思信息技术有限公司 根据用户眼部动作控制虚拟现实交互的方法
CN106454321A (zh) * 2016-10-26 2017-02-22 深圳市道通智能航空技术有限公司 全景视频的处理方法、装置及系统
CN106652972A (zh) * 2017-01-03 2017-05-10 京东方科技集团股份有限公司 显示屏的处理电路、显示方法及显示器件
CN106681506A (zh) * 2016-12-26 2017-05-17 惠州Tcl移动通信有限公司 一种终端设备中非vr应用的交互方法及终端设备
CN108169901A (zh) * 2017-12-27 2018-06-15 北京传嘉科技有限公司 Vr眼镜
CN109002167A (zh) * 2018-08-07 2018-12-14 浙江冰峰科技有限公司 眼球追踪模拟方法、装置及头戴显示设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016141373A1 (en) * 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
CN106527857A (zh) * 2016-10-10 2017-03-22 成都斯斐德科技有限公司 一种基于虚拟现实的全景视频交互方法
CN107357432A (zh) * 2017-07-18 2017-11-17 歌尔科技有限公司 基于vr的交互方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095111A (zh) * 2016-06-24 2016-11-09 北京奇思信息技术有限公司 根据用户眼部动作控制虚拟现实交互的方法
CN106454321A (zh) * 2016-10-26 2017-02-22 深圳市道通智能航空技术有限公司 全景视频的处理方法、装置及系统
CN106681506A (zh) * 2016-12-26 2017-05-17 惠州Tcl移动通信有限公司 一种终端设备中非vr应用的交互方法及终端设备
CN106652972A (zh) * 2017-01-03 2017-05-10 京东方科技集团股份有限公司 显示屏的处理电路、显示方法及显示器件
CN108169901A (zh) * 2017-12-27 2018-06-15 北京传嘉科技有限公司 Vr眼镜
CN109002167A (zh) * 2018-08-07 2018-12-14 浙江冰峰科技有限公司 眼球追踪模拟方法、装置及头戴显示设备

Also Published As

Publication number Publication date
CN109634427A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
US11086416B2 (en) Input device for use in an augmented/virtual reality environment
US11625103B2 (en) Integration of artificial reality interaction modes
EP3525033B1 (en) Device, method, and system of providing extended display with head mounted display
KR20230164185A (ko) 가상 및 그래픽 요소들을 제어하기 위한 매핑된 손 영역들 사이의 양손 상호 작용들
EP4327185A1 (en) Hand gestures for animating and controlling virtual and graphical elements
JP2022535316A (ja) スライドメニューを有する人工現実システム
JP7030854B2 (ja) 仮想現実システム内の仮想コントローラの位置および向きの追跡
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
US20230297176A1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an ar/vr environment
JP7316282B2 (ja) 拡張現実のためのシステムおよび方法
US11397478B1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
CN104637080B (zh) 一种基于人机交互的三维绘图系统及方法
Jay et al. Amplifying head movements with head-mounted displays
CN109634427B (zh) 基于头部追踪的ar眼镜控制系统及控制方法
JP2022518779A (ja) 6自由度の姿勢測定値における半球の曖昧性を解決するための方法およびシステム
Wright et al. Leap motion performance in an augmented reality workspace: Integrating devices with an interactive platform
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
WO2018074054A1 (ja) 表示制御装置、表示制御方法及びプログラム
US12130967B2 (en) Integration of artificial reality interaction modes
Schwald et al. Controlling virtual worlds using interaction spheres
WO2022014429A1 (ja) 情報処理方法、プログラム、及びシステム
Park et al. 3D Gesture-based view manipulator for large scale entity model review
Wright et al. Leap Motion Performance in an Augmented Reality Workspace
Nguyen 3DTouch: Towards a Wearable 3D Input Device for 3D Applications
CN118747039A (zh) 用于移动虚拟对象的方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant