CN111338476A - 通过头戴式vr显示设备实现人机交互的方法及装置 - Google Patents

通过头戴式vr显示设备实现人机交互的方法及装置 Download PDF

Info

Publication number
CN111338476A
CN111338476A CN202010115656.3A CN202010115656A CN111338476A CN 111338476 A CN111338476 A CN 111338476A CN 202010115656 A CN202010115656 A CN 202010115656A CN 111338476 A CN111338476 A CN 111338476A
Authority
CN
China
Prior art keywords
head
human
computer interaction
current
motion state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010115656.3A
Other languages
English (en)
Inventor
刘奎斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Weier Network Technology Co ltd
Original Assignee
Shanghai Weier Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Weier Network Technology Co ltd filed Critical Shanghai Weier Network Technology Co ltd
Priority to CN202010115656.3A priority Critical patent/CN111338476A/zh
Priority to PCT/CN2020/079454 priority patent/WO2021168922A1/zh
Publication of CN111338476A publication Critical patent/CN111338476A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供一种通过头戴式VR显示设备实现人机交互的方法及装置,包括:当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;基于当前的姿态数据,确定用户头部当前的运动状态;基于用户头部当前的运动状态,确定用户头部的组合动作;根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法及装置,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。

Description

通过头戴式VR显示设备实现人机交互的方法及装置
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种通过头戴式VR显示设备实现人机交互的方法及装置。
背景技术
所谓虚拟现实,顾名思义,就是虚拟和现实相互结合。从理论上来讲,虚拟现实技术(VR)是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,使用户沉浸到该环境中。虚拟现实技术就是利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象,这些现象可以是现实中真真切切的物体,也可以是我们肉眼所看不到的物质,通过三维模型表现出来。因为这些现象不是我们直接所能看到的,而是通过计算机技术模拟出来的现实中的世界,故称为虚拟现实。
常见的VR产品为头戴式VR显示设备,现有技术中,通常通过头戴式VR显示设备的姿态来控制VR场景或者其他设备,例如,通过相应的头部运动,可以实现VR场景在不同方向上移动,当用户头部往左转且用户点头时,表示用户想要控制VR场景的显示界面往左下方向移动。再例如,通过头戴式VR显示设备的姿态角控制无人机的吊舱姿态角度,用户左右摇头的角度对应吊舱的航向角,上下点头的角度对应吊舱的俯仰角。而针对VR场景中的人机交互,例如,对话框的操作控制,依然需要通过外部物理设备来实现,外部物理设备包括手柄、遥控器等,用户通过手动操作手柄或遥控器上的按钮、摇杆、触控板等实现向VR系统输入抽象控制指令。
但是,由于头戴式VR显示设备,需覆盖双眼,通过外部物理设备如手柄或遥控器操作VR系统,实现人机交互,不但用户操作不方便,而且各个VR设备的手柄和遥控器标准不统一,无法或很难在同一个VR应用中完全适配。
发明内容
本发明实施例提供一种通过头戴式VR显示设备实现人机交互的方法及装置,用于解决现有技术中的上述技术问题。
为了解决上述技术问题,一方面,本发明实施例提供一种通过头戴式VR显示设备实现人机交互的方法,包括:
当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
基于当前的姿态数据,确定用户头部当前的运动状态;
基于用户头部当前的运动状态,确定用户头部的组合动作;
根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
进一步地,所述基于当前的姿态数据,确定用户头部当前的运动状态,具体包括:
将当前的姿态数据与前一次采集的姿态数据做对比,确定对比结果;
根据所述对比结果和预设阈值的关系,确定用户头部当前的运动状态。
进一步地,所述运动状态的种类至少包括左转、右转、左摆、右摆、低头和抬头中的任一种。
进一步地,所述基于用户头部当前的运动状态,确定用户头部的组合动作,具体包括:
遍历当前采集到的运动状态记录及之后的若干条运动状态记录;
逐条对比预定义组合动作是否匹配当前记录,如果匹配,则记录一个组合动作。
进一步地,所述预定义组合动作的种类至少包括点头、摇头、左侧点击和右侧点击中的任一种。
进一步地,所述姿态数据至少包括朝向、水平角度和垂直倾角中的任一种。
进一步地,所述获取头戴式VR显示设备当前的姿态数据,具体包括:
通过头戴式VR显示设备的应用程序接口获取当前的姿态数据。
另一方面,本发明实施例提供一种通过头戴式VR显示设备实现人机交互的装置,包括:
获取模块,用于当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
运动状态识别模块,用于基于当前的姿态数据,确定用户头部当前的运动状态;
组合动作识别模块,用于基于用户头部当前的运动状态,确定用户头部的组合动作;
交互模块,用于根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
再一方面,本发明实施例提供一种电子设备,包括:存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述第一方面提供的方法的步骤。
又一方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述第一方面提供的方法的步骤。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法及装置,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
附图说明
图1为本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法示意图;
图2为本发明实施例提供的运动状态识别逻辑流程图;
图3为本发明实施例提供的组合动作识别逻辑流程图;
图4为本发明实施例提供的通过头戴式VR显示设备实现人机交互的装置示意图;
图5为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法示意图,如图1所示,本发明实施例提供一种通过头戴式VR显示设备实现人机交互的方法,其执行主体为通过头戴式VR显示设备实现人机交互的装置。该方法包括:
步骤S101、当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据。
具体来说,当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据。
例如,可以采集VR设备的姿态数据,包括朝向、水平角度、垂直倾角。其中,姿态数据由VR设备的应用程序接口API提供。
步骤S102、基于当前的姿态数据,确定用户头部当前的运动状态。
具体来说,在确定头戴式VR显示设备当前的姿态数据之后,基于当前的姿态数据,确定用户头部当前的运动状态。
例如,将当前的运动状态与前一次采集的数据做对比,如果某姿态数据发生变化超过阈值,则记录此变化为一条运动状态数据。运动状态的种类至少包括左转、右转、左摆、右摆、低头和抬头中的任一种。
步骤S103、基于用户头部当前的运动状态,确定用户头部的组合动作。
具体来说,在确定用户头部当前的运动状态之后,基于用户头部当前的运动状态,确定用户头部的组合动作。
例如,根据采集到的运动状态的运动记录,分析可能组合成的预定义动作,遍历已经采集到的运动记录,取当前记录及之后n条记录,逐条对比预定义动作是否匹配当前记录,如果匹配,则记录一个动作。预定义组合动作的种类至少包括点头、摇头、左侧点击和右侧点击中的任一种。
步骤S104、根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
具体来说,在识别出用户头部的组合动作之后,根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
例如,组合动作与抽象控制指令的匹配关系表如表1所示,组合动作“点头”表示的抽象控制指令为“确定”,组合动作“摇头”表示的抽象控制指令为“取消”等。
表1组合动作与抽象控制指令的匹配关系表
组合动作 抽象控制指令
点头 确定
摇头 取消
左侧点击 选择左侧选项
右侧点击 选择右侧选项
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述基于当前的姿态数据,确定用户头部当前的运动状态,具体包括:
将当前的姿态数据与前一次采集的姿态数据做对比,确定对比结果;
根据所述对比结果和预设阈值的关系,确定用户头部当前的运动状态。
具体来说,图2为本发明实施例提供的运动状态识别逻辑流程图,如图2所示,在本发明实施例中,基于当前的姿态数据,确定用户头部当前的运动状态的具体步骤如下:
首先,将当前的姿态数据与前一次采集的姿态数据做对比,确定对比结果。
然后,根据对比结果和预设阈值的关系,确定用户头部当前的运动状态。
例如:
①与前次相比,朝向发生变化,则记录左转或右转。
②与前次相比,水平角度变化,则记录左摆或右摆。
③与前次相比,垂直倾角发生变化,则记录低头或抬头。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述运动状态的种类至少包括左转、右转、左摆、右摆、低头和抬头中的任一种。
具体来说,在本发明实施例中,运动状态的种类至少包括左转、右转、左摆、右摆、低头和抬头中的任一种。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述基于用户头部当前的运动状态,确定用户头部的组合动作,具体包括:
遍历当前采集到的运动状态记录及之后的若干条运动状态记录;
逐条对比预定义组合动作是否匹配当前记录,如果匹配,则记录一个组合动作。
具体来说,图3为本发明实施例提供的组合动作识别逻辑流程图,如图3所示,在本发明实施例中,基于用户头部当前的运动状态,确定用户头部的组合动作的具体步骤如下:
首先,获取当前采集到的运动状态记录及之后的若干条运动状态记录,分析可能组合成的预定义动作。预定义组合动作是运动状态记录的组合。例如:
①定义:点头=低头+抬头
②定义:摇头A=左转+右转+左转
③定义:摇头B=右转+左转+右转
④定义:左侧点击=左摆+右摆
⑤定义:右侧点击=右摆+左摆
然后,遍历当前采集到的运动状态记录及之后的若干条运动状态记录,逐条对比预定义组合动作是否匹配当前记录,如果匹配,则记录一个组合动作。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述预定义组合动作的种类至少包括点头、摇头、左侧点击和右侧点击中的任一种。
具体来说,在本发明实施例中,预定义组合动作的种类至少包括点头、摇头、左侧点击和右侧点击中的任一种。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述姿态数据至少包括朝向、水平角度和垂直倾角中的任一种。
具体来说,在本发明实施例中,姿态数据至少包括朝向、水平角度和垂直倾角中的任一种。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,进一步地,所述获取头戴式VR显示设备当前的姿态数据,具体包括:
通过头戴式VR显示设备的应用程序接口获取当前的姿态数据。
具体来说,在本发明实施例中,获取头戴式VR显示设备当前的姿态数据的具体方式,可以通过头戴式VR显示设备的应用程序接口API获取当前的姿态数据。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的方法,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
基于上述任一实施例,图4为本发明实施例提供的通过头戴式VR显示设备实现人机交互的装置示意图,如图4所示,本发明实施例提供一种通过头戴式VR显示设备实现人机交互的装置,包括获取模块401、运动状态识别模块402、组合动作识别模块403和交互模块404,其中:
获取模块401用于当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;运动状态识别模块402用于基于当前的姿态数据,确定用户头部当前的运动状态;组合动作识别模块403用于基于用户头部当前的运动状态,确定用户头部的组合动作;交互模块404用于根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
本发明实施例提供一种通过头戴式VR显示设备实现人机交互的装置,用于执行上述任一实施例中所述的方法,通过本实施例提供的装置执行上述某一实施例中所述的方法的具体步骤与上述相应实施例相同,此处不再赘述。
本发明实施例提供的通过头戴式VR显示设备实现人机交互的装置,从软件上的实现人机交互,无需硬件改进,VR应用不再需要适配各个不同VR设备的物理控制设备,降低了VR应用适配难度,拓宽了VR应用适配VR设备的范围。
图5为本发明实施例提供的电子设备的结构示意图,如图5所示,该电子设备包括:处理器(processor)501、通信接口(Communications Interface)502、存储器(memory)503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。处理器501和存储器502通过总线503完成相互间的通信。处理器501可以调用存储器503中的逻辑指令,以执行如下方法:
当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
基于当前的姿态数据,确定用户头部当前的运动状态;
基于用户头部当前的运动状态,确定用户头部的组合动作;
根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明实施例提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例中的步骤,例如包括:
当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
基于当前的姿态数据,确定用户头部当前的运动状态;
基于用户头部当前的运动状态,确定用户头部的组合动作;
根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
进一步地,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述各方法实施例中的步骤,例如包括:
当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
基于当前的姿态数据,确定用户头部当前的运动状态;
基于用户头部当前的运动状态,确定用户头部的组合动作;
根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种通过头戴式VR显示设备实现人机交互的方法,其特征在于,包括:
当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
基于当前的姿态数据,确定用户头部当前的运动状态;
基于用户头部当前的运动状态,确定用户头部的组合动作;
根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
2.根据权利要求1所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述基于当前的姿态数据,确定用户头部当前的运动状态,具体包括:
将当前的姿态数据与前一次采集的姿态数据做对比,确定对比结果;
根据所述对比结果和预设阈值的关系,确定用户头部当前的运动状态。
3.根据权利要求2所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述运动状态的种类至少包括左转、右转、左摆、右摆、低头和抬头中的任一种。
4.根据权利要求1所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述基于用户头部当前的运动状态,确定用户头部的组合动作,具体包括:
遍历当前采集到的运动状态记录及之后的若干条运动状态记录;
逐条对比预定义组合动作是否匹配当前记录,如果匹配,则记录一个组合动作。
5.根据权利要求4所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述预定义组合动作的种类至少包括点头、摇头、左侧点击和右侧点击中的任一种。
6.根据权利要求1-5任一项所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述姿态数据至少包括朝向、水平角度和垂直倾角中的任一种。
7.根据权利要求1-5任一项所述的通过头戴式VR显示设备实现人机交互的方法,其特征在于,所述获取头戴式VR显示设备当前的姿态数据,具体包括:
通过头戴式VR显示设备的应用程序接口获取当前的姿态数据。
8.一种通过头戴式VR显示设备实现人机交互的装置,其特征在于,包括:
获取模块,用于当VR场景中显示人机交互界面时,获取头戴式VR显示设备当前的姿态数据;
运动状态识别模块,用于基于当前的姿态数据,确定用户头部当前的运动状态;
组合动作识别模块,用于基于用户头部当前的运动状态,确定用户头部的组合动作;
交互模块,用于根据用户的组合动作匹配抽象控制指令,以响应VR场景中显示的人机交互界面。
9.一种电子设备,包括存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1至7任一项所述通过头戴式VR显示设备实现人机交互的方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,当所述计算机程序被处理器执行时,实现如权利要求1至7任一所述通过头戴式VR显示设备实现人机交互的方法的步骤。
CN202010115656.3A 2020-02-25 2020-02-25 通过头戴式vr显示设备实现人机交互的方法及装置 Pending CN111338476A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010115656.3A CN111338476A (zh) 2020-02-25 2020-02-25 通过头戴式vr显示设备实现人机交互的方法及装置
PCT/CN2020/079454 WO2021168922A1 (zh) 2020-02-25 2020-03-16 通过头戴式vr显示设备实现人机交互的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010115656.3A CN111338476A (zh) 2020-02-25 2020-02-25 通过头戴式vr显示设备实现人机交互的方法及装置

Publications (1)

Publication Number Publication Date
CN111338476A true CN111338476A (zh) 2020-06-26

Family

ID=71181802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010115656.3A Pending CN111338476A (zh) 2020-02-25 2020-02-25 通过头戴式vr显示设备实现人机交互的方法及装置

Country Status (2)

Country Link
CN (1) CN111338476A (zh)
WO (1) WO2021168922A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200899A (zh) * 2016-06-24 2016-12-07 北京奇思信息技术有限公司 根据用户头部动作控制虚拟现实交互的方法及系统
CN106873767A (zh) * 2016-12-30 2017-06-20 深圳超多维科技有限公司 一种虚拟现实应用的运行控制方法和装置
CN107290972A (zh) * 2017-07-05 2017-10-24 三星电子(中国)研发中心 设备控制方法和装置
CN107807446A (zh) * 2017-11-13 2018-03-16 歌尔科技有限公司 头戴显示设备调节方法及头戴显示设备
CN107885318A (zh) * 2016-09-29 2018-04-06 西门子公司 一种虚拟环境交互方法、装置、系统及计算机可读介质
CN108268123A (zh) * 2016-12-30 2018-07-10 成都虚拟世界科技有限公司 基于头戴式显示设备的指令识别方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867613A (zh) * 2016-03-21 2016-08-17 乐视致新电子科技(天津)有限公司 基于虚拟现实系统的头控交互方法及装置
CN106200954B (zh) * 2016-07-06 2019-08-23 捷开通讯(深圳)有限公司 虚拟现实系统和虚拟现实眼镜的控制方法
CN106557170A (zh) * 2016-11-25 2017-04-05 三星电子(中国)研发中心 对虚拟现实设备上的图像进行缩放的方法及装置
US10482749B2 (en) * 2017-01-11 2019-11-19 Universal Entertainment Corporation Controlling electronic device alerts by operating head mounted display
CN108572719A (zh) * 2017-03-13 2018-09-25 北京杜朗自动化系统技术有限公司 利用体态识别的智能头盔控制方法及系统
CN107357432A (zh) * 2017-07-18 2017-11-17 歌尔科技有限公司 基于vr的交互方法及装置
CN110806797A (zh) * 2018-07-20 2020-02-18 北京君正集成电路股份有限公司 一种基于头部运动对游戏进行控制的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200899A (zh) * 2016-06-24 2016-12-07 北京奇思信息技术有限公司 根据用户头部动作控制虚拟现实交互的方法及系统
CN107885318A (zh) * 2016-09-29 2018-04-06 西门子公司 一种虚拟环境交互方法、装置、系统及计算机可读介质
CN106873767A (zh) * 2016-12-30 2017-06-20 深圳超多维科技有限公司 一种虚拟现实应用的运行控制方法和装置
CN108268123A (zh) * 2016-12-30 2018-07-10 成都虚拟世界科技有限公司 基于头戴式显示设备的指令识别方法及装置
CN107290972A (zh) * 2017-07-05 2017-10-24 三星电子(中国)研发中心 设备控制方法和装置
CN107807446A (zh) * 2017-11-13 2018-03-16 歌尔科技有限公司 头戴显示设备调节方法及头戴显示设备

Also Published As

Publication number Publication date
WO2021168922A1 (zh) 2021-09-02

Similar Documents

Publication Publication Date Title
JP2019535055A (ja) ジェスチャに基づく操作の実施
US20160188861A1 (en) User authentication system and method
CN109918975A (zh) 一种增强现实的处理方法、对象识别的方法及终端
WO2018063759A1 (en) Method and system for gesture-based interactions
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
CN110377053B (zh) 无人机的飞行控制方法和装置
CN104428732A (zh) 与近眼显示器的多模交互
DE102017119812A1 (de) Ziehen von virtuellen elementen einer erweiterten und/oder virtuellen realitätsumgebung
CN107656505A (zh) 使用增强现实设备控制人机协作的方法、装置和系统
CN102789313A (zh) 一种用户交互系统和方法
CN107562201A (zh) 定向交互方法、装置、电子设备及存储介质
CN110837294A (zh) 一种基于眼球追踪的面部表情控制方法及系统
CN113867531A (zh) 交互方法、装置、设备及计算机可读存储介质
CN112287795A (zh) 异常驾驶姿态检测方法、装置、设备、车辆和介质
CN105975072A (zh) 识别手势动作的方法、装置及系统
Chen et al. Online control programming algorithm for human–robot interaction system with a novel real-time human gesture recognition method
CN112083795A (zh) 对象控制方法及装置、存储介质和电子设备
CN109740511B (zh) 一种人脸表情匹配方法、装置、设备及存储介质
CN114398175A (zh) 智能交互系统及方法、电子设备、存储介质
CN111427456B (zh) 基于全息成像的实时交互方法、装置、设备及存储介质
CN111338476A (zh) 通过头戴式vr显示设备实现人机交互的方法及装置
CN110321009B (zh) Ar表情处理方法、装置、设备和存储介质
CN109461203B (zh) 手势三维图像生成方法、装置、计算机设备及存储介质
CN110908568B (zh) 一种虚拟对象的控制方法和装置
CN109144262B (zh) 一种基于眼动的人机交互方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200626

RJ01 Rejection of invention patent application after publication