CN107678539A - 用于头戴显示设备的显示方法及头戴显示设备 - Google Patents

用于头戴显示设备的显示方法及头戴显示设备 Download PDF

Info

Publication number
CN107678539A
CN107678539A CN201710801388.9A CN201710801388A CN107678539A CN 107678539 A CN107678539 A CN 107678539A CN 201710801388 A CN201710801388 A CN 201710801388A CN 107678539 A CN107678539 A CN 107678539A
Authority
CN
China
Prior art keywords
display device
data
angle
scene
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710801388.9A
Other languages
English (en)
Inventor
陈维亮
董碧峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN201710801388.9A priority Critical patent/CN107678539A/zh
Publication of CN107678539A publication Critical patent/CN107678539A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Abstract

本发明公开了一种用于头戴显示设备的显示方法及头戴显示设备,该显示方法包括:通过设置在头戴显示设备上的姿态传感器获取用户头部在设定时间段内的姿态数据;计算姿态数据在设定时间段内的变化量;判断变化量是否大于预先设定的阈值,如是,则切换头戴显示设备的显示场景。通过本发明的实施例,只有在设定时间段内的姿态数据变化超过阈值时,才将会根据姿态数据的变化情况进行场景切换,这就实现了场景切换过程中出现的过于敏感的情况。这样,在通过改变用户头部姿态来进行场景切换的同时,达到了防抖的效果。

Description

用于头戴显示设备的显示方法及头戴显示设备
技术领域
本发明涉及虚拟现实技术领域,更具体地,涉及一种用于头戴显示设备的显示方法及头戴显示设备。
背景技术
智能交互是如今一大热点,智能穿戴中的头戴显示设备也正在逐渐流行起来。传统的头戴显示设备中,场景转换时依靠头戴或者手柄上的光学定位实现的,光学定位最大的缺点是受到场地的限制,不能自由的移动。此时的头部完全处于一个被动的从属地位,不能模拟头部的主导地位,大大减少了用户的体验感觉。
现有的通过设置在头戴显示设备的姿态传感器进行场景转换时,为了固定转换后的场景,防止再转换回初始场景,用户在转动头部后不能再转回来,这就极大的影响了用户体验。
发明内容
本发明的一个目的是提供一种至少能够解决上述问题之一的新的技术方案。
根据本发明的第一方面,提供了一种用于头戴显示设备的显示方法,包括:
通过设置在头戴显示设备上的姿态传感器获取用户头部在设定时间段内的姿态数据;
计算所述姿态数据在所述设定时间段内的变化量;
判断所述变化量是否大于预先设定的阈值,如是,则:
切换所述头戴显示设备的显示场景。
可选的是,所述姿态传感器包括加速度传感器和磁力计,
其中,所述通过设置在头戴显示设备上的姿态传感器获取用户头部的在设定时间段内的姿态数据包括:
通过所述加速度传感器获取加速度数据;
通过所述磁力计获取磁场数据;
根据所述加速度数据和所述磁场数据计算得到姿态角数据,将所述姿态角数据作为所述姿态数据。
可选的是,所述姿态角数据包括航向角数据和俯仰角数据,
其中,所述计算所述姿态数据在所述设定时间段内的变化量包括:
计算所述航向角数据在所述设定时间段内的航向角变化量,计算所述俯仰角数据在所述设定时间段内的俯仰角变化量。
可选的是,所述判断所述变化量是否大于预先设定的阈值包括:判断所述航向角变化量是否大于预先设定的航向角阈值,和/或所述俯仰角变化量是否大于预先设定的俯仰角阈值。
可选的是,在所述航向角变化量大于预先设定的航向角阈值的情况下,将所述头戴显示设备显示的当前场景切换为第一方向的场景;在所述俯仰角变化量大于预先设定的俯仰角阈值的情况下,将所述头戴显示设备显示的当前场景切换为第二方向的场景。
可选的是,所述显示方法还包括:
通过设置在所述头戴显示设备上的摄像头采集用户的眼部图像;
根据所述眼部图像确定所述用户的眼球移动位移;
根据所述眼球移动位移移动所述显示场景中的焦点位置。
可选的是,所述根据所述眼部图像确定所述用户的眼球移动位移包括:
对所述眼部图像进行二值化处理,得到二值化眼部图像;
确定所述二值化眼部图像中的眼球中心位置和人眼中心位置;
根据所述眼球中心位置和所述人眼中心位置计算所述眼球移动位移。
可选的是,所述显示方法还包括:
根据所述眼部图像检测用户的当前眼部状态;
判断所述当前眼部状态是否为参考眼部状态,如是,则:
执行相应的功能操作。
根据本发明的第二方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使所述计算机执行根据本发明第一方面所述的显示方法。
根据本发明的第三方面,提供了一种头戴显示设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,所述处理器执行所述程序时实现根据本发明第一方面所述的显示方法。
本发明的一个有益效果在于,通过本发明的实施例,只有在设定时间段内的姿态数据变化超过阈值时,才将会根据姿态数据的变化情况进行场景切换。这样,在通过改变用户头部姿态来进行场景切换的同时,达到了防抖的效果。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1为根据本发明一种用于头戴显示设备的显示方法的一种实施方式的流程图;
图2为游戏场景的分割示意图;
图3为根据本发明一种用于头戴显示设备的显示方法的另一种实施方式的流程图;
图4为根据本发明一种用于头戴显示设备的显示方法的再一种实施方式的流程图;
图5为根据本发明一种头戴显示设备的一种实施结构的方框原理图;
图6为二值化眼部图像中眼球中心位置的坐标示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
为了解决现有技术中存在的头戴显示设备在用户转头进行场景切换时,用户为了固定该场景无法回转头部的问题,提供了一种用于头戴显示设备的场景切换方法。
图1为根据本发明一种用于头戴显示设备的显示方法的一种实施方式的流程图。
根据图1所示,该显示方法包括以下步骤:
步骤S110,通过设置在头戴显示设备上的姿态传感器获取用户头部在设定时间段内的姿态数据。
其中,设定时间段为预先设定的固定时长,可以是用户设定,例如可以但不限于为1s。
在本发明的一个具体实施例中,姿态传感器可以包括加速度传感器和磁力计。那么,该步骤S110则具体包括以下步骤S111~S113:
步骤S111,通过加速度传感器获取加速度数据。
步骤S112,通过磁力计获取磁场数据。
步骤S113,根据加速度数据和磁场数据计算得到姿态角数据,将该姿态角数据作为姿态数据。
具体的,加速度传感器和磁力计采集数据的频率和时刻是相同的。且加速度数据和磁场数据为对应同一直角坐标系的三维数据,该直角坐标系包括相互正交的三个坐标轴。
例如,加速度数据对应三个坐标轴的分量分别为Gx1、Gy1、Gz1,磁场数据对应三个坐标轴的分量分别为Mx1、My1、Mz1,姿态角数据对应三个坐标轴的分量分别为俯仰角数据、翻滚角数据和航向角数据,分别记作为α、β、γ。
基于下列公式一,可以计算得到俯仰角数据α。
其中,g为重力加速度。
基于下列公式二,可以计算得到翻滚角数据β。
基于下列公式三,可以计算得到航向角数据γ。
在本发明的另一个具体实施例中,姿态传感器包括陀螺仪。
陀螺仪采集到的为角速度数据,角速度数据也包括对应三个坐标轴的角速度分量,对每一角速度分量进行积分运算,就能够得到对应三个坐标轴的角度分量,即航向角数据、俯仰角数据和翻滚角数据,这样,就得到了姿态数据。
步骤S120,计算姿态数据在设定时间段内的变化量。
具体的,包括计算航向角数据在设定时间段内的航向角变化量,计算俯仰角数据在设定时间段内的俯仰角变化量。
在本发明的实施例中,航向角数据可以反映用户头部左右摆动的角度,俯仰角可以反映用户头部上下摆动的角度,因此,至少需计算出航向角数据和俯仰角数据在设定时间段内的变化情况。
进一步地,航向角数据在设定时间段内的航向角变化量可以为在设定时间段内的航向角的最大值和最小值的差,也可以为在设定时间段内最后采集的航向角和最先采集的航向角的差的绝对值。
在进一步地,俯仰角数据在设定时间段内的俯仰角变化量可以为在设定时间段内的俯仰角的最大值和最小值的差,也可以为在设定时间段内最后采集的俯仰角和最先采集的俯仰角的差的绝对值。
步骤S130,判断变化量是否大于预先设定的阈值,如是,则执行步骤S140;如否,则继续执行步骤S110。
具体的,可以是判断航向角变化量是否大于预先设定的航向角阈值,和/或俯仰角变化量是否大于预先设定的俯仰角阈值。在至少一个变化量大于对应的阈值的情况下,均执行步骤S140。在航向角变化量小于或等于航向角阈值、且俯仰角变化量小于或等于俯仰角阈值的情况下,无需切换显示场景,继续执行步骤S110。
步骤S140,切换头戴显示设备的显示场景。
具体的,可以是在航向角变化量大于航向角阈值的情况下,将头戴显示设备显示的当前场景切换为第一方向上的场景;在俯仰角变化量大于俯仰角阈值的情况下,将头戴显示设备的当前场景切换为第二方向上的场景。
进一步地,如果航向角变化量大于航向角阈值、且俯仰角变化量大于俯仰角阈值,则可以将头戴显示设备的当前场景切换为第三方向上的场景。
在本发明的一个具体实施例中,游戏的场景可以是按照如图2所示的形式进行分割的,例如,头戴显示设备显示的当前场景为当前场景33,那么,如果航向角变化量大于航向角阈值,可以将将头戴显示设备的显示场景由当前场景33切换为当前场景33的左侧场景32或右侧场景34。在此基础上,可以是在设定时间段内航向角数据减小时,将头戴显示设备的显示场景切换为左侧场景32;在设定时间段内航向角数据增大时,将头戴显示设备的显示场景切换为右侧场景34。如果俯仰角变化量大于俯仰角阈值,将头戴显示设备显示的显示场景由当前场景33切换为当前场景33的上侧场景23或者下侧场景43。在此基础上,可以是在设定时间段内俯仰角数据减小时,将头戴显示设备的显示场景切换为上侧场景23,在设定时间段内俯仰角数据增大时,将头戴显示设备的显示场景切换为下侧场景43。如果航向角变化量大于航向角阈值、且俯仰角变化量大于俯仰角阈值,则将头戴显示设备的显示场景由当前场景33切换为左上侧场景22、右上侧场景24、左下侧场景42、或者右下侧场景44。在此基础上,可以是在设定时间段内航向角数据减小、且俯仰角数据增大时,将头戴显示设备的显示场景切换为左上侧场景22;在设定时间段内航向角数据增大、且俯仰角数据增大时,将头戴显示设备的显示场景切换为右上侧场景24;在设定时间段内航向角数据减小、且俯仰角数据减小时,将头戴显示设备的显示场景切换为左下侧场景42;在设定时间段内航向角数据增大、且俯仰角数据减小时,将头戴显示设备的显示场景切换为右下侧场景44。
通过本发明的场景切换方法,只有在设定时间段内的姿态数据未超过阈值,即变化较大或者变化较慢,将会根据姿态数据的变化情况进行场景切换。如果设定时间段内的姿态数据超过阈值,即变化小或者变化慢,头戴显示设备的显示场景不切换,这就实现了场景切换过程中出现的过于敏感的情况,这样,在通过改变用户头部姿态来进行场景切换的同时,达到了防抖的效果。
在本发明的一个具体实施例中,当场景切换为目标场景后,可以根据用户的眼部移动来移动焦点,根据用户的眼部状态来实现相应的控制。例如,可以根据用户眼球的上下左右移动,来移动游戏中的枪的射击点,然后根据闭眼的图像识别,实现射击的操作。
具体的,可以在执行完步骤S140之后,还可以包括如图3所示的步骤S310~S330:
步骤S310,通过设置在头戴显示设备上的摄像头采集用户的眼部图像。
该摄像头例如可以是微型高频摄像头,也可以是红外摄像头。
步骤S320,根据眼部图像确定用户的眼球移动位移。
该步骤S320还进一步包括如图4所示的步骤S321~S323:
步骤S321,对眼部图像进行二值化处理,得到二值化眼部图像。
因为用于采集眼部图像的微型高频摄像头采集到的眼部图像除了人眼还包含其他边缘部分,所以首先需要用Otsu算法(大津法或最大类间方差法)进行最佳全局阈值的处理,使图像的差别最大化,这是一个比较常用的方法,本算法在此不再赘述。
步骤S322,确定二值化眼部图像中的眼球中心位置和人眼中心位置。
经过二值化处理后,可以将人眼与周围非人眼部分区别出来了。然后就可以进行人眼的目标检测。对人眼的目标检测比较容易,因为人眼的轮廓即人眼的黑眼球都是比较容易与其他部分进行区分的。
例如可以以二值化眼部图像中人的眼睛(不是眼球)总体的中心位置为原点建立平面直角坐标系。由于用户在佩戴该头戴显示设备的过程中,头戴显示设备与用户的眼睛之间的相对位移为零,即在用户佩戴头戴显示设备的过程中,每帧二值化眼部图像中人眼位置是固定不变的。因此,用户的眼睛的中心位置(即人眼中心位置)可以是只在该用户佩戴该头戴显示设备之后,根据第一次采集的眼部图像进行二值化处理后确定的,可以无需确定每帧二值化眼部图像中的人眼中心位置。那么,后续的眼球运动都是基于此坐标系,相对于坐标原点的运动。
步骤S323,根据眼球中心位置和人眼中心位置计算眼球移动位移。
图6中的点S,为某时刻眼球的中心位置(通过连通域算法,求得刻画人眼球的点,将这些点的坐标取平均值),于是可以得到点S相对于坐标原点(即人眼中心位置)在X轴方向上的位移Dx和在Y轴方向上的位移Dy。此处的Dy正负值在坐标上表现即为眼球向上或向下运动,Dx的正负值在坐标上表现即为眼球的向左或向右运动。
步骤S330,根据眼球移动位移移动显示场景中的焦点位置。
具体的,焦点例如可以是游戏场景中的射击点。这样,根据本实施例的方法,就可以在切换当前显示场景之后,通过移动眼球来移动当前显示场景中枪的射击点,进行瞄准操作。
进一步地,该显示方法还包括:
根据摄像头采集的眼部图像检测用户的眼部状态,并判断当前眼部状态是否为参考眼部状态,如是,则执行相应的功能操作。
其中,参考眼部状态例如可以为闭眼;相应的功能操作例如可以为射击。
具体的,例如可以是在预定时间段内的采集的所有眼部图像中,未检测到眼球的图像数量超过预先设定的阈值时,则可以认为用户闭眼,此时则进行游戏场景中的射击操作。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于使计算机执行根据前述的用于头戴显示设备的显示方法。
本发明还提供了一种头戴显示设备,图5为根据本发明该头戴显示设备的一种实施结构的方框原理图。
根据图5所示,该头戴显示设备100包括存储器106、处理器107及存储在存储器106上并在处理器107上运行的计算机程序,处理器107执行该程序时实现上述的用于头戴显示设备的显示方法。
本发明一些实施例提供的头戴显示设备可以为外接式头戴显示设备或者一体式头戴显示设备,其中外接式头戴显示设备需要与外部处理系统(例如计算机处理系统)配合使用。
存储器106是配置为具有固态驱动器(SSD)等的大容量存储设备。一些实施例中,存储器106可以存储计算机程序或各种类型的数据。例如,用户使用头戴显示设备100观看的内容可以存储在存储器106中。
处理器107可以包括计算机处理单元(CPU)或者其他具有类似功能的设备。一些实施例中,处理器107可以用于执行存储器106存储的计算机程序,或者处理器107还可以用于执行本申请一些实施例公开的方法、功能和操作的电路。
除此之外,根据图5所示,该头戴显示设备100还包括显示单元101、虚拟图像光学单元102、输入操作单元103、状态信息获取单元104、通信单元105、图像处理单元108、显示驱动单元109、外部相机110、声音处理单元111和声音输入/输出单元112等等。尽管在图5中示出了多个单元,但是,本发明头戴显示设备可以仅涉及其中的部分单元,例如,处理器107、存储器106和显示单元101等。
显示单元101可以包括显示面板,显示面板设置在头戴显示设备100上面向用户面部的侧表面,可以为一整块面板、或者为分别对应用户左眼和右眼的左面板和右面板。显示面板可以为电致发光(EL)元件、触摸显示屏、液晶显示器或具有类似结构的微型显示器、或者视网膜可直接显示或类似的激光扫描式显示器。
虚拟图像光学单元102以放大方式拍摄显示单元101所显示的图像,并允许用户按放大的虚拟图像观察所显示的图像。作为输出到显示单元101上的显示图像,可以是从内容再现设备(蓝光光碟或DVD播放器)或流媒体服务器提供的虚拟场景的图像、或者使用外部相机110拍摄的现实场景的图像。一些实施例中,虚拟图像光学单元102可以包括透镜单元,例如球面透镜、非球面透镜、菲涅尔透镜等。
输入操作单元103包括至少一个用来执行输入操作的操作部件,例如按键、按钮、开关或者触摸屏等其他具有类似功能的部件,通过操作部件接收用户指令,并且向控制单元107输出指令。
状态信息获取单元104用于获取穿戴头戴显示设备100的用户的状态信息。状态信息获取单元104可以包括各种类型的传感器,用于自身检测状态信息,并可以通过通信单元105从外部设备(例如智能手机、腕表和用户穿戴的其它多功能终端)获取状态信息。状态信息获取单元104可以获取用户的头部的位置信息和/或姿态信息。状态信息获取单元104可以包括陀螺仪传感器、加速度传感器、全球定位系统(GPS)传感器、地磁传感器、多普勒效应传感器、红外传感器、射频场强度传感器中的一个或者多个。此外,状态信息获取单元104获取穿戴头戴显示设备100的用户的状态信息,例如获取例如用户的操作状态(用户是否穿戴头戴显示设备100)、用户的动作状态(诸如静止、行走、跑动和诸如此类的移动状态,手或指尖的姿势、眼睛的开或闭状态、视线方向、瞳孔尺寸)、精神状态(用户是否沉浸在观察所显示的图像以及诸如此类的),甚至生理状态。
通信单元105执行与外部装置的通信处理、调制和解调处理、以及通信信号的编码和解码处理。另外,控制单元107可以从通信单元105向外部装置发送传输数据。通信方式可以是有线或者无线形式,例如移动高清链接(MHL)或通用串行总线(USB)、高清多媒体接口(HDMI)、无线保真(Wi-Fi)、蓝牙通信或低功耗蓝牙通信,以及IEEE802.11s标准的网状网络等。另外,通信单元105可以是根据宽带码分多址(W-CDMA)、长期演进(LTE)和类似标准操作的蜂窝无线收发器。
图像处理单元108用于执行信号处理,比如与从控制单元107输出的图像信号相关的图像质量校正,以及将其分辨率转换为根据显示单元101的屏幕的分辨率。然后,显示驱动单元109依次选择显示单元101的每行像素,并逐行依次扫描显示单元101的每行像素,因而提供基于经信号处理的图像信号的像素信号。
一些实施例中,头戴显示设备100还可以包括外部相机110。外部相机110可以设置在头戴显示设备100主体前表面,外部相机110可以为一个或者多个。外部相机110可以获取三维信息,并且也可以用作距离传感器。另外,探测来自物体的反射信号的位置灵敏探测器(PSD)或者其他类型的距离传感器可以与外部相机110一起使用。外部相机110和距离传感器可以用于检测穿戴头戴显示设备100的用户的身体位置、姿态和形状。另外,一定条件下用户可以通过外部相机110直接观看或者预览现实场景。
一些实施例中,头戴显示设备100还可以包括声音处理单元,声音处理单元111可以执行从控制单元107输出的声音信号的声音质量校正或声音放大,以及输入声音信号的信号处理等。然后,声音输入/输出单元112在声音处理后向外部输出声音以及输入来自麦克风的声音。
需要说明的是,图5中虚线框示出的结构或部件可以独立于头戴显示设备100之外,例如可以设置在外部处理系统(例如计算机系统)中与头戴显示设备100配合使用;或者,虚线框示出的结构或部件可以设置在头戴显示设备100内部或者表面上。
上述各实施例主要重点描述与其他实施例的不同之处,但本领域技术人员应当清楚的是,上述各实施例可以根据需要单独使用或者相互结合使用。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分相互参见即可,每个实施例重点说明的都是与其他实施例的不同之处,但本领域技术人员应当清楚的是,上述各实施例可以根据需要单独使用或者相互结合使用。另外,对于装置实施例而言,由于其是与方法实施例相对应,所以描述得比较简单,相关之处参见方法实施例的对应部分的说明即可。以上所描述的系统实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的。
本发明可以是装置、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边界服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。

Claims (10)

1.一种用于头戴显示设备的显示方法,其特征在于,包括:
通过设置在头戴显示设备上的姿态传感器获取用户头部在设定时间段内的姿态数据;
计算所述姿态数据在所述设定时间段内的变化量;
判断所述变化量是否大于预先设定的阈值,如是,则:
切换所述头戴显示设备的显示场景。
2.根据权利要求1所述的显示方法,其特征在于,所述姿态传感器包括加速度传感器和磁力计,
其中,所述通过设置在头戴显示设备上的姿态传感器获取用户头部的在设定时间段内的姿态数据包括:
通过所述加速度传感器获取加速度数据;
通过所述磁力计获取磁场数据;
根据所述加速度数据和所述磁场数据计算得到姿态角数据,将所述姿态角数据作为所述姿态数据。
3.根据权利要求2所述的显示方法,其特征在于,所述姿态角数据包括航向角数据和俯仰角数据,
其中,所述计算所述姿态数据在所述设定时间段内的变化量包括:
计算所述航向角数据在所述设定时间段内的航向角变化量,计算所述俯仰角数据在所述设定时间段内的俯仰角变化量。
4.根据权利要求3所述的显示方法,其特征在于,所述判断所述变化量是否大于预先设定的阈值包括:判断所述航向角变化量是否大于预先设定的航向角阈值,和/或所述俯仰角变化量是否大于预先设定的俯仰角阈值。
5.根据权利要求4所述的显示方法,其特征在于,在所述航向角变化量大于预先设定的航向角阈值的情况下,将所述头戴显示设备显示的当前场景切换为第一方向的场景;在所述俯仰角变化量大于预先设定的俯仰角阈值的情况下,将所述头戴显示设备显示的当前场景切换为第二方向的场景。
6.根据权利要求1所述的显示方法,其特征在于,所述显示方法还包括:
通过设置在所述头戴显示设备上的摄像头采集用户的眼部图像;
根据所述眼部图像确定所述用户的眼球移动位移;
根据所述眼球移动位移移动所述显示场景中的焦点位置。
7.根据权利要求6所述的显示方法,其特征在于,所述根据所述眼部图像确定所述用户的眼球移动位移包括:
对所述眼部图像进行二值化处理,得到二值化眼部图像;
确定所述二值化眼部图像中的眼球中心位置和人眼中心位置;
根据所述眼球中心位置和所述人眼中心位置计算所述眼球移动位移。
8.根据权利要求7所述的显示方法,其特征在于,所述显示方法还包括:
根据所述眼部图像检测用户的当前眼部状态;
判断所述当前眼部状态是否为参考眼部状态,如是,则:
执行相应的功能操作。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使所述计算机执行权利要求1至8中任一项所述的显示方法。
10.一种头戴显示设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现根据权利要求1-8中任一项所述的显示方法。
CN201710801388.9A 2017-09-07 2017-09-07 用于头戴显示设备的显示方法及头戴显示设备 Pending CN107678539A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710801388.9A CN107678539A (zh) 2017-09-07 2017-09-07 用于头戴显示设备的显示方法及头戴显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710801388.9A CN107678539A (zh) 2017-09-07 2017-09-07 用于头戴显示设备的显示方法及头戴显示设备

Publications (1)

Publication Number Publication Date
CN107678539A true CN107678539A (zh) 2018-02-09

Family

ID=61136079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710801388.9A Pending CN107678539A (zh) 2017-09-07 2017-09-07 用于头戴显示设备的显示方法及头戴显示设备

Country Status (1)

Country Link
CN (1) CN107678539A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109188699A (zh) * 2018-10-27 2019-01-11 歌尔科技有限公司 头戴显示器
CN109387205A (zh) * 2018-11-30 2019-02-26 歌尔科技有限公司 获取姿态角变化幅度方法、设备及存储介质
CN109696962A (zh) * 2019-01-15 2019-04-30 京东方科技集团股份有限公司 头戴式虚拟现实设备
CN110975277A (zh) * 2019-12-18 2020-04-10 网易(杭州)网络有限公司 增强现实游戏中信息处理的方法及装置、介质及电子设备
CN111267130A (zh) * 2020-03-02 2020-06-12 拉玛机器人(上海)有限公司 一种可穿戴式口型捕捉设备及其使用方法
CN111643887A (zh) * 2020-06-08 2020-09-11 歌尔科技有限公司 头戴设备及其数据处理方法、计算机可读存储介质
CN113741749A (zh) * 2021-08-27 2021-12-03 北京字节跳动网络技术有限公司 光标位置更新方法、装置和电子设备
CN114302214A (zh) * 2021-01-18 2022-04-08 海信视像科技股份有限公司 一种虚拟现实设备及防抖动录屏方法
CN114599581A (zh) * 2019-12-13 2022-06-07 深圳市大疆创新科技有限公司 确定装置、飞行体、确定方法以及程序
WO2022142331A1 (zh) * 2020-12-31 2022-07-07 上海商汤临港智能科技有限公司 车载显示屏的控制方法及装置、电子设备和存储介质
WO2022151864A1 (zh) * 2021-01-18 2022-07-21 海信视像科技股份有限公司 虚拟现实设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050044A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display with biological state detection
CN104407766A (zh) * 2014-08-28 2015-03-11 联想(北京)有限公司 一种信息处理方法和穿戴式电子设备
CN106200899A (zh) * 2016-06-24 2016-12-07 北京奇思信息技术有限公司 根据用户头部动作控制虚拟现实交互的方法及系统
CN106227352A (zh) * 2016-07-28 2016-12-14 北京国承万通信息科技有限公司 虚拟现实场景呈现方法及系统
WO2017015968A1 (zh) * 2015-07-30 2017-02-02 深圳市柔宇科技有限公司 头戴电子装置
CN106445157A (zh) * 2016-09-30 2017-02-22 珠海市魅族科技有限公司 一种画面显示方向调整的方法以及装置
CN106527709A (zh) * 2016-10-28 2017-03-22 惠州Tcl移动通信有限公司 一种虚拟场景调整方法及头戴式智能设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050044A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display with biological state detection
CN104407766A (zh) * 2014-08-28 2015-03-11 联想(北京)有限公司 一种信息处理方法和穿戴式电子设备
WO2017015968A1 (zh) * 2015-07-30 2017-02-02 深圳市柔宇科技有限公司 头戴电子装置
CN106200899A (zh) * 2016-06-24 2016-12-07 北京奇思信息技术有限公司 根据用户头部动作控制虚拟现实交互的方法及系统
CN106227352A (zh) * 2016-07-28 2016-12-14 北京国承万通信息科技有限公司 虚拟现实场景呈现方法及系统
CN106445157A (zh) * 2016-09-30 2017-02-22 珠海市魅族科技有限公司 一种画面显示方向调整的方法以及装置
CN106527709A (zh) * 2016-10-28 2017-03-22 惠州Tcl移动通信有限公司 一种虚拟场景调整方法及头戴式智能设备

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109188699A (zh) * 2018-10-27 2019-01-11 歌尔科技有限公司 头戴显示器
CN109387205A (zh) * 2018-11-30 2019-02-26 歌尔科技有限公司 获取姿态角变化幅度方法、设备及存储介质
CN109696962A (zh) * 2019-01-15 2019-04-30 京东方科技集团股份有限公司 头戴式虚拟现实设备
CN114599581A (zh) * 2019-12-13 2022-06-07 深圳市大疆创新科技有限公司 确定装置、飞行体、确定方法以及程序
CN110975277A (zh) * 2019-12-18 2020-04-10 网易(杭州)网络有限公司 增强现实游戏中信息处理的方法及装置、介质及电子设备
CN110975277B (zh) * 2019-12-18 2024-01-12 网易(杭州)网络有限公司 增强现实游戏中信息处理的方法及装置、介质及电子设备
CN111267130A (zh) * 2020-03-02 2020-06-12 拉玛机器人(上海)有限公司 一种可穿戴式口型捕捉设备及其使用方法
CN111643887A (zh) * 2020-06-08 2020-09-11 歌尔科技有限公司 头戴设备及其数据处理方法、计算机可读存储介质
CN111643887B (zh) * 2020-06-08 2023-07-14 歌尔科技有限公司 头戴设备及其数据处理方法、计算机可读存储介质
WO2022142331A1 (zh) * 2020-12-31 2022-07-07 上海商汤临港智能科技有限公司 车载显示屏的控制方法及装置、电子设备和存储介质
WO2022151864A1 (zh) * 2021-01-18 2022-07-21 海信视像科技股份有限公司 虚拟现实设备
CN114302214A (zh) * 2021-01-18 2022-04-08 海信视像科技股份有限公司 一种虚拟现实设备及防抖动录屏方法
CN113741749A (zh) * 2021-08-27 2021-12-03 北京字节跳动网络技术有限公司 光标位置更新方法、装置和电子设备

Similar Documents

Publication Publication Date Title
CN107678539A (zh) 用于头戴显示设备的显示方法及头戴显示设备
KR102544062B1 (ko) 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
US10733783B2 (en) Motion smoothing for re-projected frames
JP6632443B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
CN108762492B (zh) 基于虚拟场景实现信息处理的方法、装置、设备及存储介质
US20180081434A1 (en) Eye and Head Tracking
AU2013200807B2 (en) Method and portable terminal for correcting gaze direction of user in image
JP6720341B2 (ja) バーチャルリアリティデバイス及びそのコンテンツの調整方法
US10482670B2 (en) Method for reproducing object in 3D scene and virtual reality head-mounted device
CN109453517B (zh) 虚拟角色控制方法和装置、存储介质、移动终端
CN107610044A (zh) 图像处理方法、计算机可读存储介质及虚拟现实头戴设备
CN108124150B (zh) 虚拟现实头戴显示设备及通过其观察真实场景的方法
CN109002164A (zh) 头戴显示设备的显示方法、装置及头戴显示设备
CN109002248B (zh) Vr场景截图方法、设备及存储介质
KR20220070485A (ko) 자동화된 비디오 캡처 및 합성 시스템
CN107678546A (zh) 虚拟场景切换方法及头戴显示设备
CN108108018A (zh) 基于虚拟现实的指挥训练方法、设备及系统
US11477433B2 (en) Information processor, information processing method, and program
WO2019061466A1 (zh) 一种飞行控制方法、遥控装置、遥控系统
US11113379B2 (en) Unlocking method and virtual reality device
CN109408011B (zh) 头戴显示设备的显示方法、装置及设备
CN107945100A (zh) 虚拟现实场景的展示方法、虚拟现实设备及系统
CN107844197A (zh) 虚拟现实场景显示方法及设备
CN108965859B (zh) 投影方式识别方法、视频播放方法、装置及电子设备
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180209