CN112462937B - 虚拟现实设备的局部透视方法、装置及虚拟现实设备 - Google Patents
虚拟现实设备的局部透视方法、装置及虚拟现实设备 Download PDFInfo
- Publication number
- CN112462937B CN112462937B CN202011319048.0A CN202011319048A CN112462937B CN 112462937 B CN112462937 B CN 112462937B CN 202011319048 A CN202011319048 A CN 202011319048A CN 112462937 B CN112462937 B CN 112462937B
- Authority
- CN
- China
- Prior art keywords
- hand
- user
- local perspective
- display area
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000009471 action Effects 0.000 claims abstract description 105
- 230000033001 locomotion Effects 0.000 claims description 76
- 230000006870 function Effects 0.000 claims description 57
- 210000003813 thumb Anatomy 0.000 claims description 23
- 210000003811 finger Anatomy 0.000 claims description 20
- 210000004247 hand Anatomy 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 10
- 210000005224 forefinger Anatomy 0.000 claims description 8
- 239000011521 glass Substances 0.000 description 25
- 238000010586 diagram Methods 0.000 description 20
- 238000004590 computer program Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000004936 left thumb Anatomy 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000004935 right thumb Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000003651 drinking water Substances 0.000 description 1
- 235000020188 drinking water Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种虚拟现实设备的局部透视方法、装置及虚拟现实设备。所述方法包括:识别用户的手部动作;若用户的所述手部动作满足预设触发动作,则触发所述虚拟现实设备的局部透视功能;在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域,以在所述局部透视显示区域显示现实场景。本申请的虚拟现实设备的局部透视方法可以结合用户的手部动作确定要透视显示的区域范围,相比于传统的全局透视方案,可以适用于更多更丰富的使用场景,同时可以大大提高用户的使用体验。
Description
技术领域
本申请涉及虚拟现实技术领域,具体涉及一种虚拟现实设备的局部透视方法、装置及虚拟现实设备。
背景技术
虚拟现实眼镜(简称“VR眼镜”)是一种全沉浸式的体验设备,因此在使用过程中,无法关注到外界的信息。但是在实际使用过程中,用户经常会遇到需要短时间了解外界信息的情况。比如喝水、操作手机、跟人沟通等情况。
现有技术中的VR眼镜,一般都有基于摄像头的透视功能。但是目前的透视功能,都是将全部视野进行透视显示,用户在透视模式下,完全看不到虚拟场景的内容,眼前只有外部的现实世界景象,尤其在观影等场景下,这种全部切换的方式,会大大影响用户体验。
发明内容
有鉴于此,本申请的主要目的在于提供了一种虚拟现实设备的局部透视方法、装置及虚拟现实设备,用于解决现有的虚拟现实设备的透视方法导致用户体验较差的技术问题。
依据本申请的第一方面,提供了一种虚拟现实设备的局部透视方法,包括:
识别用户的手部动作;
若用户的所述手部动作满足预设触发动作,则触发所述虚拟现实设备的局部透视功能;
在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域,以在所述局部透视显示区域显示现实场景。
依据本申请的第二方面,提供了一种虚拟现实设备的局部透视装置,包括:
手部动作识别单元,用于识别用户的手部动作;
局部透视功能触发单元,用于若用户的所述手部动作满足预设触发动作,则触发所述虚拟现实设备的局部透视功能;
局部透视显示区域确定单元,用于在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域,以在所述局部透视显示区域显示现实场景。
依据本申请的第三方面,提供了一种虚拟现实设备,包括:处理器,存储计算机可执行指令的存储器,
所述可执行指令在被所述处理器执行时,实现前述虚拟现实设备的局部透视方法。
依据本申请的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现前述的虚拟现实设备的局部透视方法。
本申请的有益效果是:本申请实施例的虚拟现实设备的局部透视方法,先对用户的手部动作进行识别,然后将用户的手部动作与预设触发动作进行比较,进而可以确定用户是否想要触发虚拟现实设备的局部透视功能;如果用户的手部动作与预设触发动作相匹配,则可以触发虚拟现实设备的局部透视功能;之后在该局部透视功能下,可以进一步根据用户的手部动作所对应的位置确定在虚拟场景中所要进行局部透视显示的区域范围,进而使得用户可以透过该局部透视显示区域进行现实场景下的相应操作,同时又不会打断用户对于虚拟场景的沉浸式体验。本申请实施例的虚拟现实设备的局部透视方法可以结合用户的手部动作确定要透视显示的区域范围,相比于传统的全局透视方案,可以适用于更多更丰富的使用场景,同时可以大大提高用户的使用体验。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请一个实施例的虚拟现实设备的局部透视方法的流程图;
图2为本申请一个实施例的虚拟现实设备的佩戴状态示意图;
图3为本申请一个实施例的虚拟场景中的局部透视显示区域示意图;
图4为本申请一个实施例的单手触发动作的示意图;
图5为本申请一个实施例的虚拟场景中的圆形透视显示区域示意图;
图6为本申请一个实施例的双手触发动作的示意图;
图7为本申请一个实施例的虚拟场景中的三角形透视显示区域示意图;
图8为本申请一个实施例的预设关闭动作的示意图;
图9为本申请一个实施例的虚拟现实设备的局部透视装置的框图;
图10为本申请一个实施例中虚拟现实设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,使用户沉浸到该环境中。虚拟现实技术利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象,这些现象可以是现实中真真切切的物体,也可以是我们肉眼所看不到的物质,通过三维模型表现出来。本申请的虚拟现实设备可以是指VR眼镜,VR眼镜是利用头戴式显示设备将人对外界的视觉、听觉封闭,引导用户产生一种身在虚拟环境中的感觉,其显示原理是左右眼屏幕分别显示左右眼的图像,人眼获取这种带有差异的信息后在脑海中产生立体感。为描述方便,下面将以VR眼镜作为一种具体的虚拟现实设备的应用示例进行描述。
图1示出了根据本申请一个实施例的虚拟现实设备的局部透视方法的流程示意图,参见图1,本申请实施例的虚拟现实设备的局部透视方法包括如下步骤S110至步骤S130:
步骤S110,识别用户的手部动作。
在进行虚拟现实设备的局部透视显示时,可以先识别用户的手部动作。如图2所示,一般现有的VR眼镜都会在眼镜外部前端设置有双目摄像头,用于采集外部环境信息,捕捉用户的姿态运动信息如手部动作信息等。在现有的虚拟现实应用场景下,通常利用计算机视觉技术进行手部动作识别,手部动作识别的结果往往被用来进行基于手部动作的用户界面操作,或者一些手部体感游戏等。在本申请实施例中,同样可以利用现有的VR眼镜中自带的摄像头所采集到的信息进行用户手部动作的识别,以根据手部动作进行局部透视显示。
需要说明的是,除了可以采用上述双目摄像头进行手部动作信息的采集,也可以采用单目摄像头或者其他类型的摄像头,具体采用何种类型的摄像头,本领域技术人员可根据实际需求灵活设置,在此不做具体限定。
在利用计算机视觉技术进行手部动作识别时,具体可以采用如下方法:首先设计手部动作特征和手部动作模型,并利用手部动作样本提取特征,对手部动作模型进行训练,最终建立手部动作模型。在此基础上,通过双目摄像头采集新的手部动作图像并进行预处理,接着对手部动作图像进行手部动作分割,从而比较准确地提取图像中的人手部分,然后进行手部动作特征提取;最后,利用前面建立好的手部动作模型对输入的手部动作进行分类识别。
当然除了上述识别方法,本领域技术人员也可以根据实际需求选择其他方式进行手部动作识别,在此不作具体限定。
此外,上述对于用户的手部动作的识别可以是实时识别,以便于对用户的需求及时作出响应,当然出于节省设备电量的考虑,也可以是每隔预设时间进行一次手部动作的识别,具体采用何种频率识别手部动作,本领域技术人员可根据实际需求灵活设置,在此不做具体限定。
步骤S120,若用户的手部动作满足预设触发动作,则触发虚拟现实设备的局部透视功能。
在得到用户的手动动作后,需要进一步确定用户的手部动作是否是要触发VR眼镜的局部透视功能的动作,因此这里可以将识别到的用户的手部动作与预设触发动作进行匹配,如果匹配成功,则此时可以触发VR眼镜的局部透视功能。预设触发动作的类型本领域技术人员可以根据实际需求灵活设置,在此不作具体限定。
需要说明的是,该步骤中的“触发虚拟现实设备的局部透视功能”可以理解为只是触发了VR眼镜的局部透视功能,本质上VR眼镜还没有进入透视状态,也就是说,用户当前还看不到现实场景,需要进行后续的步骤确定虚拟场景中的局部透视显示区域。当然,也可以理解为是VR眼镜已经进入透视状态,用户当前能够看到现实场景,但是为了避免对用户的沉浸式体验造成过多影响,可以通过后续的步骤重新确定虚拟场景中的局部透视显示区域。
步骤S130,在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域,以在局部透视显示区域显示现实场景。
在确定虚拟场景中的局部透视显示区域时,可以结合上述步骤得到的用户的手部动作确定手部动作的位置,然后根据用户的手部动作的具体位置确定局部透视显示区域。如图3所示,用户可以通过该局部透视显示区域看到现实场景,而对于局部透视区域以外的其余部分,用户仍然能够看到虚拟场景。
本申请实施例的虚拟现实设备的局部透视方法可以结合用户的手部动作确定要透视显示的区域范围,相比于传统的全局透视方案,可以适用于更多更丰富的使用场景,同时可以大大提高用户的使用体验。
在本申请的一个实施例中,预设触发动作包括单手触发动作,在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域包括:若用户的单手手部动作满足单手触发动作,则确定用户的单手手部动作的单手食指和单手拇指的位置;根据单手手部动作的单手食指和单手拇指的位置,在虚拟场景中生成圆形透视显示区域。
本申请实施例的预设触发动作可以是单手触发动作,如图4所示,提供了一种单手触发动作的示意图,用户的单手手掌向内侧弯曲,拇指和其余四指相对,作出类似于“C”形的动作。为了后续可以生成更精准的局部透视显示区域,如果识别到的用户的手部动作满足上述单手触发动作,可以进一步确定用户的单手手部动作对应的单手食指和单手拇指的位置,然后根据单手食指和单手拇指的位置,在单手食指和单手拇指之间形成一个如图5所示的圆形透视显示区域。
例如,在用户想要使用手机或者拿水杯等场景下,上述圆形透视显示区域中就会透视显示出VR眼镜上的摄像头拍摄到的现实场景,用户可以通过该圆形透视显示区域操作手机或者拿起水杯,且该圆形透视显示区域可以随着用户手部的移动而移动。
在本申请的一个实施例中,预设触发动作包括双手触发动作,在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域包括:若用户的双手手部动作满足双手触发动作,则确定用户的双手手部动作的两个食指和两个拇指的位置;根据双手手部动作的两个食指和两个拇指的位置,在虚拟场景中生成三角形透视显示区域。
本申请实施例的预设触发动作还可以是双手触发动作,如图6所示,提供了一种双手触发动作的示意图,用户的左手拇指和右手拇指相接触,左手食指和右手食指相接触,且均位于同一平面上,其余手指可弯曲收回也可展开,使得左手拇指、右手拇指、左手食指和右手食指所围成的区域为一个三角形区域。为了后续可以生成更精准的局部透视显示区域,如果识别到的用户的双手手部动作满足上述双手触发动作,可以进一步确定用户的双手手部动作对应的两个食指和两个拇指的位置,然后根据两个食指和两个拇指的位置,在两个食指和两个拇指的位置之间形成一个如图7所示的三角形透视显示区域。
例如,在用户需要寻找物品的场景下,可能需要在较大范围内进行透视显示,上述三角形透视显示区域中会透视显示出VR眼镜上的摄像头拍摄到的现实场景,随着用户的双手向两侧移动,三角形透视显示区域的范围会逐渐增大,以便于用户及时找到物品。
在本申请的一个实施例中,除了基于上述列举的两种触发动作确定虚拟场景中的局部透视显示区域,也可以根据实际需求灵活设置其他的触发动作,例如,用户可以在眼前画出设定形状的轨迹,该轨迹所围成的区域就可以看作是用户想要进行透视显示的区域。比如用户画出的轨迹为正方形轨迹,则可以在VR眼镜所形成的虚拟场景中将该正方形轨迹所围成的区域进行透视显示。
在本申请的一个实施例中,为了避免用户误触发VR眼镜的局部透视显示功能,在用户的手部动作满足预设触发动作时,还可以进一步设置更复杂的触发条件,例如可以对识别到的用户的手部触发动作的持续时间进行统计,如果超过预设时间阈值,则认为用户想要触发VR眼镜的局部透视显示功能。还可以对用户的手部触发动作的执行次数进行统计,如果达到预设执行次数,则认为用户想要触发VR眼镜的局部透视显示功能。具体如何配置局部透视功能的触发条件,本领域技术人员可根据实际情况灵活设置,在此不一一列举。
在本申请的一个实施例中,该方法还包括:确定用户的手部动作的位置是否发生变化;若发生变化,则根据变化后的用户的手部动作的位置更新虚拟场景中的局部透视显示区域。
在实际的应用场景下,用户的手部位置可能是实时变化的,在手部位置变化较大时,如果仍然根据变化前的用户的手部位置确定局部透视显示区域,可能会导致局部透视显示区域与用户的手部无法充分匹配的情况,即用户有可能在该局部透视显示区域无法看到自己所要看到的物品或者只能看到一部分。因此本申请实施例可以实时检测用户的手部动作的位置变化情况,当检测到用户的手部动作的位置发生变化时,可以根据变化后的用户的手部动作的位置重新确定局部透视显示区域。
在本申请的一个实施例中,该方法还包括:若用户的手部动作满足预设关闭动作,则关闭虚拟现实设备的局部透视功能。
在实际的应用场景下,用户触发VR眼镜的局部透视显示功能的需求可能只是暂时的,例如暂时接听电话,暂时喝一杯水等等,因此为了保证用户在利用完局部透视显示功能后能够快速回到虚拟场景的沉浸式体验中,还可以检测用户是否有做出要关闭VR眼镜的局部透视功能的手部动作,如果检测到用户的手部动作与预设关闭动作相匹配,则此时可以关闭VR眼镜的局部透视显示功能。
如图8所示,提供了一种预设关闭动作的示意图,用户通过在眼前做出双手握拳的动作就可以关闭VR眼镜的局部透视显示功能。当然除了基于图8所示的预设关闭动作关闭虚拟场景中的局部透视显示区域,也可以根据实际需求灵活设置其他的关闭动作,在此不作具体限定。
在本申请的一个实施例中,与局部透视显示功能的触发条件同理,为了避免用户误关闭局部透视显示功能,在用户的手部动作满足预设关闭动作时,还可以进一步设置更复杂的关闭条件,例如可以对识别到的用户的手部关闭动作的持续时间进行统计,如果超过预设时间阈值,则认为用户想要关闭VR眼镜的局部透视显示功能。还可以对用户的手部关闭动作的执行次数进行统计,如果达到预设执行次数,则认为用户想要关闭VR眼镜的局部透视显示功能。具体如何配置局部透视功能的关闭条件,本领域技术人员可根据实际情况灵活设置,在此不一一列举。
与前述虚拟现实设备的局部透视方法同属于一个技术构思,本申请实施例还提供了虚拟现实设备的局部透视装置。图9示出了本申请一个实施例的虚拟现实设备的局部透视装置的框图,参见图9,虚拟现实设备的局部透视装置900包括:手部动作识别单元910、局部透视功能触发单元920和局部透视显示区域确定单元930。其中,
手部动作识别单元910,用于识别用户的手部动作;
局部透视功能触发单元920,用于若用户的手部动作满足预设触发动作,则触发虚拟现实设备的局部透视功能;
局部透视显示区域确定单元930,用于在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域,以在局部透视显示区域显示现实场景。
在本申请的一个实施例中,预设触发动作包括单手触发动作,局部透视显示区域确定单元930具体用于:若用户的单手手部动作满足单手触发动作,则确定用户的单手手部动作的单手食指和单手拇指的位置;根据单手手部动作的单手食指和单手拇指的位置,在虚拟场景中生成圆形透视显示区域。
在本申请的一个实施例中,预设触发动作包括双手触发动作,局部透视显示区域确定单元930具体用于:若用户的双手手部动作满足双手触发动作,则确定用户的双手手部动作的两个食指和两个拇指的位置;根据双手手部动作的两个食指和两个拇指的位置,在虚拟场景中生成三角形透视显示区域。
在本申请的一个实施例中,该装置还包括:位置变化确定单元,用于确定用户的手部动作的位置是否发生变化;局部透视显示区域更新单元,用于若发生变化,则根据变化后的用户的手部动作的位置更新虚拟场景中的局部透视显示区域。
在本申请的一个实施例中,该装置还包括:局部透视功能关闭单元,用于若用户的手部动作满足预设关闭动作,则关闭虚拟现实设备的局部透视功能。
需要说明的是:
图10示意了虚拟现实设备的结构示意图。请参考图10,在硬件层面,该虚拟现实设备包括存储器和处理器,可选地还包括接口模块、通信模块等。存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器等。当然,该虚拟现实设备还可能包括其他业务所需要的硬件。
处理器、接口模块、通信模块和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图10中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,用于存放计算机可执行指令。存储器通过内部总线向处理器提供计算机可执行指令。
处理器,执行存储器所存放的计算机可执行指令,并具体用于实现以下操作:
识别用户的手部动作;
若用户的手部动作满足预设触发动作,则触发虚拟现实设备的局部透视功能;
在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域,以在局部透视显示区域显示现实场景。
上述如本申请图9所示实施例揭示的虚拟现实设备的局部透视装置执行的功能可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(CentralProcessing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
该虚拟现实设备还可执行图1中虚拟现实设备的局部透视方法执行的步骤,并实现虚拟现实设备的局部透视方法在图1所示实施例的功能,本申请实施例在此不再赘述。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序当被处理器执行时,实现前述的虚拟现实设备的局部透视方法,并具体用于执行:
识别用户的手部动作;
若用户的手部动作满足预设触发动作,则触发虚拟现实设备的局部透视功能;
在局部透视功能下,根据用户的手部动作的位置确定虚拟场景中的局部透视显示区域,以在局部透视显示区域显示现实场景。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其特征在于包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (8)
1.一种虚拟现实设备的局部透视方法,其特征在于,包括:
识别用户的手部动作;
若用户的所述手部动作满足预设触发动作,则触发所述虚拟现实设备的局部透视功能;
在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域,以在所述局部透视显示区域显示现实场景;
所述方法还包括:
确定用户的所述手部动作的位置是否发生变化;
若发生变化,则根据变化后的用户的所述手部动作的位置更新所述虚拟场景中的局部透视显示区域。
2.根据权利要求1所述的方法,其特征在于,所述预设触发动作包括单手触发动作,在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域包括:
若用户的单手手部动作满足所述单手触发动作,则确定用户的所述单手手部动作的单手食指和单手拇指的位置;
根据所述单手手部动作的单手食指和单手拇指的位置,在所述虚拟场景中生成圆形透视显示区域。
3.根据权利要求1所述的方法,其特征在于,所述预设触发动作包括双手触发动作,在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域包括:
若用户的双手手部动作满足所述双手触发动作,则确定用户的所述双手手部动作的两个食指和两个拇指的位置;
根据所述双手手部动作的两个食指和两个拇指的位置,在所述虚拟场景中生成三角形透视显示区域。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若用户的手部动作满足预设关闭动作,则关闭所述虚拟现实设备的局部透视功能。
5.一种虚拟现实设备的局部透视装置,其特征在于,包括:
手部动作识别单元,用于识别用户的手部动作;
局部透视功能触发单元,用于若用户的所述手部动作满足预设触发动作,则触发所述虚拟现实设备的局部透视功能;
局部透视显示区域确定单元,用于在所述局部透视功能下,根据用户的所述手部动作的位置确定虚拟场景中的局部透视显示区域,以在所述局部透视显示区域显示现实场景;
所述装置还包括:
位置变化确定单元,用于确定用户的所述手部动作的位置是否发生变化;
局部透视显示区域更新单元,用于若发生变化,则根据变化后的用户的所述手部动作的位置更新所述虚拟场景中的局部透视显示区域。
6.根据权利要求5所述的装置,其特征在于,所述预设触发动作包括单手触发动作,所述局部透视显示区域确定单元具体用于:
若用户的单手手部动作满足所述单手触发动作,则确定用户的所述单手手部动作的单手食指和单手拇指的位置;
根据所述单手手部动作的单手食指和单手拇指的位置,在所述虚拟场景中生成圆形透视显示区域。
7.根据权利要求5所述的装置,其特征在于,所述预设触发动作包括双手触发动作,所述局部透视显示区域确定单元具体用于:
若用户的双手手部动作满足所述双手触发动作,则确定用户的所述双手手部动作的两个食指和两个拇指的位置;
根据所述双手手部动作的两个食指和两个拇指的位置,在所述虚拟场景中生成三角形透视显示区域。
8.一种虚拟现实设备,其特征在于,包括:处理器,存储计算机可执行指令的存储器,
所述可执行指令在被所述处理器执行时,实现所述权利要求1至4之任一所述虚拟现实设备的局部透视方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011319048.0A CN112462937B (zh) | 2020-11-23 | 2020-11-23 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
PCT/CN2021/132144 WO2022105919A1 (zh) | 2020-11-23 | 2021-11-22 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
EP21894066.6A EP4227773A4 (en) | 2020-11-23 | 2021-11-22 | LOCAL VIEWING METHOD AND APPARATUS FOR VIRTUAL REALITY DEVICE AND VIRTUAL REALITY DEVICE |
US17/817,792 US11861071B2 (en) | 2020-11-23 | 2022-08-05 | Local perspective method and device of virtual reality equipment and virtual reality equipment |
US18/501,696 US20240061516A1 (en) | 2020-11-23 | 2023-11-03 | Local perspective method and device of virtual reality equipment and virtual reality equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011319048.0A CN112462937B (zh) | 2020-11-23 | 2020-11-23 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112462937A CN112462937A (zh) | 2021-03-09 |
CN112462937B true CN112462937B (zh) | 2022-11-08 |
Family
ID=74798187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011319048.0A Active CN112462937B (zh) | 2020-11-23 | 2020-11-23 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11861071B2 (zh) |
EP (1) | EP4227773A4 (zh) |
CN (1) | CN112462937B (zh) |
WO (1) | WO2022105919A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112462937B (zh) * | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
CN113282166A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的交互方法、装置及头戴式显示设备 |
CN115661942B (zh) * | 2022-12-15 | 2023-06-27 | 广州卓远虚拟现实科技有限公司 | 基于虚拟现实的动作数据处理方法、系统及云平台 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107272207A (zh) * | 2017-07-20 | 2017-10-20 | 苏州普露信息咨询有限公司 | 一种带有透视的vr眼镜 |
CN111708432A (zh) * | 2020-05-21 | 2020-09-25 | 青岛小鸟看看科技有限公司 | 安全区域确定方法、装置、头戴显示设备及存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060017654A1 (en) * | 2004-07-23 | 2006-01-26 | Romo Justin R | Virtual reality interactivity system and method |
US20160054565A1 (en) * | 2013-03-29 | 2016-02-25 | Sony Corporation | Information processing device, presentation state control method, and program |
US10019057B2 (en) * | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
EP2996017B1 (en) * | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
US9953216B2 (en) * | 2015-01-13 | 2018-04-24 | Google Llc | Systems and methods for performing actions in response to user gestures in captured images |
US10656720B1 (en) * | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
CN106484085B (zh) * | 2015-08-31 | 2019-07-23 | 北京三星通信技术研究有限公司 | 在头戴式显示器中显示真实物体的方法及其头戴式显示器 |
US10338673B2 (en) * | 2015-09-16 | 2019-07-02 | Google Llc | Touchscreen hover detection in an augmented and/or virtual reality environment |
US20170256096A1 (en) * | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
EP3327544B1 (en) * | 2016-11-25 | 2021-06-23 | Nokia Technologies Oy | Apparatus, associated method and associated computer readable medium |
CN106845335B (zh) * | 2016-11-29 | 2020-03-17 | 歌尔科技有限公司 | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 |
WO2018196552A1 (zh) * | 2017-04-25 | 2018-11-01 | 腾讯科技(深圳)有限公司 | 用于虚拟现实场景中的手型显示方法及装置 |
US10445935B2 (en) * | 2017-05-26 | 2019-10-15 | Microsoft Technology Licensing, Llc | Using tracking to simulate direct tablet interaction in mixed reality |
US10841534B2 (en) * | 2018-04-12 | 2020-11-17 | Microsoft Technology Licensing, Llc | Real-world awareness for virtual reality |
CN108646997A (zh) * | 2018-05-14 | 2018-10-12 | 刘智勇 | 一种虚拟及增强现实设备与其他无线设备进行交互的方法 |
US10600246B2 (en) * | 2018-06-15 | 2020-03-24 | Microsoft Technology Licensing, Llc | Pinning virtual reality passthrough regions to real-world locations |
US10747371B1 (en) * | 2019-06-28 | 2020-08-18 | Konica Minolta Business Solutions U.S.A., Inc. | Detection of finger press from live video stream |
US20210004146A1 (en) * | 2019-07-01 | 2021-01-07 | Microsoft Technology Licensing, Llc | Virtual dial control |
US10802600B1 (en) * | 2019-09-20 | 2020-10-13 | Facebook Technologies, Llc | Virtual interactions at a distance |
WO2021087450A1 (en) * | 2019-11-01 | 2021-05-06 | Raxium, Inc. | Light field displays incorporating eye trackers and methods for generating views for a light field display using eye tracking information |
US11113891B2 (en) * | 2020-01-27 | 2021-09-07 | Facebook Technologies, Llc | Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality |
CN112445341B (zh) * | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | 虚拟现实设备的键盘透视方法、装置及虚拟现实设备 |
CN112462937B (zh) * | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 |
-
2020
- 2020-11-23 CN CN202011319048.0A patent/CN112462937B/zh active Active
-
2021
- 2021-11-22 EP EP21894066.6A patent/EP4227773A4/en active Pending
- 2021-11-22 WO PCT/CN2021/132144 patent/WO2022105919A1/zh unknown
-
2022
- 2022-08-05 US US17/817,792 patent/US11861071B2/en active Active
-
2023
- 2023-11-03 US US18/501,696 patent/US20240061516A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107272207A (zh) * | 2017-07-20 | 2017-10-20 | 苏州普露信息咨询有限公司 | 一种带有透视的vr眼镜 |
CN111708432A (zh) * | 2020-05-21 | 2020-09-25 | 青岛小鸟看看科技有限公司 | 安全区域确定方法、装置、头戴显示设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022105919A1 (zh) | 2022-05-27 |
US20240061516A1 (en) | 2024-02-22 |
CN112462937A (zh) | 2021-03-09 |
EP4227773A1 (en) | 2023-08-16 |
EP4227773A4 (en) | 2024-04-24 |
US20220382380A1 (en) | 2022-12-01 |
US11861071B2 (en) | 2024-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112462937B (zh) | 虚拟现实设备的局部透视方法、装置及虚拟现实设备 | |
CN108960163B (zh) | 手势识别方法、装置、设备和存储介质 | |
CN110570200A (zh) | 一种支付方法及装置 | |
CN112445341B (zh) | 虚拟现实设备的键盘透视方法、装置及虚拟现实设备 | |
CN113095124A (zh) | 一种人脸活体检测方法、装置以及电子设备 | |
WO2022237268A1 (zh) | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 | |
CN107479712B (zh) | 基于头戴式显示设备的信息处理方法及装置 | |
CN108345848A (zh) | 用户注视方向识别方法及相关产品 | |
US20180188815A1 (en) | Method and device for enabling virtual reality interaction with gesture control | |
CN105430269B (zh) | 一种应用于移动终端的拍照方法及装置 | |
CN113282169B (zh) | 头戴式显示设备的交互方法、装置及头戴式显示设备 | |
AU2020294217A1 (en) | Gesture recognition method and apparatus, electronic device, and storage medium | |
CN112784926A (zh) | 一种手势交互的方法和系统 | |
CN111160251B (zh) | 一种活体识别方法及装置 | |
CN114510173B (zh) | 基于增强现实的施工作业方法及装置 | |
CN109961452A (zh) | 照片的处理方法、装置、存储介质及电子设备 | |
CN110909685A (zh) | 姿势估计方法、装置、设备及存储介质 | |
CN111986229A (zh) | 视频目标检测方法、装置及计算机系统 | |
CN115061577B (zh) | 手部投影交互方法、系统及存储介质 | |
CN113282167B (zh) | 头戴式显示设备的交互方法、装置及头戴式显示设备 | |
CN109725722B (zh) | 有屏设备的手势控制方法和装置 | |
CN112818825A (zh) | 工作状态确定方法和装置 | |
CN111091388A (zh) | 活体检测方法和装置、人脸支付方法和装置、电子设备 | |
CN107526439A (zh) | 一种界面返回方法及装置 | |
CN107426415B (zh) | 关闭图像输入组件的方法、智能终端和具有存储功能装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |