CN106997234A - 虚拟现实模式处理方法、设备和系统 - Google Patents

虚拟现实模式处理方法、设备和系统 Download PDF

Info

Publication number
CN106997234A
CN106997234A CN201610045739.3A CN201610045739A CN106997234A CN 106997234 A CN106997234 A CN 106997234A CN 201610045739 A CN201610045739 A CN 201610045739A CN 106997234 A CN106997234 A CN 106997234A
Authority
CN
China
Prior art keywords
terminal device
virtual reality
image
screen
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610045739.3A
Other languages
English (en)
Other versions
CN106997234B (zh
Inventor
袁志俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Banma Zhixing Network Hongkong Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201610045739.3A priority Critical patent/CN106997234B/zh
Publication of CN106997234A publication Critical patent/CN106997234A/zh
Application granted granted Critical
Publication of CN106997234B publication Critical patent/CN106997234B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本申请提出一种虚拟现实模式处理方法、设备和系统,其中,该方法包括:若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。通过本发明提供的虚拟现实模式处理方法、设备和系统,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。

Description

虚拟现实模式处理方法、设备和系统
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种虚拟现实模式处理方法、设备和系统。
背景技术
随着虚拟现实技术和设备的普及,越来越多虚拟现实相关的应用在终端设备中推广。然而,在实际应用中,用户使用虚拟现实设备观看终端设备上非虚拟现实应用和虚拟现实应用的过程中,经常需要在两种应用之间来回切换,以通过虚拟现实眼镜观看手机上的视频应用为例说明如下:
将手机安置在虚拟现实眼镜的固定位,通过虚拟现实眼镜观看手机中播放的虚拟现实视频,当手机播放非虚拟现实视频时,从虚拟现实眼镜中取出手机观看。
由此可见,如果要满足用户始终通过虚拟现实设备观看虚拟现实应用,需要花大量的成本将所有的非虚拟现实应用改造成虚拟现实应用,否则,导致用户在两种模式间不断切换。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种虚拟现实模式处理方法,该方法实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
本申请的第二个目的在于提出一种终端设备。
本申请的第三个目的在于提出一种虚拟现实模式处理系统。
为达上述目的,本申请第一方面实施例提出了一种虚拟现实模式处理方法,包括:确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像;通过所述终端设备的屏幕显示处理后的图像。
本申请实施例的虚拟现实模式处理方法,通过确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像;通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
为达上述目的,本申请第二方面实施例提出了一种终端设备,包括:第一确定模块,用于确定终端设备是否与虚拟现实设备集成;处理模块,用于若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
本申请实施例的终端设备,通过确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像;通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
为达上述目的,本申请第三方面实施例提出了一种虚拟现实模式处理系统,包括:虚拟现实设备,以及如上所述的终端设备。
本申请实施例的虚拟现实模式处理系统,通过确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像;通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本申请一个实施例的虚拟现实模式处理方法的流程图;
图2为通过虚拟现实设备观看应用的用户界面示意图;
图3是本申请另一个实施例的虚拟现实模式处理方法的流程图;
图4为横竖屏转换处理示意图;
图5是本申请另一个实施例的虚拟现实模式处理方法的流程图;
图6为跟踪头部运动调整屏幕显示内容的用户界面示意图;
图7是本申请另一个实施例的虚拟现实模式处理方法的流程图;
图8为点击热区应用的用户界面示意图;
图9是本申请一个实施例的终端设备的结构示意图;
图10是本申请另一个实施例的终端设备的结构示意图;
图11是本申请另一个实施例的终端设备的结构示意图;
图12是本申请另一个实施例的终端设备的结构示意图;
图13是本申请一个实施例的虚拟现实模式处理系统的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的虚拟现实模式处理方法、设备和系统。
图1是本申请一个实施例的虚拟现实模式处理方法的流程图。
如图1所示,该虚拟现实模式处理方法包括:
步骤101,确定终端设备是否与虚拟现实设备集成。
本实施例提供的虚拟现实模式处理方法,被配置在具有显示屏的终端设备中为例具体说明。其中,终端设备的类型很多,具有播放非虚拟现实应用的终端设备均可以执行,比如手机、平板电脑、智能穿戴设备、计算机等。其中,非虚拟现实应用包括:视频网站推送的视频,电影网站推送的电影,或者,在第三方应用平台投放的广告等等。
首先,确定终端设备是否与虚拟现实设备集成,以便在通过虚拟现实设备观看应用的过程中,使非虚拟现实应用实时转换为虚拟现实模式,兼容虚拟现实设备的视觉体验。其中,虚拟现实设备是指具有虚拟现实模式观看功能的设备,例如包括:虚拟现实眼镜、虚拟显示头盔等。
确定终端设备是否与虚拟现实设备集成的方式很多,可以根据实际应用需要进行选择,本实施例对此不作限制,举例说明如下:
方式一:
本方式可以通过信号配对方式确定是否集成,应用终端设备与虚拟现实设备两者共同支持的通信协议均可以执行相应功能,具体包括以下步骤:
S1,搜索所述虚拟现实设备发送的连接信号;
S2,当搜索到所述虚拟现实设备发送的连接信号时,与所述虚拟现实设备进行连接,若连接成功,则确定所述终端设备与所述虚拟现实设备集成。
具体来说,终端设备开启虚拟现实设备搜索模式,当搜索到虚拟现实设备发送的连接信号时,与该虚拟现实设备进行连接。若终端设备与虚拟现实设备连接成功,则确定两者集成。
其中,需要说明的是,由于终端设备与虚拟现实设备之间进行数据交互的通信协议不同,因此,虚拟现实设备发送的连接信号的种类很多,例如:蓝牙信号、红外信号等等。
由此可见,通过信号配对方式确定是否集成,灵活性强,可以在一定距离内调整终端设备和虚拟现实设备之间的距离。
方式二:
本方式可以通过传感器感应方式确定是否集成,预先在虚拟现实设备固定支架中设置第一传感器,第一传感器类型很多,可以根据需要进行设置,终端设备能够进行感应交互的传感器均可以执行相应功能,例如:NFC传感器、或者,红外传感器,以NFC传感器为例描述如下,具体包括以下步骤:
S1,检测预设在所述虚拟现实设备固定支架中的NFC传感器发送的感应信号;
S2,根据检测到的感应信号确定所述终端设备是否与所述虚拟现实设备集成。
具体来说,预设在虚拟现实设备固定支架中设置NFC传感器,其中,固定支架用于固定终端设备,比如:虚拟现实头盔上用于固定终端设备的支架。设置NFC传感器的位置和数量根据不同的终端设备类型可以进行适应调整。
NFC传感器按照一定的频率发送感应信号,当终端设备通过卡接、卡扣等方式安装于固定支架后,终端设备能够检测到NFC传感器发送的感应信号,进而根据检测到所述感应信号,确定所述终端设备与所述虚拟现实设备是否集成。
需要注意的是,根据感应信号确定是否集成的判断策略视传感器的具体部署情况而定,例如:
传感器可以部署在固定支架的卡合位置,当终端设备检测到感应信号时,即视为与虚拟现实设备集成;
传感器可以部署在固定支架的边侧位置,当终端设备检测到感应信号时,且感应信号的强度达到预设阈值,即视为与虚拟现实设备集成。
综上所述,针对终端设备与虚拟现实设备是否集成,可以根据具体应用场景实施不同的确定方式,本实施例对此不作限制。
步骤102,若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
具体地,若确定终端设备与虚拟现实设备集成,则在图像渲染层对终端设备待输出的每一帧图像进行实时的双影渲染处理。
需要注意的是,终端设备待输出的图像类型很多,例如可以为应用中的图像,也可以是操作系统输出的非应用级别的图像等。
需要说明的是,由于终端设备待输出的图像包括不支持虚拟现实显示模式的图像,因此,在终端设备输出图像的过程中,包括对不支持虚拟现实显示模式的图像进行双影渲染处理后再输出。
其中,在图像渲染层对终端设备待输出的每一帧图像的双影渲染处理方式很多,可以根据应用需要选择不同的实施方式,举例说明如下:
方式一,本方式可以直接在屏幕上进行双影渲染,具体包括以下步骤:
S1,确定所述待输出的图像分别在屏幕的左右半屏上的坐标点阵列;
S2,根据所述坐标点阵列,分别在所述屏幕的左半屏和右半屏对所述待输出的图像进行双影绘制和渲染。
具体来说,首先将终端设备的屏幕尺寸划分为左半屏和右半屏,然后根据待输出的每一帧图像中像素点的坐标位置,确定该图像在左半屏的坐标点阵列,以及右半屏的坐标点阵列。
根据在屏幕上定位的左右半屏坐标点阵列,分别在屏幕的左半屏和右半屏对每一帧图像进行双影绘制和渲染。
方式二,本方式可以通过在虚拟界面层上进行单影渲染,并进行缩放处理后复制到屏幕上,具体包括以下步骤:
S1,在虚拟界面层绘制和渲染所述待输出图像的单影,其中,所述虚拟界面层与所述屏幕尺寸相同;
S2,将所述单影缩放至所述虚拟界面层的半边;
S3,复制缩放处理后的单影,并分别映射到在所述屏幕的左半屏和右半屏。
具体来说,首先根据屏幕尺寸绘制尺寸相同的虚拟界面层,然后根据待输出的图像中每一帧图像中像素点的坐标位置,在虚拟界面层绘制和渲染每一帧图像的单影。
将虚拟界面层划分为左右两个半边,然后将单影缩放至虚拟界面层的半边。最后,复制缩放处理后的单影,并分别映射到在所述屏幕的左半屏和右半屏。
综上所述,对待输出的每一帧图像的双影渲染处理方式,可以根据具体应用场景实施不同的确定方式,本实施例对此不作限制。
进而,对终端设备待输出的每一帧图像进行双影渲染处理后,通过所述终端设备的屏幕显示处理后的图像,使显示的图像都支持虚拟现实显示模式。从而可以通过虚拟现实设备观看终端设备屏幕上的图像,呈现出立体成像的虚拟现实模式。具体效果参见图2。图2为通过虚拟现实设备观看应用的用户界面示意图。
本申请实施例的虚拟现实模式处理方法,首先确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,通过所述终端设备的屏幕显示处理后的图像。由此,实现了不支持虚拟现实显示模式的图像兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实模式之间频繁切换,提高了观看效率和用户体验。
图3是本申请另一个实施例的虚拟现实模式处理方法的流程图。
如图3所示,该虚拟现实模式处理方法可以包括以下步骤:
步骤201,确定终端设备是否与虚拟现实设备集成。
具体来说,终端设备确定是否与虚拟现实设备集成,以便在通过虚拟现实设备观看应用的过程中,使非虚拟现实应用实时转换为虚拟现实模式,兼容虚拟现实设备的视觉体验。其中,虚拟现实设备是指具有虚拟现实模式观看功能的设备,例如包括:虚拟现实眼镜、虚拟显示头盔等。
终端设备确定是否与虚拟现实设备集成的方式很多,可以根据实际应用需要进行选择,具体描述过程参见图1所示实施例中步骤101,本实施例对此不再赘述。
步骤202,若确定集成,开启所述终端设备。
当终端设备确定与虚拟现实设备集成时,开启终端设备。其中,开启终端设备的触发方式很多,例如:
可以为若确定与虚拟现实设备集成,则主动执行终端设备的开机操作。
可以为若确定与虚拟现实设备集成后,当接收到虚拟现实设备发送的开机指令时,执行终端设备的开机操作。
步骤203,确定所述待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致,若不一致,则调整所述显示方向与所述放置方向一致。
具体来说,终端设备在预设的位置放置好后,通过虚拟现实设备观看终端设备输出的图像时,在对待输出的每一帧图像进行双影渲染之前,要确定每一帧图像在终端设备的显示方向,与终端设备的放置方向是否一致,若不一致,则调整显示方向,使显示方向与放置方向一致后,才进行图像渲染的双影处理。
需要解释的是,终端设备的放置方向包括:横屏放置和竖屏放置。每一帧图像在终端设备的显示方向包括:横屏显示和竖屏显示。
如果终端设备为横屏放置,图像在终端设备中为横屏显示,或者,如果终端设备为竖屏放置,图像在终端设备中为竖屏显示,则表示图像在终端设备的显示方向与终端设备的放置方向一致。
如果终端设备为横屏放置,图像在终端设备中为竖屏显示,或者,如果终端设备为竖屏放置,图像在终端设备中为横屏显示,则表示图像在终端设备的显示方向与终端设备的放置方向不一致。
图4为横竖屏转换处理示意图,参见图4,以手机横屏放置观看为例进行说明,
参见位于图4上方的示图,如果终端设备待输出的图像为竖屏显示,则需要将左右屏幕做横竖屏转换,再对该图像进行双影渲染,从而使得图像显示方向为横屏显示;
参见位于图4下方的示图,如果待输出的图像为横屏显示,则无需要将左右屏幕做横竖屏转换,直接对该图像进行双影渲染,从而使得图像显示方向为横屏显示。
步骤204,对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
本实施例中的步骤204的具体实施过程参见上述实施例中的步骤102,此处不再赘述。
本实施例的虚拟现实模式处理方法,首先确定终端设备是否与虚拟现实设备集成,若确定集成,开启所述终端设备,确定待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致,若不一致,则调整所述显示方向与所述放置方向一致,进而对终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
图5是本申请另一个实施例的虚拟现实模式处理方法的流程图。
如图5所示,基于上述实施例,该虚拟现实模式处理方法还可以包括以下步骤:
步骤301,获取预设的第二传感器监控的用户头部运动信息。
步骤302,根据预设的与所述头部运动信息对应的移动指令调整所述终端设备屏幕的显示内容。
具体来说,当用户通过虚拟现实设备观看终端设备所播放的图像时,为了使用户能够通过直接操控虚拟现实设备,从客户端或者网站的应用列表中选择需要观看的图像内容,预先在虚拟现实设备中或者终端设备中设置第二传感器,第二传感器用于监控用户头部运动信息。
需要注意的是,由于虚拟现实设备不同,因此,与用户头部匹配的位置也不同,因此,第二传感器部署的位置和数量视具体应用场景而定。第二传感器的类型很多,例如包括:陀螺仪、加速度传感器、或者、重力传感器。
终端设备通过预设的第二传感器获取用户头部运动信息,头部运动信息的具体表现形式很多,例如:坐标信息、角度信息、方向信息等。
根据预设的与头部运动信息对应的移动指令调整屏幕的显示内容,从而避免了用户通过操控终端设备来调整屏幕内容,可以直接通过虚拟现实设备调整屏幕内容进行浏览,具体效果参见图6,图6为跟踪头部运动调整屏幕显示内容的用户界面示意图,举例说明如下:
当监控到头部运动信息为向左移动20度,则对应的移动指令可以为将屏幕中的显示内容向左移动1厘米:或者,
当监控到头部运动信息为向右移动20度,则对应的移动指令可以为将屏幕中的显示内容向右移动1厘米:或者,
当监控到头部运动信息为向下移动20度,则对应的移动指令可以为将屏幕中的显示内容向下移动1厘米:或者,
当监控到头部运动信息为向上移动,则对应的移动指令可以为将屏幕中的显示内容向上移动1厘米。
需要注意的是,上述列举的头部运动信息的移动量以及对应的屏幕显示内容的移动距离仅仅为举例说明,可以根据实际应用需要,以及终端设备的屏幕尺寸进行设置和调整。
本实施例提供的虚拟现实模式处理方法,通过预设的第二传感器监控的用户头部运动信息,根据预设的与所述头部运动信息对应的移动指令调整屏幕的显示内容,由此,实现了终端设备输出的不支持虚拟现实的图像兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实模式之间频繁切换,并且可以通过虚拟现实设备调整终端设备中的应用内容,进一步地提高了观看效率和用户体验。
图7是本申请另一个实施例的虚拟现实模式处理方法的流程图。
如图7所示,基于上述实施例,该虚拟现实模式处理方法还可以包括以下步骤:
步骤401,接收通过触发所述虚拟现实设备的确认按钮生成的用于模拟点击所述终端设备屏幕上热区的点击指令。
步骤402,根据所述点击指令触发所述热区,播放所述热区中的应用。
步骤403,对所述应用的图像进行双影渲染处理,其中,所述应用的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
具体来说,在虚拟现实设备的沉浸式体验中,为了使用户能够直接通过虚拟现实设备选择终端设备中待播放的图像,本实施中,在终端设备的屏幕生成供用户对所选择的内容进行播放触发操作的热区,配合图5所示实施例对用户头部的跟踪,当用户确定所要观看的内容位于终端设备屏幕上的热区中,则触发虚拟现实设备的确认按钮,进而生成用于模拟点击终端设备屏幕上热区的点击指令以此达到用户通过触发虚拟现实设备的确认按钮模拟点击播放终端设备上某区域内容的效果,具体效果参见图8,图8为点击热区内容的用户界面示意图。
需要说明的是,本实施例中在屏幕生成具有点击功能的热区的方式很多,具体说明如下:
方式一,本方式中屏幕上具有点击功能的热区为预设的固定区域,可以跟踪头部运动将需要点击的应用调整到预设的固定区域中,其中,固定区域包括屏幕的中央区域(参见图8),屏幕的下方区域等预设区域。
方式二,本方式中屏幕上具有点击功能的热区为动态区域,可以跟踪头部运动将对应的屏幕区域动态标记为热区。
具体来说,通过预设在虚拟现实设备中的第二传感器监控的用户头部运动信息,然后获取预设的与该头部运动信息对应的屏幕区域并标记为热区。
需要说明的是,屏幕区域的大小与单个应用在屏幕中所占区域匹配,使标记为热区的屏幕区域中包含一个应用,如果用户需要观看当前热区中的应用,则点击虚拟现实设备上的确认按键。
本实施例提供的虚拟现实模式处理方法,当接收通过触发虚拟现实设备的确认按钮生成的用于模拟点击终端设备屏幕上热区的点击指令时,触发所述屏幕上预设的热区,播放所述热区中的应用。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,并且可以通过虚拟现实设备点击终端设备中的应用,进一步地提高了观看效率和用户体验。
综上所述,以通过虚拟现实眼镜观看手机中优酷视频为例,描述本申请提供的虚拟现实模式处理方法,具体如下:
1)将手机放入VR眼镜;
2)打开youtube,此时youtube会以本专利的VR模式运行;
3)用户通过头部移动和VR眼镜确认键来选择需要观看的视频;
4)当打开的是VR模式视频时,不做VR模式转换,直接显示;
5)退出视频观看,选择其他视频。
由此可见,用户在整个浏览和选择过程中无需分离手机和VR眼镜,始终处于沉浸式体验中。
为了实现上述实施例,本申请还提出一种终端设备。
图9是本申请一个实施例的终端设备的结构示意图。
如图9所示,该终端设备包括:
第一确定模块11,用于确定终端设备是否与虚拟现实设备集成;
处理模块12,用于若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
在一个实施例中,所述第一确定模块11,具体用于:
搜索所述虚拟现实设备发送的连接信号;
当搜索到所述虚拟现实设备发送的连接信号时,与所述虚拟现实设备进行连接,若连接成功,则确定所述终端设备与所述虚拟现实设备集成。
在另一个实施例中,所述第一确定模块11,具体用于:
检测预设在所述虚拟现实设备固定支架中的第一传感器发送的感应信号;
根据检测到所述感应信号,则确定所述终端设备与所述虚拟现实设备是否集成。
其中,所述第一传感器包括:
NFC传感器、或者,红外传感器。
进一步地,在一个实施例中,所述处理模块12具体用于:
确定所述待输出的图像分别在屏幕的左右半屏上的坐标点阵列;
根据所述坐标点阵列,分别在所述屏幕的左半屏和右半屏对所述待输出的图像进行双影绘制和渲染。
在另一个实施例中,所述处理模块12具体用于:
在虚拟界面层绘制和渲染所述待输出图像的单影,其中,所述虚拟界面层与所述屏幕尺寸相同;
将所述单影缩放至所述虚拟界面层的半边;
复制缩放处理后的单影,并分别映射到在所述屏幕的左半屏和右半屏。
需要说明的是,前述对虚拟现实模式处理方法实施例的解释说明也适用于该实施例的终端设备,此处不再赘述。
本申请实施例的终端设备,首先确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,通过所述终端设备的屏幕显示处理后的图像。由此,实现了不支持虚拟现实显示模式的图像兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实模式之间频繁切换,提高了观看效率和用户体验。
图10是本申请另一个实施例的终端设备的结构示意图,如图10所示,基于图9所示实施例,还包括:
开启模块13,用于开启所述终端设备。
在一个实施例中,所述开启模块13具体用于:
根据所述虚拟现实设备发送的开机指令开启所述终端设备。
进一步地,还包括:
第二确定模块14,用于确定所述待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致;
转换模块15,用于若不一致,则调整所述显示方向与所述放置方向一致。
需要说明的是,前述对虚拟现实模式处理方法实施例的解释说明也适用于该实施例的终端设备,其实现原理类似,此处不再赘述。
本申请实施例的终端设备,首先确定终端设备是否与虚拟现实设备集成,若确定集成,开启所述终端设备,确定待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致,若不一致,则调整所述显示方向与所述放置方向一致,进而对终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
图11是本申请另一个实施例的终端设备的结构示意图,如图11所示,基于上述实施例,以图10为例,还包括:
获取模块16,用于获取预设的第二传感器监控的用户头部运动信息;
调整模块17,用于根据预设的与所述头部运动信息对应的移动指令调整屏幕的显示内容。
其中,所述第二传感器包括:
陀螺仪、加速度传感器、或者、重力传感器。
需要说明的是,前述对虚拟现实模式处理方法实施例的解释说明也适用于该实施例的终端设备,其实现原理类似,此处不再赘述。
本申请实施例的终端设备,通过预设的第二传感器监控的用户头部运动信息,根据预设的与所述头部运动信息对应的移动指令调整屏幕的显示内容,由此,实现了终端设备输出的不支持虚拟现实的图像兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实模式之间频繁切换,并且可以通过虚拟现实设备调整终端设备中的应用内容,进一步地提高了观看效率和用户体验。
图12是本申请另一个实施例的终端设备的结构示意图,如图12所示,基于上述实施例,以图11为例,还包括:
接收模块18,用于接收通过触发所述虚拟现实设备的确认按钮生成的用于模拟点击所述终端设备屏幕上热区的点击指令;
触发模块19,用于根据所述点击指令触发所述热区,播放所述热区中的应用。
其中,所述热区包括:
预设的固定区域,或者,动态标记区域。
需要说明的是,前述对虚拟现实模式处理方法实施例的解释说明也适用于该实施例的终端设备,其实现原理类似,此处不再赘述。
本申请实施例的终端设备,当接收通过触发虚拟现实设备的确认按钮生成的用于模拟点击终端设备屏幕上热区的点击指令时,触发所述屏幕上预设的热区,播放所述热区中的应用。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,并且可以通过虚拟现实设备点击终端设备中的应用,进一步地提高了观看效率和用户体验。
为了实现上述实施例,本申请还提出一种虚拟现实模式处理系统。
图13是本申请一个实施例的虚拟现实模式处理系统的结构示意图。
如图13所示,该系统包括:虚拟现实设备1、以及终端设备2,其中,终端设备2可以采用如本发明上述实施例任一提供的终端设备,虚拟现实设备1,可以采用如本发明上述实施例涉及的虚拟现实设备。
需要说明的是,终端设备2可以固定在所述虚拟现实设备1中,终端设备2也可以与虚拟现实设备1分离.
所述虚拟现实设备1类型很多,例如包括:虚拟现实眼镜、或、虚拟现实头盔。
进一步地,该虚拟现实设备1包括:蓝牙控制器,所述虚拟现实设备1通过蓝牙控制器与终端设备2进行通信交互。
进一步地,所述虚拟现实设备1还包括:用于检测与所述终端设备2是否集成的第一传感器。
进一步地,所述虚拟现实设备1还包括:用于监控用户头部运动信息的第二传感器。
需要说明的是,前述对虚拟现实模式处理方法实施例的解释说明也适用于该实施例的虚拟现实模式处理系统,此处不再赘述。
本申请实施例的虚拟现实模式处理系统,通过确定终端设备是否与虚拟现实设备集成;若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像;通过所述终端设备的屏幕显示处理后的图像。由此,实现了非虚拟现实应用兼容虚拟现实设备的能力,避免了用户在非虚拟现实和虚拟现实应用之间频繁切换,提高了观看效率和用户体验。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个代理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (32)

1.一种虚拟现实模式处理方法,其特征在于,包括以下步骤:
确定终端设备是否与虚拟现实设备集成;
若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
2.如权利要求1所述的方法,其特征在于,所述确定终端设备是否与虚拟现实设备集成,包括:
搜索所述虚拟现实设备发送的连接信号;
当搜索到所述虚拟现实设备发送的连接信号时,与所述虚拟现实设备进行连接,若连接成功,则确定所述终端设备与所述虚拟现实设备集成。
3.如权利要求1所述的方法,其特征在于,所述确定终端设备是否与虚拟现实设备集成,包括:
检测预设在所述虚拟现实设备固定支架中的第一传感器发送的感应信号;
根据检测到所述感应信号,则确定所述终端设备与所述虚拟现实设备是否集成。
4.如权利要求3所述的方法,其特征在于,所述第一传感器包括:
NFC传感器、或者,红外传感器。
5.如权利要求1所述的方法,其特征在于,所述对所述终端设备待输出的图像进行双影渲染处理,包括:
确定所述待输出的图像分别在屏幕的左右半屏上的坐标点阵列;
根据所述坐标点阵列,分别在所述屏幕的左半屏和右半屏对所述待输出的图像进行双影绘制和渲染。
6.如权利要求1所述的方法,其特征在于,所述对所述终端设备待输出的图像进行双影渲染处理,包括:
在虚拟界面层绘制和渲染所述待输出图像的单影,其中,所述虚拟界面层与所述屏幕尺寸相同;
将所述单影缩放至所述虚拟界面层的半边;
复制缩放处理后的单影,并分别映射到在所述屏幕的左半屏和右半屏。
7.如权利要求1-6任一所述的方法,其特征在于,所述对所述终端设备待输出的图像进行双影渲染处理之前,还包括:
确定所述待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致;
若不一致,则调整所述显示方向与所述放置方向一致。
8.如权利要求1-6任一所述的方法,其特征在于,所述若确定集成之后,还包括:
开启所述终端设备。
9.如权利要求8所述的方法,其特征在于,所述开启所述终端设备包括:
根据所述虚拟现实设备发送的开机指令开启所述终端设备。
10.如权利要求1-6任一所述的方法,其特征在于,还包括:
获取预设的第二传感器监控的用户头部运动信息;
根据预设的与所述头部运动信息对应的移动指令调整所述终端设备屏幕的显示内容。
11.如权利要求10所述的方法,其特征在于,所述第二传感器包括:
陀螺仪、加速度传感器、或者、重力传感器。
12.如权利要求10所述的方法,其特征在于,还包括:
接收通过触发所述虚拟现实设备的确认按钮生成的用于模拟点击所述终端设备屏幕上热区的点击指令;
根据所述点击指令触发所述热区,播放所述热区中的应用。
13.如权利要求12所述的方法,其特征在于,所述热区包括:
预设的固定区域,或者,动态标记区域。
14.一种终端设备,其特征在于,包括:
第一确定模块,用于确定终端设备是否与虚拟现实设备集成;
处理模块,用于若确定集成,则对所述终端设备待输出的图像进行双影渲染处理,其中,所述待输出的图像包括不支持虚拟现实显示模式的图像,并通过所述终端设备的屏幕显示处理后的图像。
15.如权利要求14所述的设备,其特征在于,所述第一确定模块,具体用于:
搜索所述虚拟现实设备发送的连接信号;
当搜索到所述虚拟现实设备发送的连接信号时,与所述虚拟现实设备进行连接,若连接成功,则确定所述终端设备与所述虚拟现实设备集成。
16.如权利要求14所述的设备,其特征在于,所述第一确定模块,具体用于:
检测预设在所述虚拟现实设备固定支架中的第一传感器发送的感应信号;
根据检测到所述感应信号,则确定所述终端设备与所述虚拟现实设备是否集成。
17.如权利要求16所述的设备,其特征在于,所述第一传感器包括:
NFC传感器、或者,红外传感器。
18.如权利要求14所述的设备,其特征在于,所述处理模块具体用于:
确定所述待输出的图像分别在屏幕的左右半屏上的坐标点阵列;
根据所述坐标点阵列,分别在所述屏幕的左半屏和右半屏对所述待输出的图像进行双影绘制和渲染。
19.如权利要求14所述的设备,其特征在于,所述处理模块具体用于:
在虚拟界面层绘制和渲染所述待输出图像的单影,其中,所述虚拟界面层与所述屏幕尺寸相同;
将所述单影缩放至所述虚拟界面层的半边;
复制缩放处理后的单影,并分别映射到在所述屏幕的左半屏和右半屏。
20.如权利要求14-19任一所述的设备,其特征在于,还包括:
第二确定模块,用于确定所述待输出的图像在终端设备的显示方向,与终端设备的放置方向是否一致;
转换模块,用于若不一致,则调整所述显示方向与所述放置方向一致。
21.如权利要求14-19任一所述的设备,其特征在于,还包括:
开启模块,用于开启所述终端设备。
22.如权利要求21所述的设备,其特征在于,所述开启模块具体用于:
根据所述虚拟现实设备发送的开机指令开启所述终端设备。
23.如权利要求14-19任一所述的设备,其特征在于,还包括:
获取模块,用于获取预设的第二传感器监控的用户头部运动信息;
调整模块,用于根据预设的与所述头部运动信息对应的移动指令调整所述终端设备屏幕的显示内容。
24.如权利要求23所述的设备,其特征在于,所述第二传感器包括:
陀螺仪、加速度传感器、或者、重力传感器。
25.如权利要求23所述的设备,其特征在于,还包括:
接收模块,用于接收通过触发所述虚拟现实设备的确认按钮生成的用于模拟点击所述终端设备屏幕上热区的点击指令;
触发模块,用于根据所述点击指令触发所述热区,播放所述热区中的应用。
26.如权利要求25所述的设备,其特征在于,所述热区包括:
预设的固定区域,或者,动态标记区域。
27.一种虚拟现实模式处理系统,其特征在于,包括:虚拟现实设备,其以及如权利要求14-26任一所述的终端设备。
28.如权利要求27所述的系统,其特征在于,所述终端设备固定在所述虚拟现实设备中。
29.如权利要求27所述的系统,其特征在于,所述虚拟现实设备包括:虚拟现实眼镜、或、虚拟现实头盔。
30.如权利要求27所述的系统,其特征在于,所述虚拟现实设备包括:蓝牙控制器,所述虚拟现实设备通过所述蓝牙控制器与所述终端设备进行通信交互。
31.如权利要求27所述的系统,其特征在于,所述虚拟现实设备包括:用于检测与所述终端设备是否集成的第一传感器。
32.如权利要求27所述的系统,其特征在于,所述虚拟现实设备包括:用于监控用户头部运动信息的第二传感器。
CN201610045739.3A 2016-01-22 2016-01-22 虚拟现实模式处理方法、设备和系统 Active CN106997234B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610045739.3A CN106997234B (zh) 2016-01-22 2016-01-22 虚拟现实模式处理方法、设备和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610045739.3A CN106997234B (zh) 2016-01-22 2016-01-22 虚拟现实模式处理方法、设备和系统

Publications (2)

Publication Number Publication Date
CN106997234A true CN106997234A (zh) 2017-08-01
CN106997234B CN106997234B (zh) 2020-08-11

Family

ID=59428303

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610045739.3A Active CN106997234B (zh) 2016-01-22 2016-01-22 虚拟现实模式处理方法、设备和系统

Country Status (1)

Country Link
CN (1) CN106997234B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327032A (zh) * 2021-02-08 2022-04-12 海信视像科技股份有限公司 一种虚拟现实设备及vr画面显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102421003A (zh) * 2011-11-21 2012-04-18 宝利微电子系统控股公司 图像处理方法和装置
CN102802129A (zh) * 2011-05-24 2012-11-28 腾讯科技(深圳)有限公司 通过移动设备发送图片的方法和系统
CN104216533A (zh) * 2014-08-28 2014-12-17 东华大学 一种基于DirectX9的头戴式虚拟现实显示器
CN104898280A (zh) * 2015-05-04 2015-09-09 青岛歌尔声学科技有限公司 一种头戴式显示器的显示方法和头戴式显示器
CN104915979A (zh) * 2014-03-10 2015-09-16 苏州天魂网络科技有限公司 跨移动平台实现沉浸式虚拟现实的系统
CN105117021A (zh) * 2015-09-24 2015-12-02 深圳东方酷音信息技术有限公司 一种虚拟现实内容的生成方法和播放装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102802129A (zh) * 2011-05-24 2012-11-28 腾讯科技(深圳)有限公司 通过移动设备发送图片的方法和系统
CN102421003A (zh) * 2011-11-21 2012-04-18 宝利微电子系统控股公司 图像处理方法和装置
CN104915979A (zh) * 2014-03-10 2015-09-16 苏州天魂网络科技有限公司 跨移动平台实现沉浸式虚拟现实的系统
CN104216533A (zh) * 2014-08-28 2014-12-17 东华大学 一种基于DirectX9的头戴式虚拟现实显示器
CN104898280A (zh) * 2015-05-04 2015-09-09 青岛歌尔声学科技有限公司 一种头戴式显示器的显示方法和头戴式显示器
CN105117021A (zh) * 2015-09-24 2015-12-02 深圳东方酷音信息技术有限公司 一种虚拟现实内容的生成方法和播放装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327032A (zh) * 2021-02-08 2022-04-12 海信视像科技股份有限公司 一种虚拟现实设备及vr画面显示方法

Also Published As

Publication number Publication date
CN106997234B (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
US10331328B2 (en) Information processing apparatus, information processing method, and program
US10175847B2 (en) Method and system for controlling display device and computer-readable recording medium
KR101276846B1 (ko) 미디어 데이터의 스트리밍 제어방법 및 제어장치
CN106488090B (zh) 移动终端及其控制方法
CN110087117B (zh) 一种视频播放方法及终端
US20110072399A1 (en) Method for providing gui which generates gravity map to move pointer and display apparatus using the same
US20220284928A1 (en) Video display method, electronic device and medium
KR20120086381A (ko) 3d 리모콘에서 사용하기 위한 gui 애플리케이션
CN111010510A (zh) 一种拍摄控制方法、装置及电子设备
KR20130124767A (ko) 미디어 시스템 및 이미지와 연관된 추천 검색어를 제공하는 방법
CN110865758B (zh) 一种显示方法及电子设备
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
KR20130113987A (ko) 디스플레이 디바이스 제어 방법 및 시스템과 기록 매체
CN111083526B (zh) 视频转场方法、装置、计算机设备及存储介质
US11429339B2 (en) Electronic apparatus and control method thereof
KR20180027917A (ko) 디스플레이장치 및 그 제어방법
CN106997234A (zh) 虚拟现实模式处理方法、设备和系统
US20220084299A1 (en) Mobile device and mobile device control method
CA3095002A1 (en) Imaging systems with multiple angles of view
CN113507634A (zh) 视频播放方法、装置、电子设备和可读存储介质
KR20200041548A (ko) 모바일 장치 및 모바일 장치의 제어 방법
CN116112780B (zh) 录像方法和相关装置
CN116860104A (zh) 沙盘模型的展示方法、装置、电子设备和可读存储介质
KR101518453B1 (ko) 컨텐츠 재생 장치 및 방법
CN107667342A (zh) 电子装置和用于控制电子装置的声音的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201217

Address after: Room 603, 6 / F, Roche Plaza, 788 Cheung Sha Wan Road, Kowloon, China

Patentee after: Zebra smart travel network (Hong Kong) Limited

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: Alibaba Group Holding Ltd.