CN110691231A - 一种虚拟现实播放系统及其同步播放方法 - Google Patents
一种虚拟现实播放系统及其同步播放方法 Download PDFInfo
- Publication number
- CN110691231A CN110691231A CN201810730786.0A CN201810730786A CN110691231A CN 110691231 A CN110691231 A CN 110691231A CN 201810730786 A CN201810730786 A CN 201810730786A CN 110691231 A CN110691231 A CN 110691231A
- Authority
- CN
- China
- Prior art keywords
- virtual reality
- display screen
- audio
- control server
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请实施例提供了一种虚拟现实播放系统及其同步播放方法。其中,虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅。当进行影片播放时,通过播控服务器控制所有虚拟现实头戴设备的输出的影像信号和音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与音频设备输出的音频信号同步。从而,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
Description
技术领域
本申请涉及媒体数据处理技术领域,尤其涉及一种虚拟现实播放系统及其同步播放方法。
背景技术
虚拟现实(Virtual Reality:VR)技术,简称虚拟技术,是一种利用电脑技术模拟产生一个虚拟空间,并在虚拟空间中提供沉浸体验的技术,该技术集成了电脑图形、电脑仿真、人工智能、显示及网络并行处理等技术,是一种高级模拟技术。VR设备是应用VR技术的人机交互设备,常见的VR设备,例如眼镜形态的虚拟现实设备,能将人体对外界的视觉、听觉等感知隔离,引导观影者产生身临其境的VR体验。
VR电影院是虚拟现实技术的一种现实的应用方式,VR电影院能为多个观影者提供多角度沉浸式的VR观影环境,观影者在VR电影院观影时,佩戴具有VR影像输出功能的电子设备,VR电影院的影像源设备将电影影像信号发送至多个电子设备,电子设备输出影像内容并结合VR电影院提供中的公用音频设备输出的音频内容,观影者就能够感得到临其境的VR观影体验。
但是,现有技术中,受影像源设备与电子设备之间的传输环境和不同电子设备的软硬件环境差异的影响,影像信号在影像源设备和电子设备之间的传输耗时不同;并且,电子设备从影像源设备接收影像信号后,需要响应并处理影像信号,然后才能输出影像,由于不同电子设备在硬件和软件执行上存在差异,其响应并处理影像信号的耗时也不同,导致从影像源设备发出影像信号到电子设备显示影像内容的播放延时不同,而VR电影院提供的音频内容却是从公用音频设备中输出,不跟随影像的延时,这就导致了观影者在进行观影时出现不同程度的声音与影像不同步的问题,严重影响了观影者的观影体验。
发明内容
本申请实施例提供了一种虚拟现实播放系统及其同步方法,以解决现有技术中存在的问题。
第一方面,本申请实施例提供了一种虚拟现实播放系统,包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;其中:
所述虚拟现实头戴设备包括左显示屏、左光学放大模组、右显示屏、右光学放大模组、微处理模块、固定部件和具有一定收纳空间的主框体;所述左光学放大模组设置于所述左显示屏前方,所述右光学放大模组设置于所述右显示屏前方,所述左显示屏和所述右显示屏和所述微处理模块置于所述主框体的收纳空间,所述左光学放大模组靠近所述左显示屏一端收纳在所述主框体的收纳空间,所述左光学放大模组另外一端凸出所述主框体的收纳空间,所述右光学放大模组靠近所述右显示屏一端收纳在所述主框体的收纳空间,所述右光学放大模组另外一端凸出所述主框体的收纳空间;
所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步;
所述音频设备根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器的控制下输出与所述影像信号对应的同步音频信号给观影者;
所述座椅平衡分布在所述音频设备的音响声效区域内,用于观影者坐着通过所述虚拟现实头戴设备观看所述播控服务器的影像信号对应的画面;所述固定部件用于将所述主框体固定在观影者头部,且让所述左光学放大模组远离所述左显示屏的一端与观影者左眼睛适配和所述右光学放大模组远离所述右显示屏的一端与观影者右眼睛适配;
所述微处理模块被配置为将从所述播控服务器获取的影像信号发送给所述左显示屏和所述右显示屏,所述左显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述左光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述右光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
进一步地,所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步的方式包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个;
播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号;
播控服务器在T0时刻将带有延时信息T的影像信号同步发送至观影者佩戴的虚拟现实头戴设备的所述微处理模块;
所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面;
播控服务器在T0+T时刻将音频信号发送给音频设备,音频设备在T0+T时刻输出音频信号。
进一步地,所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步的方式包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个;
播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号;
在进行播放前,播控服务器将延时信息T对应时长的影像信号发给缓存服务器;
将所有虚拟现实头戴设备通过局域网与缓存服务器建立连接,所有虚拟现实头戴设备实时从缓存服务器获取存储的影像信号;
在进行播放时,音频设备和所有虚拟现实头戴设备同步输出音频信号和影像信号,且播控服务器实时将剩余影像信号从影像服务器发给缓存服务器。
进一步地,所述播控服务器还被配置为获取虚拟现实头戴设备的播放延时,包括:
播控服务器在影片放映前的Ts时刻向虚拟现实头戴设备发送用于测试播放延时的测试帧信号;
虚拟现实头戴设备的所述微处理模块接收所述测试帧信号,以及,无等待地将所述测试帧信号输出给所述左显示屏和所述右显示屏进行显示画面,并向播控服务器反馈测试帧信号的显示画面的时刻Tp;
播控服务器根据Ts和Tp,获取虚拟现实头戴设备的所述播放延时。
进一步地,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面的方式包括:
所述虚拟现实头戴设备的所述微处理模块缓存影像信号;
等待至T0+T时刻;
在T0+T时刻,输出缓存的影像信号给所述左显示屏和所述右显示屏进行显示画面。
进一步地,所述播控服务器还被配置为使虚拟现实头戴设备输出字幕信号,包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器接收来自虚拟现实头戴设备的字幕请求,所述字幕请求中包含字幕的语言;
播控服务器从字幕源中获取与字幕请求的语言匹配的字幕信号;
播控服务器在T0时刻将带有所述延时信息T的字幕信号同步发送至发起字幕请求的目标虚拟现实头戴设备的所述微处理模块;
目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输字幕信号。
进一步地,所述播控服务器还被配置为使虚拟现实头戴设备输出弹幕信号,包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器获取来自虚拟现实头戴设备的允许显示弹幕的请求;
当虚拟现实头戴设备允许显示弹幕时,播控服务器从弹幕源中解析弹幕信号,弹幕信号包括时间线和每条弹幕的长度,所述时间线定义每条弹幕的出现时间;
播控服务器根据每条弹幕的长度,向前修正时间线,生成弹幕修正信号;
播控服务器在T0时刻将带有延时信息T的弹幕修正信号同步发送至允许显示弹幕的目标虚拟现实头戴设备的所述微处理模块;
目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输出弹幕信号。
进一步地,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面之前,还包括:
虚拟现实头戴设备监测是否接收到延时修正信息Tc;
当虚拟现实头戴设备接收到延时修正信息Tc时,虚拟现实头戴设备将延时信息T的数值修正为T+Tc。
进一步地,所述影像信号为全景影像信号,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面的方式包括:
获取虚拟现实头戴设备的姿态角;
将所述姿态角给所述微处理模块;
所述微处理模块根据所述姿态角从所述全景影像信号中确定所述姿态角对应的影像信号;
所述微处理模块在T0+T时刻将所述姿态角对应的影像信号输出给所述左显示屏和所述右显示屏进行显示画面。
第二方面,本申请实施例提供了一种虚拟现实播放系统的同步播放方法,其中,所述虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;
所述虚拟现实头戴设备包括左显示屏、左光学放大模组、右显示屏、右光学放大模组、微处理模块、固定部件和具有一定收纳空间的主框体;所述左光学放大模组设置于所述左显示屏前方,所述右光学放大模组设置于所述右显示屏前方,所述左显示屏和所述右显示屏和所述微处理模块置于所述主框体的收纳空间,所述左光学放大模组靠近所述左显示屏一端收纳在所述主框体的收纳空间,所述左光学放大模组另外一端凸出所述主框体的收纳空间,所述右光学放大模组靠近所述右显示屏一端收纳在所述主框体的收纳空间,所述右光学放大模组另外一端凸出所述主框体的收纳空间;
所述方法包括:
所述播控服务器控制所有虚拟现实头戴设备的输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步;
所述音频设备根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器的控制下输出与所述影像信号对应的同步音频信号给观影者;
所述座椅平衡分布在所述音频设备的音响声效区域内,观影者坐着通过所述虚拟现实头戴设备观看所述播控服务器的影像信号对应的画面;所述固定部件将所述主框体固定在观影者头部,且让所述左光学放大模组远离所述左显示屏的一端与观影者左眼睛适配和所述右光学放大模组远离所述右显示屏的一端与观影者右眼睛适配;
所述微处理模块将从所述影像服务器获取的影像信号发送给所述左显示屏和所述右显示屏,所述左显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述左光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述右光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
由以上技术方案可知,本申请实施例提供了一种虚拟现实播放系统及其同步播放方法。其中,虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;音频设备根据所处的空间环境进行设置,形成音响声效区域,在播控服务器的控制下输出与影像信号对应的同步音频信号给观影者;座椅平衡分布在音频设备的音响声效区域内,观影者坐着通过虚拟现实设备观看播控服务器的影像信号对应的画面。当进行影片播放时,通过播控服务器控制所有虚拟现实头戴设备的输出的影像信号和音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与音频设备输出的音频信号同步。从而,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种虚拟现实播放系统的构成图;
图2为本申请实施例提供的虚拟现实头戴设备的分解图;
图3为本申请实施例提供的虚拟现实头戴设备固定件的结构示意图;
图4为本申请实施例提供的一种虚拟现实播放系统的工作流程图;
图5为本申请实施例提供的一种虚拟现实播放系统的工作流程中步骤S140的流程图;
图6为本申请实施例提供的一种虚拟现实播放系统的修正延时信息T的流程图;
图7为本申请实施例提供的步骤S140的另一种流程图;
图8为本申请实施例提供的另一种虚拟现实播放系统的构成图;
图9为本申请实施例提供的另一种虚拟现实播放系统的工作方式流程图;
图10为本申请实施例提供的播放服务器获取虚拟现实头戴设备的播放延时的流程图;
图11本申请实施例提供的播放服务器输出字幕信号的流程图;
图12本申请实施例提供的播放服务器输出弹幕信号的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一
本申请实施例提供了一种虚拟现实播放系统,图1为本申请实施例提供的一种虚拟现实播放系统的构成图;如图1所示,所述播放系统包括:播控服务器1、音频设备2、影像服务器3和多个配有虚拟现实头戴设备4的座椅5。
本申请中,虚拟现实播放系统可应用在虚拟现实影院中,与传统的带有大屏幕的影院播放系统不同,本申请提供的虚拟现实播放系统不包含大屏幕,而是通过每个座椅5上配备的虚拟现实头戴设备4为用户呈现影像内容,用户在观影时,在座椅5上入座,佩戴上本申请提供的虚拟现实头戴设备4,虚拟现实头戴设备4为用户呈现出虚拟现实的影像内容,结合音频设备2提供的音频内容,用户就能够得到身临其境的虚拟现实观影体验。
图2为本申请实施例提供的虚拟现实头戴设备的分解图;图3为本申请实施例提供的虚拟现实头戴设备固定件的结构示意图。
如图2和图3所示,本申请实施例提供的虚拟现实头戴设备4包括左显示屏41、左光学放大模组42、右显示屏43、右光学放大模组44、微处理模块45、固定部件46和具有一定收纳空间47的主框体48;所述左光学放大模组42设置于所述左显示屏41前方,所述右光学放大模组44设置于所述右显示屏43前方,所述左显示屏41和所述右显示屏43和所述微处理模块45置于所述主框体48的收纳空间47,所述左光学放大模组42靠近所述左显示屏41一端收纳在所述主框体48的收纳空间47,所述左光学放大模组42另外一端凸出所述主框体48的收纳空间47,所述右光学放大模组44靠近所述右显示屏43一端收纳在所述主框体48的收纳空间47,所述右光学放大模组44另外一端凸出所述主框体48的收纳空间47。
本申请实施例提供的虚拟现实头戴设备4包括两块显示屏,分别为左显示屏41和右显示屏43,每块显示屏分别与其对应的左光学放大模组42和右光学放大模组44配合生成用于呈现给用户左右眼的图像。本申请的左显示屏41和右显示屏43的尺寸可根据左光学放大模组42和右光学放大模组44的尺寸设计,从而使左显示屏41和右显示屏43能够具有较高的屏幕面积的利用率,使屏幕面积可以更小,从而降低虚拟现实头戴设备4的重量,使虚拟现实头戴设备4更轻薄。
所述播控服务器1被配置为控制所有虚拟现实头戴设备4输出的影像信号和所述音频设备2输出的音频信号的输出时间,使所有虚拟现实头戴设备4输出的影像信号与所述音频设备2输出的音频信号同步。
由于,不同的虚拟现实头戴设备4与影像服务器3之间的数据传输环境可能存在不同,以及不同的虚拟现实头戴设备4之间会存在硬件性能的差异,因此,多个虚拟现实头戴设备4对同一来源的影像信号的输出延迟会不同,而音频信号却是由音频设备2统一输出,无法适配每个虚拟现实头戴设备4的输出延迟,从而,导致多个虚拟现实头戴设备4与音频设备2之间会存在不同程度的音画不同步的问题。本申请实施例为了解决上述问题,在虚拟现实播放系统中设置了播控服务器1,通过播控服务器1控制所有虚拟现实头戴设备4输出的影像信号和所述音频设备2输出的音频信号的输出时间,使所有虚拟现实头戴设备4输出的影像信号与所述音频设备2输出的音频信号同步,从而解决了多个虚拟现实头戴设备4与音频设备2之间会存在不同程度的音画不同步的问题。
图4为本申请实施例提供的一种虚拟现实播放系统的工作流程图。
如图4所示,在一种可选择的实施方式中,所述播控服务器1被配置为控制所有虚拟现实头戴设备4输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备4输出的影像信号与所述音频设备输出的音频信号同步的方式可以通过以下步骤实现:
步骤S110,当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个。
本申请中,播放延时指的是从播控服务器1向虚拟现实头戴设备4发送影像信号开始,到虚拟现实头戴设备4在显示屏上现实画面的最短时间。由于每个虚拟现实头戴设备4的播放延时可能不同,因此,用T1~TN表示本申请实施例提供的虚拟现实播放系统中N个虚拟现实头戴设备4的播放延时。本申请根据T1~TN的值,生成延时信息T,延时信息T的数值大于T1~TN中的任何一个。
步骤S120,播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号。
本申请中,影像服务器3可以是在本地构建的存储有媒体片源的本地存储服务器,可以是通过互联网与播控服务器1建立连接的存储有媒体片源的云端存储服务器,可以是与播控服务器1通过无线局域网或数据接口建立连接的手持移动设备、PC等,还可以是与播控服务器1建立数据连接的数字电影播放设备等。影像服务器3可提供包含影像信号和音频信号的片源信号,播控服务器1对片源信号进行分轨解析,从而,从片源信号中解析影像信号和音频信号。
步骤S130,播控服务器在T0时刻将带有延时信息T的影像信号同步发送至观影者佩戴的虚拟现实头戴设备的所述微处理模块。
播控服务器1在T0时刻将带有延时信息T的影像信号同步发送至观影者佩戴的虚拟现实头戴设备4的微处理模块45,经过一个小于延时信息T的延时后,虚拟现实头戴设备4的微处理模块45能够接收到影像信号,并将影像信号处理成分别用于输出给左显示屏41和右显示屏43的格式。
步骤S140,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面。
虚拟现实头戴设备4的微处理模块45在T0+T时刻输出影像信号给左显示屏41和右显示屏43,使左显示屏41和右显示屏43在T0+T时刻显示画面。
步骤S150,播控服务器在T0+T时刻将音频信号发送给音频设备,音频设备在T0+T时刻输出音频信号。
播控服务器1在T0+T时刻将音频信号发送给音频设备2,使音频设备2能够在T0+T时刻输出音频信号。
图5为本申请实施例提供的一种虚拟现实播放系统的工作流程中步骤S140的流程图。
在一种可选择的实施方式中,如图5所示,步骤S140可以包括以下步骤:
步骤S141,所述虚拟现实头戴设备的所述微处理模块缓存影像信号。
由于每个虚拟现实头戴设备4的播放延时不同,在微处理模块45接收影像信号并完成对影像信号的处理之后,距离T0+T时刻还会有长度不等的时间,因此,在步骤S141中,微处理模块45在T0+T时刻还未到来之前,先缓存影像信号,而不会向虚拟现实头戴设备4发送影像信号。
步骤S142,等待至T0+T时刻。
步骤S143,在T0+T时刻,输出缓存的影像信号给所述左显示屏和所述右显示屏进行显示画面。
在T0+T时刻,虚拟现实头戴设备4的微处理模块45将缓存的影响信号输出至左显示屏41和右显示屏43,使左显示屏41和右显示屏43在在T0+T时刻显示画面。
图6为本申请实施例提供的一种虚拟现实播放系统的修正延时信息T的流程图。
如图6所示,在一种可选择的实施方式中,修正延时信息T发生在步骤S140之前,包括以下步骤:
步骤S138,虚拟现实头戴设备监测是否接收到延时修正信息Tc。
本申请中,延时修正信息Tc可由用户通过虚拟现实头戴设备4的按键、旋钮、触摸键等输入装置进行输入。修正信息Tc能够满足用户出于不同的视听需求而对音频信号和图像信号的同步或延时做出自主的选择;同时,还能够实现当虚拟现实播放系统由于硬件或软件的故障导致音频信号和图像信号同步不准确时,人工进行同步的校正。
步骤S139,当虚拟现实头戴设备接收到延时修正信息Tc时,虚拟现实头戴设备将延时信息T的数值修正为T+Tc。
虚拟现实头戴设备4接收到延时修正信息Tc时,将延时信息T的数值修正为T+Tc,从而满足用户出于不同的视听需求而对音频信号和图像信号的同步或延时做出自主的选择,以及,人工进行同步的校正。
图7为本申请实施例提供的步骤S140的另一种流程图。
在一种可选择的实施方式中,影像信号为全景影像信号,如图7所示,当影像信号为全景影像信号使,步骤S140可以包括以下步骤:
步骤S145,获取虚拟现实头戴设备的姿态角。
本申请中,虚拟现实头戴设备4可在用户佩戴并在座椅5上入座后,以用户入座后指定的头部的位置和角度建立用于确定姿态角的坐标系。
步骤S146,将所述姿态角给所述微处理模块。
当用户头部的位置和角度变化时,将根据坐标系确定的姿态角发送给微处理模块45。
步骤S147,所述微处理模块根据所述姿态角从所述全景影像信号中确定所述姿态角对应的影像信号。
未处理模块45根据姿态角,从全景影像信号中确定出对应角度的影像信号,从而,实现虚拟现实头戴设备4呈献给用户的画面能够随着用户头部的动作而变化。
步骤S148,所述微处理模块在T0+T时刻将所述姿态角对应的影像信号输出给所述左显示屏和所述右显示屏进行显示画面。
微处理模块45在T0+T时刻将姿态角对应的影像信号输出给左显示屏41和右显示屏43进行显示画面,从而使虚拟现实头戴设备4呈献给用户的画面与音频信号同步。
由以上技术方案可知,本申请实施例中,播控服务器1根据N(N≥1)个虚拟现实头戴设备4的播放延时T1~TN,生成延时信息T,延时信息T的数值大于T1~TN中的任何一个;然后,播控服务器1从影像服务器3提供的片源信号中解析影像信号和音频信号;以及,播控服务器1在T0时刻将带有延时信息T的影像信号同步发送至观影者佩戴的虚拟现实头戴设备4的微处理模块45;然后,虚拟现实头戴设备4的微处理模块45在T0+T时刻输出影像信号给左显示屏41和右显示屏43,使左显示屏41和右显示屏43在T0+T时刻显示画面;并且,播控服务器1在T0+T时刻将音频信号发送给音频设备2,使音频设备2能够在T0+T时刻输出音频信号。从而,使影像信号能够在T0+T时刻,在多个虚拟现实头戴设备4的左显示屏41和右显示屏43上同步显示,并且,由于播控服务器1控制了音频设备2也在T0+T时刻输出音频信号,从而使本申请提供的虚拟现实播放系统中音频设备2和所有的虚拟现实头戴设备4能够实现音画同步输出,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
图8为本申请实施例提供的另一种虚拟现实播放系统的构成图。
如图8所示,本申请实施例提供的另一种虚拟现实播放系统在如图1所示的虚拟现实播放系统的基础上还包括缓存服务器6。其中,缓存服务器6通过局域网与播控服务器1和虚拟现实头戴设备4建立数据连接。
图9为本申请实施例提供的另一种虚拟现实播放系统的工作方式流程图。
如图9所示,在一种可选择的实施方式中,所述播控服务器1被配置为控制所有虚拟现实头戴设备4输出的影像信号和所述音频设备2输出的音频信号的输出时间,使所有虚拟现实头戴设备4输出的影像信号与所述音频设备2输出的音频信号同步的方式可以通过以下步骤实现:
步骤S210,当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个。
本申请中,播放延时指的是从播控服务器1向虚拟现实头戴设备4发送影像信号开始,到虚拟现实头戴设备4在显示屏上现实画面的最短时间。由于每个虚拟现实头戴设备4的播放延时可能不同,因此,用T1~TN表示本申请实施例提供的虚拟现实播放系统中N个虚拟现实头戴设备4的播放延时。本申请根据T1~TN的值,生成延时信息T,延时信息T的数值大于T1~TN中的任何一个。
步骤S220,播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号。
本申请中,影像服务器3可以是在本地构建的存储有媒体片源的本地存储服务器,可以是通过互联网与播控服务器1建立连接的存储有媒体片源的云端存储服务器,可以是与播控服务器1通过无线局域网或数据接口建立连接的手持移动设备、PC等,还可以是与播控服务器1建立数据连接的数字电影播放设备等。影像服务器3可提供包含影像信号和音频信号的片源信号,播控服务器1对片源信号进行分轨解析,从而,从片源信号中解析影像信号和音频信号。
步骤S230,在进行播放前,播控服务器将延时信息T对应时长的影像信号发给缓存服务器。
在进行播放前,播控服务器1将延时信息T对应时长的影像信号发给缓存服务器6,使缓存服务器6提前存储了延时信息T对应时长的影像信号。
步骤S240,将所有虚拟现实头戴设备通过局域网与缓存服务器建立连接,所有虚拟现实头戴设备实时从缓存服务器获取存储的影像信号。
虚拟现实头戴设备4通过与缓存服务器建立连接6建立连接,在播放前,就能从缓存服务器6中提前获取到延时信息T对应时长的影像信号,由于虚拟现实头戴设备4在播放前就已经获取了影像信号,因此,在播放时就不涉及传输过程中的延时问题。
步骤S250,在进行播放时,音频设备和所有虚拟现实头戴设备同步输出音频信号和影像信号,且播控服务器实时将剩余影像信号从影像服务器发给缓存服务器。
由于,虚拟现实头戴设备4在播放前就已经获取了影像信号,因此,在进行播放时,音频设备2和所有虚拟现实头戴设备4就能够根据播控服务器1的控制下同步输出音频信号和影像信号;同时,播控服务器1实时将剩余影像信号从影像服务器3发给缓存服务器6,从而使虚拟现实头戴设备4能够实时从缓存服务器6提前获取到影像信号。
由以上技术方案可知,本实施例中,在进行播放前,播控服务器将延时信息T对应时长的影像信号发给缓存服务器6,使虚拟现实头戴设备4能够在播放前从缓存服务器6中提前获取到延时信息T对应时长的影像信号,从而,在播放时就不涉及传输过程中的延时问题;在进行播放时,音频设备2和所有虚拟现实头戴设备4同步输出音频信号和影像信号,且播控服务器1实时将剩余影像信号从影像服务器3发给缓存服务器6,使虚拟现实头戴设备4能够实时从缓存服务器6提前获取到影像信号,从而使本申请提供的虚拟现实播放系统中音频设备2和所有的虚拟现实头戴设备4能够实现音画同步输出,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
本申请中,所述音频设备2根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器4的控制下输出与所述影像信号对应的同步音频信号给观影者。
本申请中,所述座椅5平衡分布在所述音频设备2的音响声效区域内,用于观影者坐着通过所述虚拟现实头戴设备4观看所述播控服务器1的影像信号对应的画面;所述固定部件46用于将所述主框体48固定在观影者头部,且让所述左光学放大模组42远离所述左显示屏41的一端与观影者左眼睛适配和所述右光学放大模组44远离所述右显示屏43的一端与观影者右眼睛适配。
所述微处理模块45被配置为将从所述播控服务器1获取的影像信号发送给所述左显示屏41和所述右显示屏43,所述左显示屏41接收所述微处理模块45发送的影像信号,在所述播控服务器1的控制下输出所述影像信号并通过所述左光学放大模组42放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏43接收所述微处理模块45发送的影像信号,在所述播控服务器1的控制下输出所述影像信号并通过所述右光学放大模组44放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
在一种可选择的实施方式中,播控服务器1还被配置为获取虚拟现实头戴设备4的播放延时。
图10为本申请实施例提供的播放服务器获取虚拟现实头戴设备的播放延时的流程图。如图10所示,播控服务器1被配置为获取虚拟现实头戴设备4的播放延时,通过以下步骤实现:
步骤S310,播控服务器在影片放映前的Ts时刻向虚拟现实头戴设备发送用于测试播放延时的测试帧信号。
本申请中,为了获取虚拟现实头戴设备4的播放延时,播控服务器1中可预存储包含测试帧的测试片源,播控服务器1在影片放映前的Ts时刻向虚拟现实头戴设备4发送用于测试播放延时的测试帧信号,该测试帧信号可被虚拟现实头戴设备4接收,并在虚拟现实头戴设备4的左显示屏41和右显示屏43上显示画面。
步骤S320,虚拟现实头戴设备的所述微处理模块接收所述测试帧信号,以及,无等待地将所述测试帧信号输出给所述左显示屏和所述右显示屏进行显示画面,并向播控服务器反馈测试帧信号的显示画面的时刻Tp。
为了准确地获取虚拟现实头戴设备4的播放延时,虚拟现实头戴设备4的微处理模块45接收到测试帧信号后,立刻处理该测试帧信号,然后,无等待地将测试帧信号输出给左显示屏41和右显示屏43进行显示画面,并向播控服务器1反馈测试帧信号的显示画面的时刻Tp。
步骤S330,播控服务器根据Ts和Tp,获取虚拟现实头戴设备的所述播放延时。
播控服务器1根据Ts和Tp,计算出Tp与Ts的差值,该差值就是虚拟现实头戴设备4的播放延时。
图11本申请实施例提供的播放服务器输出字幕信号的流程图。
如图11所示,在一种可选择的实施方式中,播放服务器输出字幕信号的流程包括以下步骤:
步骤S410,当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器接收来自虚拟现实头戴设备的字幕请求,所述字幕请求中包含字幕的语言。
由于不同的用户在观看电影时对字幕的需求不同,例如,在观看外语片时,有些用户喜欢不借助字幕而听原生的配音,有些用户希望有英文字幕来帮助理解电影中对话的内容,而有些用户希望有中文字幕来帮助理解电影中对话的内容,这种不同的需求在传统的电影院中是无法得到满足的。
本申请中,为了满足不同用户在观看电影时对字幕的不同需求,播控服务器1可接收来自虚拟现实头戴设备4的字幕请求,字幕请求可通过用户在虚拟现实头戴设备4执行按键操作来发起,字幕请求中应至少包含字幕的语言,此外还可以包括用户设置的字幕的显示位置、字体、颜色、出现的时间等信息。
步骤S420,播控服务器从字幕源中获取与字幕请求的语言匹配的字幕信号。
播控服务器1根据字幕请求,从字幕源中获取与字幕请求的语言匹配的字幕信号,其中,字幕源可从影像服务器3、本地设置的字幕库以及云端字幕库获取。当有多个虚拟现实头戴设备4发送了字幕请求时,播控服务器1会收到多个不同的字幕请求,播控服务器1根据多个字幕请求从字幕源中获取多个字幕信号。
步骤S430,播控服务器在T0时刻将带有所述延时信息T的字幕信号同步发送至发起字幕请求的目标虚拟现实头戴设备的所述微处理模块。
播控服务器1根据多个目标虚拟现实头戴设备4发送的不同的字幕请求,将不同的字幕信号对应地发送给目标虚拟现实头戴设备4的微处理模块45。
步骤S440,目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输字幕信号。
目标虚拟现实头戴设备4的微处理模块45在T0+T时刻输字幕信号,使字幕信号与图像信号和音频信号能够同步输出。
由以上技术方案可知,本申请为了满足不同用户在观看电影时对字幕的不同需求,播控服务器1可接收来自虚拟现实头戴设备4的字幕请求;然后,播控服务器1从字幕源中获取与字幕请求的语言匹配的字幕信号;然后,播控服务器1在T0时刻将带有延时信息T的字幕信号同步发送至发起字幕请求的目标虚拟现实头戴设备4的微处理模块45;最后,目标虚拟现实头戴设备4的所述微处理模块45在T0+T时刻输字幕信号,实现了根据不同用户的对字幕的需求显示字幕,同时还能够保证字幕的现实时间与图像信号的输出时间保持同步。
图12本申请实施例提供的播放服务器输出弹幕信号的流程图。
如图12所示,在一种可选择的实施方式中,播放服务器输出弹幕信号的流程包括以下步骤:
步骤S510,当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器获取来自虚拟现实头戴设备的允许显示弹幕的请求。
不同的用户在观看电影时对弹幕的需求不同,有些用户希望关闭弹幕,有些用户希望开启弹幕,为了满足不同用户在观看电影时对弹幕的不同需求,播控服务器1可接收来自虚拟现实头戴设备4的弹幕请求,当用户希望显示弹幕时,用户可在虚拟现实头戴设备4执行按键操作来发起弹幕请求。
步骤S520,当虚拟现实头戴设备允许显示弹幕时,播控服务器从弹幕源中解析弹幕信号,弹幕信号包括时间线和每条弹幕的长度,所述时间线定义每条弹幕的出现时间。
示例地,弹幕通常为以下格式:
其中,时间线是定义每条弹幕的出现时间,弹幕的长度指的是弹幕的字符长度。
步骤S530,播控服务器根据每条弹幕的长度,向前修正时间线,生成弹幕修正信号。
弹幕通常是观影者对影片内容的实时评论,用户在对电影的某个时间节点的剧情进行弹幕评论时,通过手动输入的方式输入弹幕内容。因此,从用户想发送弹幕到用户输入完弹幕并成功发送的过程存在时间上的延迟,并且,弹幕的长度越长,用户输入弹幕的耗时就越长,弹幕的延迟就越大,因此,其他用户看到的弹幕都是不同程度地滞后于剧情的。本申请,为了缩小弹幕的延迟,根据弹幕的长度向前修正时间线,弹幕的长度越长,修正的幅度也越大。
示例地:修正时间线的结果为:
时间线(修正前) | 时间线(修正后) | 内容 |
00:20:30 | 00:20:28 | 这剧情好 |
00:21:12 | 00:21:05 | 我喜欢这个电影,我要再买一张票 |
00:22:07 | 00:22:04 | 男主还不出现? |
00:22:09 | 00:22:06 | 我要再刷一遍 |
00:24:48 | 00:24:46 | 前方高能 |
然后,根据修正了的时间线弹幕,生成弹幕修正信号。
步骤S540,播控服务器在T0时刻将带有延时信息T的弹幕修正信号同步发送至允许显示弹幕的目标虚拟现实头戴设备的所述微处理模块。
根据多个虚拟现实头戴设备4发送的弹幕请求,播控服务器1在T0时刻将带有延时信息T的弹幕修正信号同步发送至允许显示弹幕的目标虚拟现实头戴设备4的微处理模块45。
步骤S550,目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输出弹幕信号。
目标虚拟现实头戴设备4的微处理模块45在T0+T时刻输出弹幕信号到左显示屏41和右显示屏43,使弹幕信号与图像信号同步地显示在左显示屏41和右显示屏43上。
由以上技术方案可知,本申请实施例提供了一种虚拟现实播放系统。其中,虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;音频设备根据所处的空间环境进行设置,形成音响声效区域,在播控服务器的控制下输出与影像信号对应的同步音频信号给观影者;座椅平衡分布在音频设备的音响声效区域内,观影者坐着通过虚拟现实设备观看播控服务器的影像信号对应的画面。当进行影片播放时,通过播控服务器控制所有虚拟现实头戴设备的输出的影像信号和音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与音频设备输出的音频信号同步。从而,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
实施例二
本申请实施例提供了一种虚拟现实播放系统的同步播放方法,其中:所述虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅。
所述虚拟现实头戴设备包括左显示屏、左光学放大模组、右显示屏、右光学放大模组、微处理模块、固定部件和具有一定收纳空间的主框体;所述左光学放大模组设置于所述左显示屏前方,所述右光学放大模组设置于所述右显示屏前方,所述左显示屏和所述右显示屏和所述微处理模块置于所述主框体的收纳空间,所述左光学放大模组靠近所述左显示屏一端收纳在所述主框体的收纳空间,所述左光学放大模组另外一端凸出所述主框体的收纳空间,所述右光学放大模组靠近所述右显示屏一端收纳在所述主框体的收纳空间,所述右光学放大模组另外一端凸出所述主框体的收纳空间;
所述方法包括:
所述播控服务器控制所有虚拟现实头戴设备的输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步;
所述音频设备根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器的控制下输出与所述影像信号对应的同步音频信号给观影者;
所述座椅平衡分布在所述音频设备的音响声效区域内,观影者坐着通过所述虚拟现实头戴设备观看所述播控服务器的影像信号对应的画面;所述固定部件将所述主框体固定在观影者头部,且让所述左光学放大模组远离所述左显示屏的一端与观影者左眼睛适配和所述右光学放大模组远离所述右显示屏的一端与观影者右眼睛适配,所述微处理模块将从所述影像服务器获取的影像信号发送给所述左显示屏和所述右显示屏,所述左显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述左光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述右光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
由以上技术方案可知,本申请实施例提供了一种虚拟现实播放系统的同步播放方法。其中,虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;音频设备根据所处的空间环境进行设置,形成音响声效区域,在播控服务器的控制下输出与影像信号对应的同步音频信号给观影者;座椅平衡分布在音频设备的音响声效区域内,观影者坐着通过虚拟现实设备观看播控服务器的影像信号对应的画面。当进行影片播放时,通过播控服务器控制所有虚拟现实头戴设备的输出的影像信号和音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与音频设备输出的音频信号同步。从而,解决了现有技术中,由于多个虚拟现实头戴设备播放延时不同,而音频内容从公共的音频设备输出,导致观影者在进行观影时出现不同程度的声音与影像不同步的问题。
值得注意的是,本申请的虚拟现实头戴设备包括不限于单独的虚拟现实设备,以及具有增强现实和虚拟现实的混合现实设备,应该理解为具有虚拟现实的功能的头戴设备都应该包含在内。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种虚拟现实播放系统,其特征在于,所述虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;
所述虚拟现实头戴设备包括左显示屏、左光学放大模组、右显示屏、右光学放大模组、微处理模块、固定部件和具有一定收纳空间的主框体;所述左光学放大模组设置于所述左显示屏前方,所述右光学放大模组设置于所述右显示屏前方,所述左显示屏和所述右显示屏和所述微处理模块置于所述主框体的收纳空间,所述左光学放大模组靠近所述左显示屏一端收纳在所述主框体的收纳空间,所述左光学放大模组另外一端凸出所述主框体的收纳空间,所述右光学放大模组靠近所述右显示屏一端收纳在所述主框体的收纳空间,所述右光学放大模组另外一端凸出所述主框体的收纳空间;
所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步;
所述音频设备根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器的控制下输出与所述影像信号对应的同步音频信号给观影者;
所述座椅平衡分布在所述音频设备的音响声效区域内,用于观影者坐着通过所述虚拟现实头戴设备观看所述播控服务器的影像信号对应的画面;所述固定部件用于将所述主框体固定在观影者头部,且让所述左光学放大模组远离所述左显示屏的一端与观影者左眼睛适配和所述右光学放大模组远离所述右显示屏的一端与观影者右眼睛适配;
所述微处理模块被配置为将从所述播控服务器获取的影像信号发送给所述左显示屏和所述右显示屏,所述左显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述左光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述右光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
2.根据权利要求1所述的虚拟现实播放系统,其特征在于,所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步的方式包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个;
播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号;
播控服务器在T0时刻将带有延时信息T的影像信号同步发送至观影者佩戴的虚拟现实头戴设备的所述微处理模块;
所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面;
播控服务器在T0+T时刻将音频信号发送给音频设备,音频设备在T0+T时刻输出音频信号。
3.根据权利要求1所述的虚拟现实播放系统,其特征在于,所述播控服务器被配置为控制所有虚拟现实头戴设备输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步的方式包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器根据N(N≥1)个虚拟现实头戴设备的播放延时T1~TN,生成延时信息T,所述延时信息T的数值大于T1~TN中的任何一个;
播控服务器从影像服务器提供的片源信号中解析影像信号和音频信号;
在进行播放前,播控服务器将延时信息T对应时长的影像信号发给缓存服务器;
将所有虚拟现实头戴设备通过局域网与缓存服务器建立连接,所有虚拟现实头戴设备实时从缓存服务器获取存储的影像信号;
在进行播放时,音频设备和所有虚拟现实头戴设备同步输出音频信号和影像信号,且播控服务器实时将剩余影像信号从影像服务器发给缓存服务器。
4.根据权利要求1所述的虚拟现实播放系统,其特征在于,所述播控服务器还被配置为获取虚拟现实头戴设备的播放延时,包括:
播控服务器在影片放映前的Ts时刻向虚拟现实头戴设备发送用于测试播放延时的测试帧信号;
虚拟现实头戴设备的所述微处理模块接收所述测试帧信号,以及,无等待地将所述测试帧信号输出给所述左显示屏和所述右显示屏进行显示画面,并向播控服务器反馈测试帧信号的显示画面的时刻Tp;
播控服务器根据Ts和Tp,获取虚拟现实头戴设备的所述播放延时。
5.根据权利要求2所述的虚拟现实播放系统,其特征在于,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面的方式包括:
所述虚拟现实头戴设备的所述微处理模块缓存影像信号;
等待至T0+T时刻;
在T0+T时刻,输出缓存的影像信号给所述左显示屏和所述右显示屏进行显示画面。
6.根据权利要求1所述的虚拟现实播放系统,其特征在于,所述播控服务器还被配置为使虚拟现实头戴设备输出字幕信号,包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器接收来自虚拟现实头戴设备的字幕请求,所述字幕请求中包含字幕的语言;
播控服务器从字幕源中获取与字幕请求的语言匹配的字幕信号;
播控服务器在T0时刻将带有所述延时信息T的字幕信号同步发送至发起字幕请求的目标虚拟现实头戴设备的所述微处理模块;
目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输字幕信号。
7.根据权利要求1所述的虚拟现实播放系统,其特征在于,所述播控服务器还被配置为使虚拟现实头戴设备输出弹幕信号,包括:
当观影者在座椅上佩戴虚拟现实头戴设备进行观影时,播控服务器获取来自虚拟现实头戴设备的允许显示弹幕的请求;
当虚拟现实头戴设备允许显示弹幕时,播控服务器从弹幕源中解析弹幕信号,弹幕信号包括时间线和每条弹幕的长度,所述时间线定义每条弹幕的出现时间;
播控服务器根据每条弹幕的长度,向前修正时间线,生成弹幕修正信号;
播控服务器在T0时刻将带有延时信息T的弹幕修正信号同步发送至允许显示弹幕的目标虚拟现实头戴设备的所述微处理模块;
目标虚拟现实头戴设备的所述微处理模块在T0+T时刻输出弹幕信号。
8.根据权利要求2所述的虚拟现实播放系统,其特征在于,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面之前,还包括:
虚拟现实头戴设备监测是否接收到延时修正信息Tc;
当虚拟现实头戴设备接收到延时修正信息Tc时,虚拟现实头戴设备将延时信息T的数值修正为T+Tc。
9.根据权利要求2所述的虚拟现实播放系统,其特征在于,所述影像信号为全景影像信号,所述虚拟现实头戴设备的所述微处理模块在T0+T时刻输出影像信号给所述左显示屏和所述右显示屏进行显示画面的方式包括:
获取虚拟现实头戴设备的姿态角;
将所述姿态角给所述微处理模块;
所述微处理模块根据所述姿态角从所述全景影像信号中确定所述姿态角对应的影像信号;
所述微处理模块在T0+T时刻将所述姿态角对应的影像信号输出给所述左显示屏和所述右显示屏进行显示画面。
10.一种虚拟现实播放系统的同步播放方法,其特征在于,所述虚拟现实播放系统包括播控服务器、音频设备、影像服务器和多个配有虚拟现实头戴设备的座椅;
所述虚拟现实头戴设备包括左显示屏、左光学放大模组、右显示屏、右光学放大模组、微处理模块、固定部件和具有一定收纳空间的主框体;所述左光学放大模组设置于所述左显示屏前方,所述右光学放大模组设置于所述右显示屏前方,所述左显示屏和所述右显示屏和所述微处理模块置于所述主框体的收纳空间,所述左光学放大模组靠近所述左显示屏一端收纳在所述主框体的收纳空间,所述左光学放大模组另外一端凸出所述主框体的收纳空间,所述右光学放大模组靠近所述右显示屏一端收纳在所述主框体的收纳空间,所述右光学放大模组另外一端凸出所述主框体的收纳空间;
所述方法包括:
所述播控服务器控制所有虚拟现实头戴设备的输出的影像信号和所述音频设备输出的音频信号的输出时间,使所有虚拟现实头戴设备输出的影像信号与所述音频设备输出的音频信号同步;
所述音频设备根据所处的空间环境进行设置,形成音响声效区域,在所述播控服务器的控制下输出与所述影像信号对应的同步音频信号给观影者;
所述座椅平衡分布在所述音频设备的音响声效区域内,观影者坐着通过所述虚拟现实头戴设备观看所述播控服务器的影像信号对应的画面;所述固定部件将所述主框体固定在观影者头部,且让所述左光学放大模组远离所述左显示屏的一端与观影者左眼睛适配和所述右光学放大模组远离所述右显示屏的一端与观影者右眼睛适配;
所述微处理模块将从所述影像服务器获取的影像信号发送给所述左显示屏和所述右显示屏,所述左显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述左光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的左眼睛,所述右显示屏接收所述微处理模块发送的影像信号,在所述播控服务器的控制下输出所述影像信号并通过所述右光学放大模组放大所述影像信号输出的画面放大后的虚像呈现给观影者的右眼睛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730786.0A CN110691231A (zh) | 2018-07-05 | 2018-07-05 | 一种虚拟现实播放系统及其同步播放方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730786.0A CN110691231A (zh) | 2018-07-05 | 2018-07-05 | 一种虚拟现实播放系统及其同步播放方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110691231A true CN110691231A (zh) | 2020-01-14 |
Family
ID=69106733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810730786.0A Pending CN110691231A (zh) | 2018-07-05 | 2018-07-05 | 一种虚拟现实播放系统及其同步播放方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110691231A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111866564A (zh) * | 2020-06-24 | 2020-10-30 | 华龙电影数字制作有限公司 | 一种vr影院智能控制系统 |
CN113110234A (zh) * | 2021-05-11 | 2021-07-13 | 武汉灏存科技有限公司 | 联动控制系统及方法 |
CN113676720A (zh) * | 2021-08-04 | 2021-11-19 | Oppo广东移动通信有限公司 | 多媒体资源的播放方法、装置、计算机设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101064768A (zh) * | 2006-04-29 | 2007-10-31 | 李明 | 一种动态图像同步播放系统和方法 |
CN101807389A (zh) * | 2010-03-19 | 2010-08-18 | 上海博康智能网络科技有限公司 | 大屏拼接方法及系统 |
CN203870559U (zh) * | 2013-10-25 | 2014-10-08 | 梁权富 | 头戴式全景播放装置 |
CN105578199A (zh) * | 2016-02-22 | 2016-05-11 | 北京佰才邦技术有限公司 | 虚拟现实全景多媒体处理系统、方法及客户端设备 |
CN205987216U (zh) * | 2016-07-29 | 2017-02-22 | 上海米影信息科技有限公司 | 一种虚拟现实影院 |
KR20170086203A (ko) * | 2016-01-18 | 2017-07-26 | 김주호 | 스포츠 중계 서비스 제공 방법 |
CN107743271A (zh) * | 2017-10-19 | 2018-02-27 | 咪咕视讯科技有限公司 | 一种弹幕的处理方法、电子设备以及计算机可读存储介质 |
-
2018
- 2018-07-05 CN CN201810730786.0A patent/CN110691231A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101064768A (zh) * | 2006-04-29 | 2007-10-31 | 李明 | 一种动态图像同步播放系统和方法 |
CN101807389A (zh) * | 2010-03-19 | 2010-08-18 | 上海博康智能网络科技有限公司 | 大屏拼接方法及系统 |
CN203870559U (zh) * | 2013-10-25 | 2014-10-08 | 梁权富 | 头戴式全景播放装置 |
KR20170086203A (ko) * | 2016-01-18 | 2017-07-26 | 김주호 | 스포츠 중계 서비스 제공 방법 |
CN105578199A (zh) * | 2016-02-22 | 2016-05-11 | 北京佰才邦技术有限公司 | 虚拟现实全景多媒体处理系统、方法及客户端设备 |
CN205987216U (zh) * | 2016-07-29 | 2017-02-22 | 上海米影信息科技有限公司 | 一种虚拟现实影院 |
CN107743271A (zh) * | 2017-10-19 | 2018-02-27 | 咪咕视讯科技有限公司 | 一种弹幕的处理方法、电子设备以及计算机可读存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111866564A (zh) * | 2020-06-24 | 2020-10-30 | 华龙电影数字制作有限公司 | 一种vr影院智能控制系统 |
CN113110234A (zh) * | 2021-05-11 | 2021-07-13 | 武汉灏存科技有限公司 | 联动控制系统及方法 |
CN113110234B (zh) * | 2021-05-11 | 2023-03-31 | 武汉灏存科技有限公司 | 联动控制系统及方法 |
CN113676720A (zh) * | 2021-08-04 | 2021-11-19 | Oppo广东移动通信有限公司 | 多媒体资源的播放方法、装置、计算机设备及存储介质 |
CN113676720B (zh) * | 2021-08-04 | 2023-11-10 | Oppo广东移动通信有限公司 | 多媒体资源的播放方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11490132B2 (en) | Dynamic viewpoints of live event | |
WO2019158000A1 (zh) | 虚拟现实vr直播中的视角同步方法及装置 | |
US10359988B2 (en) | Shared experience of virtual environments | |
US20140168277A1 (en) | Adaptive Presentation of Content | |
US20170237941A1 (en) | Realistic viewing and interaction with remote objects or persons during telepresence videoconferencing | |
CN113518232B (zh) | 视频显示方法、装置、设备和存储介质 | |
JP2006041887A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
CN110691231A (zh) | 一种虚拟现实播放系统及其同步播放方法 | |
US9667951B2 (en) | Three-dimensional television calibration | |
US11825170B2 (en) | Apparatus and associated methods for presentation of comments | |
US11974005B2 (en) | Cell phone content watch parties | |
US20230179822A1 (en) | Karaoke Content Watch Parties | |
EP4210336A1 (en) | Display device and operation method thereof | |
KR20050091788A (ko) | 컨텐트의 프리젠테이션을 보강하는 방법 및 시스템 | |
JP2019047391A (ja) | 字幕付きコンテンツ情報配信装置、字幕付きコンテンツ情報配信方法、及び字幕付きコンテンツ情報配信プログラム | |
US20240236290A9 (en) | Image generation device, program, image generation method, and image displaying system | |
KR20180092469A (ko) | 3d카메라와 웹 실시간 통신을 이용한 실시간 프레젠테이션 방송 방법 | |
TW202213992A (zh) | 即時三維影像顯示的直播方法 | |
WO2024046584A1 (en) | Method of joint viewing remote multimedia content | |
CN113747139A (zh) | 基于移动平台的高清3d实现方法、装置、设备及存储介质 | |
CN114283055A (zh) | 一种虚拟现实设备及图片显示方法 | |
WO2020135744A1 (zh) | 裸眼三维虚拟现实显示装置及显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200114 |
|
RJ01 | Rejection of invention patent application after publication |