VR直播中视频图像的处理方法、设备及系统
技术领域
本公开涉及VR视频直播技术领域,更具体地,涉及一种VR直播中视频图像的处理方法、设备及系统。
背景技术
VR(Virtual Reality,虚拟现实)直播,是VR与直播的结合。VR直播具备三个特点:全景、3D以及交互。通常采用360度全景的拍摄设备捕捉超清晰、多角度的画面,每一帧画面都是一个360的全景,用户可以通过VR设备选择上下左右任意角度进行观看,体验逼真的沉浸感。
VR直播将采集、处理、分发和播放集成一体,VR视频采集处理设备在采集视频图像后进行实时拼接,再对拼接后的视频图像进行编码并推送到云端服务器进行分发,用户通过VR设备进行观看。
现有的VR直播中,用户可以通过从云端服务器获取视频图像进行观看,但无法根据需要去控制视频采集处理设备的拍摄,获取所需角度的详细视频图像。因此,发明人认为,有必要针对上述问题中的至少一个进行改进。
发明内容
本公开的一个目的是提供一种VR直播中视频图像的处理的新的技术方案。
根据本公开的第一方面,提供了一种VR直播中视频图像的处理方法,所述方法包括:
获取用户的眼部数据以及当前头部姿态;
根据所述眼部数据确定用户眼部的注视区域坐标;
根据所述注视区域坐标以及所述当前头部姿态,按照预设处理方式处理所述视频图像。
可选的,所述获取用户的眼部数据,包括:
通过红外光源和红外摄像头获取用户的眼部图像;
通过红外传感器获取用户的眼部活动信息;其中,所述眼部活动信息包括注视时间和眨眼次数;
将所述用户的眼部图像及所述眼部活动信息确定为所述眼部数据;
所述根据所述眼部数据确定用户眼部的注视区域坐标,包括:
根据所述用户的眼部图像,确定用户的注视点坐标;
根据所述注视点坐标和所述眼部活动信息,确定用户的所述注视区域坐标。
可选的,所述根据所述用户的眼部图像,确定用户的注视点坐标,包括:
通过梯度算法对所述眼部图像进行计算,得到瞳孔中心点以及光斑中心点;
通过最大类间方差法OTSU算法,生成与所述瞳孔中心点对应的瞳孔图像,以及与所述光斑中心点对应的光斑图像;
通过重心法计算得到所述瞳孔图像中的瞳孔中心点坐标,以及所述光斑图像中的光斑中心点坐标;
根据所述瞳孔中心点坐标、光斑中心点坐标,利用瞳孔-角膜向量反射法计算得到用户的注视点坐标。
可选的,所述根据注视区域坐标以及所述当前头部姿态,按照预设处理方式处理所述视频图像,包括:
根据所述注视区域坐标以及所述当前头部姿态,生成视频采集控制命令;
将所述视频采集控制命令发送至视频采集处理设备;
接收所述视频采集处理设备发送的视频图像;
展示所述视频图像;
其中,所述视频图像是所述视频采集处理设备根据注视区域坐标确定对应的摄像头,并根据所述当前头部姿态调整所述摄像头的姿态后采集获得的。
可选的,所述根据注视区域坐标以及所述当前头部姿态,按照预设处理方式处理所述视频图像包括:
根据所述注视区域坐标以及所述当前头部姿态,确定视频图像的待处理区域坐标;
通过注视点渲染法,对所述待处理区域坐标范围内的视频图像进行渲染;
展示渲染后的所述视频图像。
可选的,所述获取用户的当前头部姿态,包括:
通过运动传感器获取用户的头部运动数据;
通过数据融合算法对所述头部运动数据进行计算,得到所述用户的当前头部姿态。
根据本公开的第二方面,提供了一种VR直播中视频图像的处理方法,所述方法包括:
接收来自VR设备的视频采集控制命令;所述视频采集控制命令中包括用户的注视区域坐标以及当前头部姿态;
根据所述用户的注视区域坐标确定对应的摄像头;
根据所述当前头部姿态,调整所述摄像头的姿态;
通过调整姿态后的摄像头采集视频图像;
对所述视频图像进行处理后发送至所述VR设备。
可选的,所述调整所述摄像头的姿态,包括:
调整所述摄像头以下参数中的至少一种:焦距、成像倍率以及旋转角度;和/或,
所述对所述视频图像进行处理,包括:
对所述视频图像进行视频帧拼接处理、投影变换处理和编码处理。
根据本公开的第三方面,提供了一种VR设备,包括:存储器和处理器,所述存储器用于存储指令;所述指令用于控制所述处理器进行操作,以执行如本公开第一方面中任意一项所述的VR直播中视频图像的处理方法。
根据本公开的第四方面,提供了一种视频采集处理设备,包括:存储器和处理器,所述存储器用于存储指令;所述指令用于控制所述处理器进行操作,以执行如本公开第二方面中任意一项所述的VR直播中视频图像的处理方法。
根据本公开的第五方面,提供了一种VR直播中视频图像的处理系统,所述系统包括云端服务器,如本公开第三方面所述的VR设备以及如本公开第四方面所述的视频采集处理设备;
所述VR设备与所述视频采集处理设备通过所述云端服务器进行通讯。
根据本公开,可以由VR设备根据用户的注视区域及当前头部姿态角,确定视频图像的待处理区域坐标,并对待处理区域坐标范围内的视频图像进行注视点渲染,或者向视频采集处理设备发送控制命令,以控制视频采集处理设备中对应的摄像头调整姿态并采集视频图像发送给VR设备,从而获取用户所需角度的详细视频图像,提升用户体验。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本公开实施例的VR直播中视频图像的处理系统100的组成结构示意图。
图2是根据本公开实施例一的VR直播中视频图像的处理方法的流程图。
图3是根据本公开实施例的VR设备的结构示意图。
图4是根据本公开实施例二的VR直播中视频图像的处理方法的流程图。
图5是根据本公开实施例的视频采集处理设备的结构示意图。
图6是根据本公开实施例的VR直播中视频图像的处理系统的例子的结构示意图。
图7是根据本公开实施例的VR直播中视频图像的处理系统的信号流程图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是根据本公开实施例的VR直播中视频图像的处理系统100的组成结构示意图。
根据图1所示,本实施例的VR直播中视频图像的处理系统100包括云端服务器1000、VR设备2000及视频采集处理设备3000。在该VR直播中视频图像的处理系统100中,云端服务器1000与VR设备2000、视频采集处理设备3000通过网络4000进行通信连接。
云端服务器1000提供数据分发、存储和控制命令分发等功能。云端服务器1000可以是整体式服务器或是跨多计算机或计算机数据中心的分散式服务器。云端服务器1000可以是各种类型的,例如但不限于,网络服务器,新闻服务器,邮件服务器,消息服务器,广告服务器,文件服务器,应用服务器,交互服务器,数据库服务器,或代理服务器。在一些实施例中,每个服务器可以包括硬件,软件,或用于执行服务器所支持或实现的合适功能的内嵌逻辑组件或两个或多个此类组件的组合。例如,服务器例如刀片服务器、云端服务器等,或者可以是由多台服务器组成的服务器群组,可以包括上述类型的服务器中的一种或多种等等。
在一个实施例中,云端服务器1000可以如图1所示,包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600。
在该实施例中,云端服务器1000还可以包括扬声器、麦克风等等,在此不做限定。
处理器1100可以是专用的服务器处理器,也可以是满足性能要求的台式机处理器、移动版处理器等,在此不做限定。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括各种总线接口,例如串行总线接口(包括USB接口)、并行总线接口等。通信装置1400能够进行有线或无线通信。显示装置1500例如是液晶显示屏、LED显示屏触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘等。
尽管在图1中示出了云端服务器1000的多个装置,但是,本公开可以仅涉及其中的部分装置,例如,云端服务器1000只涉及存储器1200、通信装置1400以及处理器1100。
VR设备2000例如是VR头盔、VR眼镜等。
在一个实施例中,VR设备2000可以如图1所示,包括处理器2100、存储器2200、接口装置2300、通信装置2400、显示装置2500、输入装置2600、扬声器2700、麦克风2800等等。
处理器2100可以是中央处理器CPU、微处理器MCU等。存储器2200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置2300例如包括USB接口、耳机接口等。通信装置2400能够进行有线或无线通信,通信装置1400至少能够通过所述云端服务器1000与所述视频采集处理设备3000进行通信,以至少能够实施本发明任意实施例的VR直播中视频图像的处理方法。显示装置2500例如是液晶显示屏、触摸显示屏等。输入装置2600例如可以包括触摸屏、键盘、体感输入等。用户可以通过扬声器2700和麦克风2800输入/输出语音信息。
尽管在图1中示出了VR设备2000的多个装置,但是,本公开可以仅涉及其中的部分装置,例如,VR设备2000只涉及通信装置2400、显示装置2500、存储器2200和处理器2100。
视频采集处理设备3000可以如图1所示,包括处理器3100、存储器3200、接口装置3300、通信装置3400、显示装置3500、输入装置3600、扬声器3700、麦克风3800,等等。其中,处理器3100可以是微处理器MCU等。存储器3200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置3300例如包括USB接口、耳机接口等。通信装置3400例如能够进行有线或无线通信,又例如能够进行短距离和远程通信。显示装置3500例如可以是输出信号的装置,可以显示装置,例如液晶显示屏、触摸显示屏等,也可以是扬声器等输出语音信息等。输入装置3600例如可以包括触摸屏、键盘等,也可以是麦克风输入语音信息。
尽管在图1中示出了视频采集处理设备3000的多个装置,但是,本公开可以仅涉及其中的部分装置,例如,视频采集处理设备3000只涉及通信装置3400、存储器3200和处理器3100。
本实施例中,视频采集处理设备3000的存储器3200用于存储指令,该指令用于控制处理器3100进行操作以执行本公开任意实施例的VR直播中视频图像的处理方法。技术人员可以根据本公开所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
网络4000可以是无线通信网络也可以是有线通信网络,可以是局域网也可以是广域网。在图1所示的VR直播中视频图像的处理系统100中,VR设备2000和云端服务器1000,视频采集处理设备3000和云端服务器1000,可以通过网络4000进行通信。
<实施例一>
<方法>
图2是根据本公开实施例一的VR直播中视频图像的处理方法的流程图。本实施例的方法可以由VR头盔、VR眼镜等VR设备执行,该VR设备例如可以是图1中所示的VR设备2000。
如图2所示,在步骤5100,获取用户的眼部数据以及当前头部姿态。
其中,所述眼部数据可以包括眼部图像和眼部活动信息,所述眼部活动信息例如可以包括注视时间和眨眼次数。用户的当前头部姿态例如可以是用户前倾、后仰、向左或向右转动头部等姿态。
步骤5200,根据所述眼部数据确定用户眼部的注视区域坐标。
通过追踪用户的眼部数据,可以确定出用户感兴趣的注视区域,也就是用户眼部的注视区域坐标,从而根据所确定出的注视区域坐标以及获取的当前头部姿态,确定出需要进行处理的视频图像的区域范围。
步骤5300,根据所述注视区域坐标以及所述当前头部姿态,按照预设处理方式处理所述视频图像。
其中,按照预设处理方式处理视频图像,以获得注视区域坐标对应的区域范围内的视频图像。所述预设处理方式可以是控制采集视频图像的摄像头的姿态来采集对应于所述注视区域坐标的区域范围内的视频图像。或者,所述预设处理方式可以是对所述注视区域坐标的区域范围内的视频图像进行重点渲染。
通过本实施例的VR直播中视频图像的处理方法,可以获取用户所需角度的详细视频图像,提升用户体验。
在本实施例中,VR设备上设置有红外光源、红外摄像头和红外传感器。红外光源投射向用户眼部,VR设备通过红外摄像头拍摄用户的眼部图像,眼部图像中包含与红外光源在用户眼中的投射点对应的光斑。同时,VR设备通过红外传感器获取用户的眼部活动信息,例如,用户的眨眼次数,以及两次眨眼间的注视时长。VR设备将所述用户的眼部图像及所述眼部活动信息确定为所述眼部数据。
在本实施例中,VR设备获取用户的当前头部姿态可以包括:通过运动传感器获取用户的头部运动数据;通过数据融合算法对所述头部运动数据进行计算,得到所述用户的当前头部姿态。其中,运动传感器例如可以包括用来检测用户头部转动角速度的陀螺仪、用来检测用户头部的转动速度的加速度计、用来检测用户头部转动方向的地磁传感器等。
通常,VR设备在获取用户的当前头部姿态时包含用户头部处于静态和动态两种情况。在一个例子中,用户头部处于静态情况时,可以由加速度计和地磁传感器获取到的头部运动数据,VR设备通过数据融合算法计算得到用户的当前头部姿态。
在另一个例子中,用户头部处于动态情况时,可以由陀螺仪、加速度计和地磁传感器获取到的头部运动数据,VR设备通过数据融合算法计算得到用户的当前头部姿态。
在本实施例中,VR设备根据所述眼部数据确定用户眼部的注视区域坐标可以包括:根据所述用户的眼部图像,确定用户的注视点坐标。
具体的,VR设备在确定用户的注视点坐标时,可以通过梯度算法对所述眼部图像进行计算,得到瞳孔中心点以及光斑中心点。通过最大类间方差法(OTSU)算法,分别生成与所述瞳孔中心点对应的瞳孔图像,以及与所述光斑中心点对应的光斑图像。通过重心法计算得到所述瞳孔图像中的瞳孔中心点坐标,以及所述光斑图像中的光斑中心点坐标。在得到瞳孔中心点坐标和光斑中心点坐标后,根据所述瞳孔中心点坐标、光斑中心点坐标,利用瞳孔-角膜向量反射法计算即可得到用户的注视点坐标。
VR设备在确定用户的注视点坐标后,根据所述注视点坐标和所述眼部活动信息,确定用户的所述注视区域坐标。
例如,假设VR设备通过红外传感器获取到用户注视某一点/方向的注视时长为1s,且眨眼两次时,VR设备将该注视点坐标对应的区域范围内的视频图像确定为需要按照预设处理方式处理的视频图像。
在一个例子中,在按照预设处理方式处理所述视频图像时,为了节约视频图像的传输带宽,提高传输效率,可以通过控制视频采集处理设备上采集视频图像的摄像头的姿态,使该摄像头仅采集对应于所述注视区域坐标的区域范围内的视频图像的方式实现视频图像的处理。
具体的,VR设备可以根据所述注视区域坐标以及所述当前头部姿态,生成视频采集控制命令;将所述视频采集控制命令发送至视频采集处理设备;接收所述视频采集处理设备发送的视频图像;展示所述视频图像;其中,所述视频图像是所述视频采集处理设备根据其接收的视频采集控制命令,对该视频采集控制命令进行解析,获得注视区域坐标和当前头部姿态,基于注视区域坐标,确定与该注视区域坐标对应的摄像头,并根据所述当前头部姿态调整所述摄像头的姿态后采集获得的。
在另一个例子中,在按照预设处理方式处理所述视频图像时,由于人类的视觉系统中,中央凹为视场提供了更清晰的视觉,而外围视场的视觉质量则相对较低,因此利用这一特性,在本实施例中,为了减少数据计算量,采用对用户注视区域坐标的区域范围内的视频图像进行重点渲染,而对用户注视区域坐标的区域范围之外的视频图像以较低的分辨率进行渲染的方式,处理所述视频图像。
具体的,VR设备可以根据所述注视区域坐标以及所述当前头部姿态,确定视频图像的待处理区域坐标。通过注视点渲染法,对所述待处理区域坐标范围内的视频图像进行渲染;展示渲染后的所述视频图像。
例如,用户在佩戴VR设备时向某个方向转动头部,VR设备获取用户头部转动过程中的多个注视区域坐标,并获取用户头部的转动方向、转动速度等数据,根据多个注视区域坐标和转动方向、转动速度,确定出视频图像的待处理区域坐标。
本实施例的VR直播中视频图像的处理方法,可以根据用户的注视区域及当前头部姿态角,确定视频图像的待处理区域坐标,并对待处理区域坐标范围内的视频图像进行注视点渲染,或者向视频采集处理设备发送控制命令,以控制视频采集处理设备中对应的摄像头调整姿态并采集视频图像发送给VR设备,从而获取用户所需角度的详细视频图像,提升用户体验。
<VR设备>
图3是根据本公开实施例的VR设备的结构示意图。
如图3所示,本实施例的VR设备6000可以包括存储器6100和处理器6200,所述存储器6100用于存储指令;所述指令用于控制所述处理器6200进行操作,以执行前面参照图2所示的VR直播中视频图像的处理方法中的操作。技术人员可以根据本公开所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
本实施例的VR设备,可用于执行上述方法实施例一的技术方案,其实现原理和技术效果类似,此处不再赘述。
<实施例二>
<方法>
图4是根据本公开实施例二的VR直播中视频图像的处理方法的流程图。本实施例的方法可以由视频采集处理设备执行,该视频采集处理设备例如可以是图1中所示的视频采集处理设备3000。
如图4所示,在步骤7100,接收来自VR设备的视频采集控制命令。
其中,所述视频采集控制命令中包括用户的注视区域坐标以及当前头部姿态。
步骤7200,根据所述用户的注视区域坐标确定对应的摄像头。
本步骤中,可以根据所述注视区域坐标,确定与注视区域坐标的位置对应的摄像头。或者,在视频采集处理设备中预先存储有区域坐标与摄像头的对应关系表,在获取到用户的注视区域坐标后,可以通过查询预存的对应关系表,确定与所述注视区域坐标对应的摄像头。
在本实施例中,确定与该注视区域坐标对应的摄像头可以是从多个摄像头中确定出一个摄像头作为与注视区域坐标对应的摄像头;或者确定出多个视场范围包括注视区域坐标的摄像头作为与注视区域坐标对应的摄像头。
步骤7300,根据所述当前头部姿态,调整所述摄像头的姿态。
其中,所述调整所述摄像头的姿态包括调整摄像头的以下参数中的至少一种:焦距、成像倍率以及旋转角度。
例如,所述当前头部姿态为后仰时,调整所述摄像头的焦距,缩小成像倍率。所述当前头部姿态为前倾时,调整所述摄像头焦距,放大倍率。所述当前头部姿态为转动头部时,随着头部转动的方向及角度调整所述摄像头的旋转方向和旋转角度。
步骤7400,通过调整姿态后的摄像头采集视频图像。
此时所采集的视频图像就是用户感兴趣区域的视频图像,即用户的注视区域坐标的区域范围内的视频图像。
步骤7500,对所述视频图像进行处理后发送至所述VR设备。
本步骤中,对所述视频图像进行处理可以包括:对所述视频图像进行视频帧拼接处理、投影变换处理和编码处理。
本实施例的VR直播中视频图像的处理方法,通过接收来自VR设备的视频采集控制命令,根据所述视频采集控制命令中的用户的注视区域坐标确定对应的摄像头,根据所述视频采集控制命令中的当前头部姿态,调整所述摄像头的姿态。并通过调整姿态后的摄像头采集视频图像,对所述视频图像进行处理后发送至所述VR设备。从而可以获取用户所需角度的详细视频图像,节约视频图像的传输带宽,提高传输效率,进而提升用户体验。
<视频采集处理设备>
图5是根据本公开实施例的视频采集处理设备的结构示意图。
如图3所示,本实施例的视频采集处理设备8000可以包括存储器8100和处理器8200,所述存储器8100用于存储指令;所述指令用于控制所述处理器8200进行操作,以执行前面参照图4所示的VR直播中视频图像的处理方法中的操作。技术人员可以根据本公开所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
本实施例的视频采集处理设备,可用于执行上述方法实施例二的技术方案,其实现原理和技术效果类似,此处不再赘述。
<例子>
图6是根据本公开实施例的VR直播中视频图像的处理系统的例子的结构示意图。
如图6所示,本实施例的VR直播中视频图像的处理系统,可以包括视频采集处理设备、云端服务器和VR设备。
具体的,在视频采集处理设备中可以包括摄像头变换采集模块和视频处理模块。其中,摄像头变换采集模块采集视频图像,并将采集到的视频图像发送至视频处理模块。视频处理模块接收到视频图像后,对视频图像依次进行预处理、实时拼接、投影变换及编码处理,将处理后的视频图像推送到云端服务器。
具体的,云端服务器包括流分发模块、视频图像存储模块和命令控制模块。其中,流分发模块将来自视频采集处理设备的视频图像进行分发。视频图像存储模块对视频图像进行存储。命令控制模块用于对VR直播中视频图像的处理系统中的控制命令进行统一的中转和分发。
具体的,VR设备可以是VR眼镜、VR头盔等电子设备。在VR设备中可以包括视频播放模块、头动识别控制模块和眼动追踪控制模块。视频播放模块从云端服务器拉取视频图像,然后解码播放。
图7是根据本公开实施例的VR直播中视频图像的处理系统的信号流程图。
如图7所示,在步骤9100,VR设备的眼动追踪控制模块获取用户的眼部数据,VR设备的头动识别控制模块获取用户的当前头部姿态。
需要说明的是,眼动追踪控制模块例如可以包括红外光源、红外摄像头和红外传感器。红外光源的投射向用户眼部,眼动追踪控制模块通过红外摄像头获取用户的眼部图像,该眼部图像中包含与红外光源在用户眼中的投射点对应的光斑,眼动追踪控制模块通过红外传感器获取用户的眼部活动信息,如,眨眼次数和两次眨眼之间的注视时长。
头动识别控制模块通过运动传感器,例如,使用包含3轴陀螺仪、3轴加速度计、3轴地磁传感器的9轴运动传感器获取用户的头部运动数据,再通过数据融合算法对所述头部运动数据进行计算,得到所述用户的当前头部姿态。
在步骤9200,VR设备的眼动追踪控制模块根据所述眼部数据确定用户眼部的注视区域坐标。
具体的,可以先通过梯度算法对所述眼部图像进行计算,得到瞳孔中心点以及光斑中心点。再通过OTSU算法,分别生成与所述瞳孔中心点对应的瞳孔图像,以及与所述光斑中心点对应的光斑图像。然后通过重心法计算得到所述瞳孔图像中的瞳孔中心点坐标,以及所述光斑图像中的光斑中心点坐标。在得到瞳孔中心点坐标和光斑中心点坐标后,根据所述瞳孔中心点坐标、光斑中心点坐标,利用瞳孔-角膜向量反射法计算得到用户的注视点坐标。在得到用户的注视点坐标后,再根据所述注视点坐标和所述眼部活动信息,确定用户的所述注视区域坐标。
在步骤9300,VR设备根据注视区域坐标和当前头部姿态,生成视频采集控制命令,并发送至云端服务器。
其中,所述视频采集控制命令中包括用户的注视区域坐标以及当前头部姿态。
在步骤9400,云端服务器的命令控制模块接收视频采集控制命令,将视频采集控制命令发送至视频采集处理设备的摄像头变换采集模块。
在步骤9500,视频采集处理设备的摄像头变换采集模块接收控制命令,对控制命令进行解析,得到注视区域坐标和当前头部姿态;根据注视区域坐标确定与该注视区域坐标对应的摄像头,并根据当前头部姿态调整摄像头的姿态,采集视频图像。
其中,所述调整所述摄像头的姿态包括调整摄像头的以下参数中的至少一种:焦距、成像倍率以及旋转角度。例如,所述当前头部姿态为后仰时,调整所述摄像头的焦距,缩小成像倍率。所述当前头部姿态为前倾时,调整所述摄像头焦距,放大倍率。所述当前头部姿态为转动头部时,随着头部转动的方向及角度调整所述摄像头的旋转方向和旋转角度。
在步骤9600,视频采集处理设备的视频处理模块对摄像头变换采集模块所采集的视频图像依次进行预处理、实时拼接、投影变换及编码处理后,发送至云端服务器的流分发模块。
在步骤9700,云端服务器的流分发模块接收视频图像存储至视频图像存储模块,并将视频图像发送至VR设备的视频播放模块。
在步骤9800,VR设备的视频播放模块接收视频图像,并对该视频图像进行解码播放。
本实施例的VR直播中视频图像的处理系统,通过控制视频采集处理设备中采集视频图像的摄像头的姿态的方式,采集对应于注视区域坐标的区域范围内的视频图像。从而可以获取用户所需角度的详细视频图像,节约视频图像的传输带宽,提高传输效率,进而提升用户体验。
本领域技术人员公知的是,随着诸如大规模集成电路技术的电子信息技术的发展和软件硬件化的趋势,要明确划分计算机系统软、硬件界限已经显得比较困难了。因为,任何操作可以软件来实现,也可以由硬件来实现。任何指令的执行可以由硬件完成,同样也可以由软件来完成。对于某一机器功能采用硬件实现方案还是软件实现方案,取决于价格、速度、可靠性、存储容量、变更周期等非技术性因素。对于技术人员来说,软件实现方式和硬件实现方式是等同的。技术人员可以根据需要选择软件或硬件来实现上述方案。因此,这里不对具体的软件或硬件进行限制。
本发明可以是设备、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。