CN109788359B - 一种视频数据处理方法和相关装置 - Google Patents
一种视频数据处理方法和相关装置 Download PDFInfo
- Publication number
- CN109788359B CN109788359B CN201711121878.0A CN201711121878A CN109788359B CN 109788359 B CN109788359 B CN 109788359B CN 201711121878 A CN201711121878 A CN 201711121878A CN 109788359 B CN109788359 B CN 109788359B
- Authority
- CN
- China
- Prior art keywords
- video data
- terminal
- data
- processed
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明实施例公开了一种视频数据处理方法和相关装置,方法包括:获取第一终端发送的视频直播请求;若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;第二终端是第一终端发送的视频直播请求所请求的目标终端;若视频直播请求中携带串行显示标识,则将第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将融合视频数据与第二待处理视频数据进行整合,得到第一目标视频数据;将第一目标视频数据下发至第一终端。采用本发明,可以对多源视频数据进行融合,从而丰富视频数据的显示方式和显示效果。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种视频数据处理方法和相关装置。
背景技术
随着移动通讯技术的快速发展,各种即时通讯终端中都内置了摄像头,并且常常有前后两个摄像头,以为用户提供更多的拍摄视角。
但是,在现有的即时通讯平台中,当用户A与用户B进行即时通讯(例如,视频聊天)时,用户A可以通过其本地即时通讯终端获取到单个视频流,即该单个视频流可以是前置摄像头所采集到的视频数据,或是后置摄像头所采集到的视频数据,随后,该用户A所持有的即时通讯终端可将该单个视频流发送给服务器。当该服务器接收到用户B通过其本地即时通讯终端所采集到的单个视频流时,可以进一步将这两个独立的视频流实时添加至相应的显示窗口,再将最终的聊天视频数据发送给用户A和用户B,若用户A和用户B都是打开前置摄像头,那么用户A和用户B都只能在聊天视频数据中看到自己的头像视频和对方的头像视频,即聊天视频数据中只包含两个视频流,可见目前的视频聊天显示方式过于固定,且显示效果也较为单一。
发明内容
本发明实施例提供一种视频数据处理方法和相关装置,可以丰富视频聊天的显示方式和显示效果。
本发明一方面提供了一种视频数据处理方法,包括:
获取第一终端发送的视频直播请求;
若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
将所述第一目标视频数据下发至所述第一终端。
其中,所述将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,包括:
识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;
若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;
将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;所述融合视频数据中的所述目标图像数据具备立体展示属性。
其中,所述将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据,包括:
获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;
根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;
在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强显示模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据。
其中,所述方法还包括:
若接收到对所述融合视频数据中的所述目标图像数据的调整指令,则根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
其中,所述将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据,包括:
获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;
若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据;
将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
其中,所述方法还包括:
若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;
将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
其中,所述方法还包括:
若接收到所述第一终端所发送的切换指令,则根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
本发明另一方面提供了一种视频数据处理方法,包括:
第一终端向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
其中,所述方法还包括:
若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
本发明又一方面提供了一种视频数据处理装置,所述视频数据处理装置应用于服务器,包括:
请求获取模块,用于获取第一终端发送的视频直播请求;
视频数据接收模块,用于若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
视频数据融合模块,用于若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
视频数据整合模块,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
第一数据下发模块,用于将所述第一目标视频数据下发至所述第一终端。
其中,所述视频数据融合模块包括:
特征标识识别单元,用于识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;
目标区域创建单元,用于若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;
视频数据融合单元,用于将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;所述融合视频数据中的所述目标图像数据具备立体展示属性。
其中,所述视频数据融合单元包括:
像素值获取子单元,用于获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;
模型创建子单元,用于根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;
数据映射子单元,用于在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强显示模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据。
其中,所述视频数据融合模块还包括:
目标数据调整单元,用于若接收到对所述融合视频数据中的所述目标图像数据的调整指令,则根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
其中,所述视频数据整合模块包括:
参数值获取单元,用于获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;
渲染处理单元,用于若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据;
目标数据获取单元,用于将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
其中,所述装置还包括:
并行窗口创建模块,用于若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;
第二数据下发模块,用于将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
其中,所述装置还包括:
视频数据切换模块,用于若接收到所述第一终端所发送的切换指令,则根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
本发明又一方面提供了一种视频数据处理装置,所述视频数据处理装置应用于第一终端,包括:
请求发起模块,用于向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
视频数据采集模块,用于采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
视频数据获取模块,用于获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
视频数据融合模块,用于若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
视频数据整合模块,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
其中,所述装置还包括:
视频数据添加模块,用于若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
本发明又一方面提供了一种视频数据处理装置,所述视频数据处理装置应用于服务器,包括:处理器、存储器以及网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于连接第一终端,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行本发明实施例中上述一方面中的方法。
本发明又一方面提供了一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,当所述处理器执行所述程序指令时执行本发明实施例中上述一方面中的方法。
本发明又一方面提供了一种视频数据处理装置,所述视频数据处理装置应用于第一终端,包括:处理器、存储器以及网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于连接服务器,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行本发明实施例中上述另一方面中的方法。
本发明又一方面提供了一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,当所述处理器执行所述程序指令时执行本发明实施例中上述另一方面中的方法。
本发明实施例通过获取第一终端发送的视频直播请求;若接收到视频直播请求所请求的第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;将所述第一目标视频数据下发至所述第一终端。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
附图说明
为了说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作介绍。
图1是本发明实施例提供的一种网络架构的结构示意图;
图2是本发明实施例提供的一种视频数据处理方法的流程示意图;
图3a和图3b是本发明实施例提供的一种第一待处理视频数据的示意图;
图4是本发明实施例提供的一种获取融合视频数据的示意图;
图5是本发明实施例提供的一种获取第一目标视频数据的示意图;
图6是本发明实施例提供的另一种视频数据处理方法的流程示意图;
图7是本发明实施例提供的一种调整目标图像数据的示意图;
图8是本发明实施例提供的一种获取第二目标视频数据的示意图;
图9是本发明实施例提供的一种视频数据交互方法的流程示意图;
图10是本发明实施例提供的又一种视频数据处理方法的流程示意图;
图11是本发明实施例提供的另一种视频数据交互方法的流程示意图;
图12是本发明实施例提供的一种视频数据处理装置的结构示意图;
图13是本发明实施例提供的另一种视频数据处理装置的结构示意图;
图14是本发明实施例提供的又一种视频数据处理装置的结构示意图;
图15是本发明实施例提供的又一种视频数据处理装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
请参见图1,是本发明实施例提供的一种网络架构的结构示意图。如图1所示,所述网络架构可以包括服务终端2000以及用户终端集群;所述用户终端集群可以包括多个用户终端,如图1所示,具体包括用户终端3000a、用户终端3000b、…、用户终端3000n;
所述用户终端3000a、用户终端3000b、…、用户终端3000n可以分别与所述服务终端2000进行网络连接。
如图1所示,所述服务终端2000可用于获取某社交平台上所有用户和与所有用户所分别对应的视频行为数据。例如,以互为好友的任意两个用户之间所进行的视频行为为例,该服务终端2000可用于获取第一终端(比如,用户A所持有的用户终端3000a)所发起的视频直播请求,并可接收到该视频直播请求所请求的第二终端(比如,用户B所持有的用户终端3000b)发送的确认响应消息。该确认响应消息可用于表征已开启该第一终端与该第二终端之间的视频通话权限,即该用户终端3000b接收到该服务终端2000所转发的视频直播请求所执行的响应操作,故而生成相应的确认响应消息。因此,该服务终端2000可用于实时接收第一终端(即用户终端3000a)所发送的第一待处理视频数据以及第二终端(用户终端3000b)所发送的第二待处理视频数据,并可进一步通过AI(Artificial Intelligence,人工智能)技术,AR(Augmented Reality,增强现实)技术以及图像处理技术,对接收到的多源视频流(即第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据中的第三方向视频数据和/或第四方向视频数据)进行立体融合,以提高视频数据的合成质量,从而改善视频数据的显示效果。其中,第一终端和第二终端均具备前、后两个摄像头,因此,第一方向视频数据和第三方向视频数据可以定义为前置摄像头所采集到的视频数据,第二方向视频数据和第四方向视频数据可以定义为后置摄像头所采集到的视频数据。
其中,如图1所示,所述用户终端可以为平板、个人电脑、智能手机或具有前、后置摄像头的移动互联网设备。
其中,所述服务终端可以为与某社交平台对应的服务器。
其中,所述AI技术即为人工智能技术,可对接收到的数据进行分类处理和提取,比如,对于第一终端中的第一待处理视频数据而言,可以对第一方向视频数据中的目标图像数据(即人脸/动作)进行识别,并可对第二方向视频数据进行特征分析,比如,后置摄像头所采集到的景物进行特征分析,以便于在该后置摄像头所采集到的视频数据中确定该目标图像数据的目标显示区域。
其中,所述AR技术即为增强现实技术,也被称之为混合现实技术,它不仅能展现真实世界的信息(即现实环境数据),而且也能同步显示虚拟的信息(即虚拟显示数据),这两种信息之间可以进行相互补充和叠加。因此,在视觉化的增强现实中,可将虚拟的信息映射到真实世界,以使真实的环境和虚拟的物体能够实时地叠加到同一个画面或空间同时存在。
比如,当用户拿着手机移动时,该手机的运动跟踪摄影机和其他传感器(比如,深度传感器)都在运作,可使服务终端2000同时获取到该手机的前置摄像头所采集到的第一方向视频数据以及后置摄像头所采集到的第二方向视频数据,并可通过AI技术对这两个方向上视频数据进行识别和提取,从而可进一步通过AR技术构建AR模型,以衡量该第一方向视频数据中的目标图像数据在所述第二方向视频数据中的显示区域,从而可使该目标图像数据在该融合视频数据中具备立体展示属性,即呈现出三维显示效果。
其中,所述服务终端2000对所述第一待处理视频数据以及所述第二待处理视频数据进行整合的具体过程可以参见如下图2至图10对应的实施例。
进一步地,请参见图2,是本发明实施例提供的一种视频数据处理方法的流程示意图。如图2所示,所述方法可以包括:
步骤S101,获取第一终端发送的视频直播请求;
具体的,服务器获取第一终端发送的视频直播请求,并将所述视频直播请求转发给该视频直播请求中所请求的第二终端,以便于进一步获取第二终端基于该视频直播请求所反馈回的确认响应信息,从而可进一步执行步骤S102。
其中,所述服务器可以为上述图1所对应实施例中的服务终端2000,所述第一终端可以为上述图1所对应实施例中的用户终端3000a,所述第二终端可以为上述图1所对应实施例中的用户终端3000b,其中,第一终端和第二终端中的用户可以为某社交平台上具有好友关系的任意两个用户。
其中,所述视频直播请求中可以携带串行显示标识,所述串行显示标识可用于促使所述服务器将接收到的多源视频流(比如,第一终端中前、后两个摄像头所采集到的两个视频流和第二终端中前、后两个摄像头所采集到的两个视频流)进行融合,以得到两路融合视频数据(即与第一终端对应的第一融合视频数据和与第二终端对应的第二融合视频数据),并将融合后的两路融合视频数据分别添加至相应的独立显示窗口。
其中,第一终端中前、后两个摄像头所采集到的两个视频流即为第一终端所上传的第一待处理视频数据,且第二终端中前、后两个摄像头所采集到的两个视频流即为第二终端所上传的第二待处理视频数据。
可选的,所述视频直播请求中还可以携带并行显示标识;该并行显示标识可用于促使所述服务器将接收到的多源视频流(比如,第一终端中前、后两个摄像头所采集到的两个视频流和第二终端中前、后两个摄像头所采集到的两个视频流)进行叠加处理,即直接将采集到的四个视频流对应的添加至与该并行显示标识所对应的并行显示窗口。
应当理解,当第二终端中的前、后两个摄像头均开启时,所述服务器可以实时接收到该第二终端中前、后两个摄像头所采集到的两个视频流,且此时,该第二终端中前、后两个摄像头所采集到的两个视频流即为第二终端所上传的第二待处理视频数据。但是,该第二终端还可以只打开前置摄像头或后置摄像头,即只向所述服务器上传一个视频流(即前置摄像头所采集到的视频流或后置摄像头所采集到的视频流),此时,所述服务器默认将该第二终端所上传的这一路视频流作为第二待处理视频数据,即不存在与该第二终端对应的融合图像数据。因此,所述服务器可以接收到三个视频流(即与第一终端对应的两个视频流和与第二终端对应的一个视频流),于是,所述服务器只需将该第一终端中前、后两个摄像头所采集到的两个视频流进行融合,得到与该第一终端对应的融合视频数据。
步骤S102,若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
其中,所述第一待处理视频数据可以包括两个视频流,即在第一终端的前、后两个摄像头同时开启时所采集到的两个方向上的视频数据,这两个视频流分别为第一方向视频数据和第二方向视频数据。
其中,所述第二待处理视频数据可以为一个视频流,还可以为两个视频流。即该第二待处理视频数据可以为第二终端的前置摄像头和/或后置摄像头开启时,所采集的视频数据。因此,当该第二终端的前置摄像头和后置摄像头同时开启时,所述服务器可以接收到该第二终端所上传的两个视频流(即第三方向视频数据和第四方向视频数据)。但是,当仅开启该第二终端的前置摄像头或后置摄像头时,所述服务器则只能接收到该第二终端所上传的一个视频流(即第三方向视频数据或第四方向视频数据)。
应当理解,该服务器可以对接收到多源视频流进行分类,即可以识别出与第一终端对应的第一方向视频数据和第二方向视频数据,并识别出与第二终端对应的第三方向视频数据和/或第四方向视频数据。此外,该服务器还可以进一步对分类后的各视频数据进行智能化处理(即融合处理或叠加处理),即该服务器可以根据该视频直播请求中所携带的显示标识(该显示标识可以包括串行显示标识或并行显示标识),自动判断是否需要对接收到的各终端中的每个视频流进行融合。因此,该服务器可以在该显示标识为串行显示标识时,进一步执行步骤S103,以对第一方向视频数据和第二方向视频数据进行融合处理,否则,则可对接收到的各视频流进行叠加处理,即直接将各视频流对应的添加至相应的并行显示窗口。
步骤S103,若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
具体的,若所述视频直播请求中携带串行显示标识,则所述服务器可首先识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;其次,若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域,并将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;随后,所述服务器可进一步将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
比如,以用户A与用户B正在某社交平台上进行视频聊天为例,其中,与用户A对应的第一终端为用户终端a,与用户B对应的第二终端为用户终端b。在视频聊天的过程中,用户A同时开启了该用户终端a中的前、后摄像头,因此,该用户终端a可实时采集到两个视频流,即通过前置摄像头所采集到的视频数据和通过后置摄像头所采集到的视频数据。为便于理解,本发明实施例可以以前置摄像头所采集到的视频数据为第一方向视频数据,并以后置摄像头所采集到的视频数据为第二方向视频数据为例,以对本方案中与第一终端对应的第一待处理视频数据进行详细描述。与此同时,当用户终端b仅开启了后置摄像头时,该第二终端可以实时采集到一个视频流。因此,对于与该社交平台所对应的服务器而言,在用户A与用户B进行视频聊天的过程中,可以实时接收到用户终端a上传的两个视频流,以及用户终端b上传的一个视频流。
进一步的,请参见图3a和图3b,是本发明实施例提供的一种第一待处理视频数据的示意图。图3a为用户终端a(即第一终端)的前置摄像头所采集到的第一方向视频数据,图3b为该用户终端a的后置摄像头所采集到的第二方向视频数据。因此,当该用户终端a将所采集到的这两个方向上的视频数据上传至所述服务器时,所述服务器可以首先对这两个视频流中的视频数据进行融合处理,以得到与第一终端(即用户终端a)对应的融合视频数据。应当理解,当用户终端b的前、后两个摄像头同时开启时,所述服务器也可以对该用户终端b所上传的两个视频流中的视频数据进行融合处理,以得到与第二终端(即用户终端b)对应的融合视频数据。当然,当用户终端b仅开启一个摄像头时,所述服务器将直接将接收到的一个视频流(比如,后置摄像头所采集到的视频流)作为第二待处理视频数据,因此,本发明实施例将不对第二终端所采集到的视频流的数量进行限制。
进一步的,请参见图4,是本发明实施例提供的一种获取融合视频数据的示意图。如图4所示,所述服务器在获取到第一终端(即上述图3所对应实施例中的用户终端a)所上传的第一方向视频数据和第二方向视频数据时,可通过AI技术智能识别所述第一待处理视频数据中的第一方向视频数据对应的特征标识和第二方向视频数据对应的特征标识,比如,第一方向视频数据的特征标识为前置摄像头标识,第二方向视频数据的特征标识为后置摄像头标识;随后,所述服务器可进一步提取该第一方向视频数据中的目标图像数据(比如,图3a所对应实施例中的用户A的头部轮廓特征),并在上述图3b所示的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域,以便于将该用户A的头部轮廓特征融合到图4所示的目标显示区域,从而得到与该第一终端(即用户终端a)对应的融合视频数据。
此时,应当理解,由于前后摄像头所采集到的图像数据的存在像素值的差异,即若直接融合图像,则可能会因目标图像数据的边缘区域与第二方向视频数据存在较大的像素差异而导致显示效果降低。因此,在生成该融合视频数据的过程中,所述服务器可以根据该目标图像数据边缘区域的第一像素值和该目标显示区域中第二方向视频数据的第二像素值,对该用户A的头部轮廓特征(即目标图像数据)进行模糊处理,以便于提高图像融合的质量,从而可提高融合处理后的显示效果。随后,该服务器可以通过AR技术确保融合视频数据中的所述目标图像数据具备立体展示属性,以使融合后的图像具备三维显示效果。即该服务器可以先创建与该目标图像数据对应的增强现实模型,并在该增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强显示模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,以得到如图4所示的融合视频数据。
此外,所述服务器在获取到第一待处理视频数据之前,第一终端还可以获取第一方向视频数据的第一分辨率和第二方向视频数据的第二分辨率,并在该第一分辨率不同于第二分辨率时,对所述第一方向视频数据和所述第二方向视频数据进行编码,以得到具有相同分辨率的第一方向视频数据和第二方向视频数据,作为已编码的第一待处理视频数据,并将已编码的第一待处理视频数据发送至服务器,服务器对已编码的第一待处理视频数据进行解码,得到具有相同分辨率的第一方向视频数据和第二方向视频数据,以便于得到具有更好显示效果的融合视频数据。
进一步的,请参见图5,是本发明实施例提供的一种获取第一目标视频数据的示意图。如图5所示,通过将如图4所示的融合视频数据与用户终端b所上传的第二待处理视频数据进行整合,可以得到第一目标视频数据。其中,所述第二待处理视频数据可以为上述图3所对应实施例中所提及的用户终端b的后置摄像头所采集到的视频数据。即如图5所示,在视频数据整合界面中,可以存在两个独立显示窗口,一个独立显示窗口100a可用于显示上述图4所对应实施例中的融合视频数据,另一个独立显示窗口200a可用于显示与用户终端b对应的第二待处理视频数据(如由后置摄像头所采集到的取景区域内的视频数据)。应当理解,在生成第一目标视频数据的过程中,如果融合视频数据的第一图像参数值不同于第二待处理视频数据的第二图像参数值(第一图像参数值和第二图像参数值可以均包括分辨率、亮度等参数值),所述服务器则可以对该融合视频数据和第二待处理视频数据进行渲染处理(即可以得到新的融合视频数据和新的第二待处理视频数据),并将渲染处理后的第二待处理视频数据和融合视频数据分别添加到如图5所示的独立显示窗口100a和独立显示窗口200a(这两个独立显示窗口可以完全重叠,也可以部分重叠),以生成如图5所示的视频数据整合界面100a中的第一目标视频数据。
应当理解,在如图5所示的视频数据整合界面100a中,当用户终端b的前、后两个摄像头均同时开启时,独立显示窗口200a中还可以用于显示与用户终端b对应的融合视频数据;或者,可用于显示与用户终端b对应的两个并行的视频流(即第三方向视频数据和第四方向视频数据),且这两个视频流可以并行显示在该图5所示的独立显示窗口200a中,该独立显示窗口200a中可以包括两个独立的子窗口。
步骤S104,将所述第一目标视频数据下发至所述第一终端。
可选的,所述服务器在将所述第一目标视频数据下发至所述第一终端的同时,还可以将该第一目标视频数据下发至所述第二终端。
应当理解,所述第一终端中所显示的第一目标视频数据的显示界面可以不同于第二终端中所显示的第一目标视频数据的显示界面,即所述服务器可以在将所述第一目标图像数据发送给第一终端和第二终端之前,预先根据所述第一终端和第二终端的终端标识,分别调整两个终端中用于显示两个独立显示窗口的显示界面的显示比例。比如,对于第一终端而言,所述服务器可以将如图5所示的与融合视频数据对应的独立显示窗口重叠显示在与所述第二待处理数据对应的独立显示窗口上,而对于第二终端而言,可以直接显示如图5所示的两个独立显示窗口,即与第二待处理数据的独立显示窗口重叠显示在与所述融合视频数据对应的独立显示窗口上。
其中,S103和S104步骤可以理解为对第一待处理视频数据和第二待处理视频数据中的当前视频帧的处理,因此,第一待处理视频数据和第二待处理视频数据中的每一个视频帧均可按照S103和S104进行处理。
本发明实施例通过获取第一终端发送的视频直播请求;若接收到视频直播请求所请求的第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;将所述第一目标视频数据下发至所述第一终端。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
进一步的,请参见图6,是本发明实施例提供的另一种视频数据处理方法的流程示意图。如图6所示,所述方法可以包括:
步骤S201,获取第一终端发送的视频直播请求;
步骤S202,若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
其中,所述步骤S201-步骤S202的具体实现方式可以参见上述图2所对应实施例中对步骤S101-步骤S102的描述,这里将不再继续进行赘述。
步骤S203,检测所述视频直播请求中是否携带串行显示标识;
其中,所述视频直播请求中可以携带串行显示标识,还可以携带并行显示标识,因此,当所述服务器检测出所述视频直播请求中携带串行显示标识时,可进一步执行步骤S204,然而,当所述服务器检测出所述视频直播请求中携带并行显示标识时,可进一步执行步骤S207。
步骤S204,若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
具体的,若所述服务器检测出所述视频直播请求中携带串行显示标识,则可进一步识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域,并将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;所述融合视频数据中的所述目标图像数据具备立体展示属性。
其中,所述服务器在第二方向视频数据中所创建的所述目标显示区域的示意图,可以为上述图4所示的目标显示区域。且获取所述第一终端所对应的融合视频数据的具体过程可以参见上述图4所对应实施例中对所述融合视频数据的描述,这里将不再继续进行赘述。
可选的,在执行完步骤S204之后,所述服务器还可以在接收到对所述融合视频数据中的所述目标图像数据的调整指令时,根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
进一步的,请参见图7,是本发明实施例提供的一种调整目标图像数据的示意图。如图7所示,该目标图像数据可以为上述图4所对应实施例中的目标图像数据(即用户A的头部图像数据),当所述服务器接收到对该融合视频数据中的目标图像数据的调整指令(例如,将该用户A的头部图像数据向右平移3厘米)时,所述服务器可以根据调整指令中的调整参数(例如,向右平移3厘米)以及该目标图像数据所具备的立体展示属性,将如图4所示的目标图像数据,在第二方向视频数据所对应的显示界面中进行平移操作,以将如图4所示的目标显示区域中的目标图像数据平移至如图7所示的新的目标显示区域,并用调整操作后的目标图像数据更新所述融合视频数据。
可选的,所述调整操作还可以包括三维角度调整,比如,所述服务器可以根据调整指令将如图4所示的目标图像数据,在第二方向视频数据所对应的显示界面中进行旋转操作,并用旋转操作后的目标图像数据更新该融合视频数据。应当理解,对所述目标图像数据所进行的调整操作还可以包括其他形式的拖拽和平移,这里将不对具体的调整操作形式进行限定。
步骤S205,将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
具体的,所述服务器可以在执行完步骤S204之后,进一步获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据,并将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
其中,获取第一目标视频数据的具体过程可参见上述图5所对应实施例中对所述第一目标视频数据的描述,这里将不再继续进行赘述。
步骤S206,将所述第一目标视频数据下发至所述第一终端;
可选的,步骤S207,若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;
其中,由于视频直播请求可以携带串行显示标识或并行显示标识,所以若步骤S203判断为否,则可以说明视频直播请求携带并行显示标识,并进一步执行步骤S207。所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;所述第二待处理视频数据可以包括一个视频流,也可以包括两个视频流。
步骤S208,将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
进一步的,请参见图8,是本发明实施例提供的一种获取第二目标视频数据的示意图。如图8所示,所述服务器在执行完步骤S207之后,可以在如图8所示的视频数据整合界面中创建与所述并行显示标识对应的三个并行显示窗口,分别为并行显示窗口100b、并行显示窗口200b以及并行显示窗口300b,其中,有并行显示窗口100b和并行显示窗口200b用于显示上述图3所对应实施例中第一终端所采集到的两个视频流(即第一方向视频数据和第二方向视频数据),并行显示窗口300b用于显示上述图3所对应实施例中第二终端所采集到的一个视频流。
可选的,所述服务器还可以进一步在接收到所述第一终端所发送的切换指令时,可进一步根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
比如,所述服务器在将第一目标视频数据下发至第一终端之后,用户A可以在该第一终端上对接收到的第一目标视频数据进行切换操作(比如,将串行显示的第一目标视频数据切换为并行显示的第二目标视频数据)。即该服务器在接收到切换指令时,可以直接对当前接收到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据进行处理,若第一终端采集到的两个视频流仍为上述图3所对应实施例中的视频流,且第二终端所采集到的视频流也仍然为上述图3所对应实施例中的视频流,则所述服务器可以直接将这三个视频流直接添加到如图8所示的视频数据叠加界面100b中的并行显示窗口,以得到如图8所示的第二目标视频数据。应当理解,本发明实施例中的第一方向视频数据和第二方向视频数据为第一终端实时采集到的视频数据,且第二待处理视频数据为第二终端实时采集到的视频数据。
可见,所述服务器可以在接收到切换指令时,无需继续根据该串行显示标识对各终端所实时上传的多源视频流,重复执行上述步骤S204-步骤S206,而是直接根据该切换指令,进一步执行步骤S207-步骤S208,以将串行显示的视频数据切换为并行显示的视频数据。可见,当用户在第一终端所对应的切换区域中执行切换操作(比如,点击该切换区域上的切换按钮)时,该第一终端可根据该切换操作向所述服务器上传该切换指令,以使所述服务器进一步将当前获取到的多个视频流直接处理为第二目标视频数据,即实现将串行显示的视频数据处理为并行显示的视频数据。
进一步的,请一并参见图9,是本发明实施例提供的一种视频数据交互方法的流程示意图。如图9所示,该方法可以包括:
步骤S401,第一终端向服务器发起视频直播请求;
步骤S402,所述服务器接收所述视频直播请求所请求的第二终端所反馈的确认响应消息;
步骤S403,所述第一终端向所述服务器发送第一待处理视频数据;
步骤S404,所述服务器获取所述第二终端所发送的第二待处理视频数据;
步骤S405,若所述视频直播请求中携带串行显示标识,则所述服务器将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
步骤S406,所述服务器将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
步骤S407,所述服务器将所述第一目标视频数据下发至所述第一终端。
其中,步骤S401-步骤S407中所述服务器与第一终端和第二终端进行数据交互的具体实现方式可参见上述图2或图6所对应实施例中对所述服务器的描述,这里将不再继续进行赘述。
本发明实施例通过获取第一终端发送的视频直播请求;若接收到视频直播请求所请求的第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;将所述第一目标视频数据下发至所述第一终端。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
进一步的,请参见图10,是本发明实施例提供的又一种视频数据处理方法的流程示意图。如图10所示,所述方法可以包括:
步骤S301,第一终端向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;
其中,所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息。
步骤S302,采集第一待处理视频数据;
具体的,第一终端在执行完步骤S301之后,可通过同步开启的前、后两个摄像头实时采集两个视频流,这两个视频流分别为第一方向视频数据和第二方向视频数据,并将所述第一方向视频数据和所述第二方向视频数据作为第一待处理视频数据。
步骤S303,获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
比如,以用户C与用户A在某社交平台上进行视频聊天为例,此时,用户C同步开启了第一终端的前、后摄像头两个摄像头,而用户A只开启了第二终端(即用户终端a)的前置摄像头,即在步骤S303中所获取到的所述第二待处理视频数据可以为上述图3所对应实施例中用户终端a的前置摄像头所采集到的视频数据。此时,为了与第一终端所对应的两个方向上的视频数据进行区分,此时,可以将用户终端a所采集到的视频数据作为第三方向视频数据,即第二待处理视频数据。
步骤S304,若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
其中,步骤S304的具体实现过程可参见上述图6所对应实施例中对步骤S204-步骤S205的描述,这里将不再继续进行赘述。即此时,该第一终端具有与上述图6所对应实施例中所述服务器相同的视频融合以及整合功能。
可选的,步骤S305,若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
其中,步骤S305的具体实现过程可参见上述图6所对应实施例中对步骤S207-步骤S208的描述,这里将不再继续进行赘述。
进一步的,请一并参见图11,是本发明实施例提供的另一种视频数据交互方法的流程示意图。如图11所示,该方法可以包括:
步骤S501,第一终端向服务器发起视频直播请求;
步骤S502,所述服务器接收所述视频直播请求所请求的第二终端所反馈的确认响应消息;
步骤S503,所述服务器向所述第一终端转发所述确认响应消息;
步骤S504,所述第一终端采集第一待处理视频数据;
步骤S505,所述服务器获取所述第二终端所发送的第二待处理视频数据;
步骤S506,所述服务器向所述第一终端转发所述第二待处理视频数据;
步骤S507,若所述视频直播请求中携带串行显示标识,则所述服务器将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
步骤S508,所述服务器将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
其中,步骤S501-步骤S508中所述第一终端与所述服务器和第二终端之间进行数据交互的具体实现方式可参见上述图10所对应实施例中对所述第一终端的描述,这里将不再继续进行赘述。
由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
进一步的,请参见图12,是本发明实施例提供的一种视频数据处理装置的结构示意图。如图12所示,所述视频数据处理装置1可以应用于服务器,所述服务器可以为上述图1所对应实施例中的服务终端2000,所述视频数据处理装置1至少包括:请求获取模块10,视频数据接收模块20,视频数据融合模块30,视频数据整合模块40和第一数据下发模块50;可选的,所述视频数据处理装置1还可以包括并行窗口创建模块60,第二数据下发模块70和视频数据切换模块80;
所述请求获取模块10,用于获取第一终端发送的视频直播请求;
所述视频数据接收模块20,用于若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
所述视频数据融合模块30,用于若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
其中,所述视频数据融合模块30包括:特征标识识别单元301,目标区域创建单元302,视频数据融合单元303和目标数据调整单元304;
所述特征标识识别单元301,用于识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;
所述目标区域创建单元302,用于若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;
所述视频数据融合单元303,用于将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;所述融合视频数据中的所述目标图像数据具备立体展示属性。
其中,所述视频数据融合单元303包括:像素值获取子单元3031,模型创建子单元3032和数据映射子单元3033;
所述像素值获取子单元3031,用于获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;
所述模型创建子单元3032,用于根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;
所述数据映射子单元3033,用于在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强显示模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据。
其中,所述像素值获取子单元3031,模型创建子单元3032和数据映射子单元3033的具体实现方式可参见上述图6所对应实施例中对步骤S204的描述,这里将不再继续进行赘述。
所述目标数据调整单元304,用于若接收到对所述融合视频数据中的所述目标图像数据的调整指令,则根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
其中,所述特征标识识别单元301,目标区域创建单元302,视频数据融合单元303和目标数据调整单元304的具体实现方式可参数上述图6所对应实施例中对步骤S204的描述,这里将不再继续进行赘述。
所述视频数据整合模块40,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
其中,所述视频数据整合模块40可以包括:参数值获取单元401,渲染处理单元402和目标数据获取单元403;
所述参数值获取单元401,用于获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;
所述渲染处理单元402,用于若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据;
所述目标数据获取单元403,用于将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
其中,所述参数值获取单元401,渲染处理单元402和目标数据获取单元403的具体实现方式可参见上述图6所对应实施例中对步骤S205的描述,这里将不再继续进行赘述。
所述第一数据下发模块50,用于将所述第一目标视频数据下发至所述第一终端。
可选的,所述并行窗口创建模块60,用于若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;
所述第二数据下发模块70,用于将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
可选的,所述视频数据切换模块80,用于若接收到所述第一终端所发送的切换指令,则根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
其中,所述请求获取模块10,视频数据接收模块20,视频数据融合模块30,视频数据整合模块40和第一数据下发模块50的具体实现方式可参见上述图2所对应实施例中对步骤S101-步骤S104的描述,这里将不再继续进行赘述;此外,所述并行窗口创建模块60,第二数据下发模块70和视频数据切换模块80的具体实现方式可参见上述图6所对应实施例中对步骤S207-步骤S208的描述,这里将不再继续进行赘述。
本发明实施例通过获取第一终端发送的视频直播请求;若接收到视频直播请求所请求的第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;将所述第一目标视频数据下发至所述第一终端。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
进一步的,请参见图13,是本发明实施例提供的另一种视频数据处理装置的结构示意图,如图13所示,所述视频数据处理装置2可应用于第一终端,所述第一终端以为上述图1所对应实施例中的用户终端;所述视频数据处理装置2可以包括请求发起模块100,视频数据采集模块200,视频数据获取模块300,视频数据融合模块400和视频数据整合模块500,进一步的,所述视频数据处理装置2还可以包括视频数据添加模块600;
所述请求发起模块100,用于向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
所述视频数据采集模块200,用于采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
所述视频数据获取模块300,用于获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
所述视频数据融合模块400,用于若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据;
所述视频数据整合模块500,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
可选的,所述视频数据添加模块600,用于若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
其中,所述请求发起模块100,视频数据采集模块200,视频数据获取模块300,视频数据融合模块400和视频数据整合模块500以及视频数据添加模块600的具体实现方式可参见上述图10所对应实施例中对步骤S301-步骤S305的描述,这里将不再继续进行赘述。
由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
进一步地,请参见图14,是本发明实施例提供的又一种视频数据处理装置的结构示意图。如图14所示,所述视频数据处理装置1000可以应用于服务器,所述服务器可以为上述图1对应实施例中的服务终端2000,所述视频数据处理装置1000可以包括:处理器1001,网络接口1004和存储器1005,此外,所述视频数据处理装置1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选的,用户接口1003还可以包括标准的有线接口、无线接口。网络接口1005可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图14所示,作为一种计算机存储介质的存储器1004中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图14所示的视频数据处理装置1000中,网络接口1004用于连接第一终端,可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取第一终端发送的视频直播请求;
若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
将所述第一目标视频数据下发至所述第一终端。
在一个实施例中,所述处理器1001在执行将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据时,具体执行以下步骤:
识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;
若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;
将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据;所述融合视频数据中的所述目标图像数据具备立体展示属性。
在一个实施例中,所述处理器1001在执行将所述目标图像数据融合到所述第二方向视频数据中的所述目标显示区域,得到融合视频数据时,具体执行以下步骤:
获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;
根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;
在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强显示模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据。
在一个实施例中,所述处理器1001还可以执行以下步骤:
若接收到对所述融合视频数据中的所述目标图像数据的调整指令,则根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
在一个实施例中,所述处理器1001在执行将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据时,具体执行以下步骤:
获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;
若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据;
将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
在一个实施例中,所述处理器1001还可以执行以下步骤:
若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;
将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
在一个实施例中,所述处理器1001还可以执行以下步骤:
若接收到所述第一终端所发送的切换指令,则根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
本发明实施例通过获取第一终端发送的视频直播请求;若接收到视频直播请求所请求的第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;将所述第一目标视频数据下发至所述第一终端。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
此外,这里需要指出的是:本发明实施例还提供了一种计算机存储介质,且所述计算机存储介质中存储有前文提及的数据处理装置1所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图2或图6所对应实施例中对所述视频数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本发明所涉及的计算机存储介质实施例中未披露的技术细节,请参照本发明方法实施例的描述。
进一步地,请参见图15,是本发明实施例提供的又一种视频数据处理装置的结构示意图。如图15所示,所述视频数据处理装置2000可以应用于第一终端,所述第一终端可以为上述图1对应实施例中的用户终端,所述视频数据处理装置2000可以包括:处理器2001,网络接口2004和存储器2005,此外,所述视频数据处理装置2000还可以包括:用户接口2003,和至少一个通信总线2002。其中,通信总线2002用于实现这些组件之间的连接通信。其中,用户接口2003可以包括显示屏(Display)、键盘(Keyboard),可选的,用户接口2003还可以包括标准的有线接口、无线接口。网络接口2004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器2005可以是高速RAM存储器,也可以是非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。存储器2005可选的还可以是至少一个位于远离前述处理器2001的存储装置。如图15所示,作为一种计算机存储介质的存储器2005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图15所示的视频数据处理装置2000中,网络接口2004用于连接第一终端,可提供网络通讯功能;而用户接口2003主要用于为用户提供输入的接口;而处理器2001可以用于调用存储器2005中存储的设备控制应用程序,以实现:
第一终端向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
若所述视频直播请求中携带串行显示标识,则将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据进行融合处理,得到融合视频数据,并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
在一个实施例中,所述处理器2001还可以执行以下步骤:
若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据。由此可见,通过所述视频直播请求中所携带的串行显示标识,可以首先将第一终端中的第一方向视频数据和第二方视频数据进行融合处理,即可以将所述第一方向视频数据中的目标图像数据融合至所述第二方向视频数据中的显示区域,得到具备立体展示属性的融合视频数据;随后,可进一步将该融合视频数据和第二待处理视频数据进行整合,得到第一目标图像数据,此时,该第一目标图像数据中融合了多个方向上的视频流,从而可以丰富视频数据的显示方式和显示效果。
此外,这里需要指出的是:本发明实施例还提供了一种计算机存储介质,且所述计算机存储介质中存储有前文提及的数据处理装置2所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图10所对应实施例中对所述视频数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本发明所涉及的计算机存储介质实施例中未披露的技术细节,请参照本发明方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (13)
1.一种视频数据处理方法,其特征在于,包括:
获取第一终端发送的视频直播请求;
若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
若所述视频直播请求中携带串行显示标识,则识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强现实模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据,所述融合视频数据中的所述目标图像数据具备立体展示属性;并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
将所述第一目标视频数据下发至所述第一终端。
2.根据权利要求1所述的方法,其特征在于,还包括:
若接收到对所述融合视频数据中的所述目标图像数据的调整指令,则根据所述调整指令中的调整参数和所述立体展示属性,对在所述目标显示区域中的所述目标图像数据进行调整操作,并根据调整操作后的目标图像数据更新所述融合视频数据。
3.根据权利要求1所述的方法,其特征在于,所述将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据,包括:
获取所述融合视频数据的第一图像参数值,并获取所述第二待处理视频数据的第二图像参数值;
若所述第一图像参数值与所述第二图像参数值不同,则对所述融合视频数据和所述第二待处理视频数据进行渲染处理,得到新的融合视频数据和新的第二待处理视频数据;
将所述新的第二待处理视频数据和所述新的融合视频数据分别添加到独立显示窗口,得到第一目标视频数据。
4.根据权利要求1所述的方法,其特征在于,还包括:
若所述视频直播请求中携带并行显示标识,则创建与所述并行显示标识对应的并行显示窗口;所述并行显示窗口的数量与所述第一待处理视频数据和所述第二待处理视频数据的视频流总数量相同;所述第一待处理视频数据包括两个视频流,分别为第一方向视频数据、第二方向视频数据;
将所述第一方向视频数据和所述第二方向视频数据,以及所述第二待处理视频数据中的每个视频流分别添加到所述并行显示窗口,得到第二目标视频数据,并将所述第二目标视频数据下发至所述第一终端。
5.根据权利要求4所述的方法,其特征在于,还包括:
若接收到所述第一终端所发送的切换指令,则根据所述切换指令,将当前获取到的第一方向视频数据和第二方向视频数据,以及第二待处理视频数据,处理为所述第二目标视频数据,并将所述第二目标视频数据返回至所述第一终端。
6.一种视频数据处理方法,其特征在于,包括:
第一终端向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
若所述视频直播请求中携带串行显示标识,则识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强现实模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据,所述融合视频数据中的所述目标图像数据具备立体展示属性;并将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
7.根据权利要求6所述的方法,其特征在于,还包括:
若所述视频直播请求中携带并行显示标识,则获取与所述并行显示标识对应的并行显示窗口,并将所述第一待处理视频数据中的第一方向视频数据和第二方向视频数据,以及所述第二待处理视频数据添加至所述并行显示窗口,得到第二目标视频数据。
8.一种视频数据处理装置,所述视频数据处理装置应用于服务器,其特征在于,包括:
请求获取模块,用于获取第一终端发送的视频直播请求;
视频数据接收模块,用于若接收到第二终端发送的确认响应消息,则接收第一终端发送的第一待处理视频数据以及第二终端发送的第二待处理视频数据;所述第二终端是所述第一终端发送的所述视频直播请求所请求的目标终端;
视频数据融合模块,用于若所述视频直播请求中携带串行显示标识,则识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强现实模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据,所述融合视频数据中的所述目标图像数据具备立体展示属性;
视频数据整合模块,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据;
第一数据下发模块,用于将所述第一目标视频数据下发至所述第一终端。
9.一种视频数据处理装置,所述视频数据处理装置应用于第一终端,其特征在于,包括:
请求发起模块,用于向服务器发起视频直播请求,并获取所述服务器所反馈的确认响应消息;所述确认响应消息为所述视频直播请求所请求的第二终端所发送的响应消息;
视频数据采集模块,用于采集第一待处理视频数据;所述第一待处理视频数据包括第一方向视频数据和第二方向视频数据;
视频数据获取模块,用于获取所述服务器发送的所述第二终端对应的第二待处理视频数据;
视频数据融合模块,用于若所述视频直播请求中携带串行显示标识,则识别所述第一待处理视频数据中的第一方向视频数据的特征标识和第二方向视频数据的特征标识;所述特征标识包括前置摄像头标识或后置摄像头标识;若所述第一方向视频数据所对应的特征标识为所述前置摄像头标识,则提取所述第一方向视频数据中的目标图像数据,并在携带所述后置摄像头标识的第二方向视频数据中创建与所述目标图像数据对应的目标显示区域;获取所述目标图像数据边缘区域的第一像素值,并获取所述目标显示区域的第二像素值;根据所述第一像素值和所述第二像素值,对所述目标图像数据的边缘区域进行模糊处理,并为模糊处理后的所述目标图像数据创建增强现实模型;在所述增强现实模型中,将模糊处理后的目标图像数据作为虚拟现实数据,并将所述第二方向视频数据作为所述增强现实模型中的现实环境数据,并将所述虚拟现实数据映射到所述现实环境数据中的所述目标显示区域,得到融合视频数据,所述融合视频数据中的所述目标图像数据具备立体展示属性;视频数据整合模块,用于将所述融合视频数据与所述第二待处理视频数据进行整合,得到第一目标视频数据。
10.一种视频数据处理装置,所述视频数据处理装置应用于服务器,其特征在于,包括:处理器、存储器以及网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于连接第一终端,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如权利要求1-5任一项所述的方法。
11.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,当处理器执行所述程序指令时执行如权利要求1-5任一项所述的方法。
12.一种视频数据处理装置,所述视频数据处理装置应用于第一终端,其特征在于,包括:处理器、存储器以及网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于连接服务器,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如权利要求6或7所述的方法。
13.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,当处理器执行所述程序指令时执行如权利要求6或7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711121878.0A CN109788359B (zh) | 2017-11-14 | 2017-11-14 | 一种视频数据处理方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711121878.0A CN109788359B (zh) | 2017-11-14 | 2017-11-14 | 一种视频数据处理方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109788359A CN109788359A (zh) | 2019-05-21 |
CN109788359B true CN109788359B (zh) | 2021-10-26 |
Family
ID=66493518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711121878.0A Active CN109788359B (zh) | 2017-11-14 | 2017-11-14 | 一种视频数据处理方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109788359B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541858A (zh) * | 2019-09-20 | 2021-03-23 | 华为技术有限公司 | 视频图像的增强方法、装置、设备、芯片及存储介质 |
CN110855905B (zh) * | 2019-11-29 | 2021-10-22 | 联想(北京)有限公司 | 视频处理方法、装置和电子设备 |
CN111242704B (zh) * | 2020-04-26 | 2020-12-08 | 北京外号信息技术有限公司 | 用于在现实场景中叠加直播人物影像的方法和电子设备 |
CN114915852B (zh) * | 2021-02-09 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 视频通话交互方法、装置、计算机设备和存储介质 |
CN114040144A (zh) * | 2021-12-01 | 2022-02-11 | 展讯通信(天津)有限公司 | 视频通话方法和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102821323A (zh) * | 2012-08-01 | 2012-12-12 | 成都理想境界科技有限公司 | 基于增强现实技术的视频播放方法、系统及移动终端 |
CN104219584A (zh) * | 2014-09-25 | 2014-12-17 | 广州市联文信息科技有限公司 | 基于增强现实的全景视频交互方法和系统 |
CN104365088A (zh) * | 2012-06-08 | 2015-02-18 | 三星电子株式会社 | 使用多个摄像头的多通道通信 |
CN106648083A (zh) * | 2016-12-09 | 2017-05-10 | 广州华多网络科技有限公司 | 增强演奏场景合成控制方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101547333A (zh) * | 2009-04-20 | 2009-09-30 | 中兴通讯股份有限公司 | 在可视通话过程中用户前后场景切换的方法及终端 |
US9652046B2 (en) * | 2011-01-06 | 2017-05-16 | David ELMEKIES | Augmented reality system |
CN105391866A (zh) * | 2015-11-30 | 2016-03-09 | 东莞酷派软件技术有限公司 | 一种拍照方法、装置及终端 |
CN106303229A (zh) * | 2016-08-04 | 2017-01-04 | 努比亚技术有限公司 | 一种拍照方法及装置 |
-
2017
- 2017-11-14 CN CN201711121878.0A patent/CN109788359B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104365088A (zh) * | 2012-06-08 | 2015-02-18 | 三星电子株式会社 | 使用多个摄像头的多通道通信 |
CN102821323A (zh) * | 2012-08-01 | 2012-12-12 | 成都理想境界科技有限公司 | 基于增强现实技术的视频播放方法、系统及移动终端 |
CN104219584A (zh) * | 2014-09-25 | 2014-12-17 | 广州市联文信息科技有限公司 | 基于增强现实的全景视频交互方法和系统 |
CN106648083A (zh) * | 2016-12-09 | 2017-05-10 | 广州华多网络科技有限公司 | 增强演奏场景合成控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109788359A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109788359B (zh) | 一种视频数据处理方法和相关装置 | |
US11089266B2 (en) | Communication processing method, terminal, and storage medium | |
CN108986199B (zh) | 虚拟模型处理方法、装置、电子设备及存储介质 | |
US9159169B2 (en) | Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program | |
US11450044B2 (en) | Creating and displaying multi-layered augemented reality | |
US20160180593A1 (en) | Wearable device-based augmented reality method and system | |
CN110401810B (zh) | 虚拟画面的处理方法、装置、系统、电子设备及存储介质 | |
KR102402580B1 (ko) | 메타버스 환경에서의 영상 처리 시스템 및 방법 | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
CN109582122B (zh) | 增强现实信息提供方法、装置及电子设备 | |
CN110413108B (zh) | 虚拟画面的处理方法、装置、系统、电子设备及存储介质 | |
CN113840049A (zh) | 图像处理方法、视频流场景切换方法、装置、设备及介质 | |
CN109218630B (zh) | 一种多媒体信息处理方法及装置、终端、存储介质 | |
JP2017054337A (ja) | 画像処理装置および方法 | |
CN112887601B (zh) | 拍摄方法、装置及电子设备 | |
TW201814552A (zh) | 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置 | |
US9848168B2 (en) | Method, synthesizing device, and system for implementing video conference | |
CN108961424B (zh) | 虚拟信息处理方法、设备及存储介质 | |
CN112105983A (zh) | 增强的视觉能力 | |
CN113965773A (zh) | 直播展示方法和装置、存储介质及电子设备 | |
CN115278084A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112995491A (zh) | 视频生成方法、装置、电子设备及计算机存储介质 | |
CN108320331B (zh) | 一种生成用户场景的增强现实视频信息的方法与设备 | |
US11825066B2 (en) | Video reproduction apparatus, reproduction method, and program | |
KR102372711B1 (ko) | 영상 촬영 장치 및 이의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |