CN110505489A - 视频处理方法、通信设备及计算机可读存储介质 - Google Patents
视频处理方法、通信设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110505489A CN110505489A CN201910729587.2A CN201910729587A CN110505489A CN 110505489 A CN110505489 A CN 110505489A CN 201910729587 A CN201910729587 A CN 201910729587A CN 110505489 A CN110505489 A CN 110505489A
- Authority
- CN
- China
- Prior art keywords
- video flowing
- video
- ugc
- seat
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 15
- 238000003672 processing method Methods 0.000 title abstract description 4
- 238000000034 method Methods 0.000 claims description 84
- 238000012545 processing Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 16
- 230000000153 supplemental effect Effects 0.000 claims description 4
- 230000032258 transport Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 12
- 239000002131 composite material Substances 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 24
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000010899 nucleation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明提供一种视频处理方法、通信设备及计算机可读存储介质,该视频处理方法包括:获取UGC视频流;确定与所述UGC视频流对应的机位视频流;对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。本发明的实施例,可以保证混合视频流的合成效果。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种视频处理方法、通信设备及计算机可读存储介质。
背景技术
随着移动互联网的普及,用户生成内容(User Generated Content,UGC)直播技术越来越成熟,越来越多的用户通过视频应用平台上传UGC视频流。目前在大型演艺直播、体育直播等场景下,当用户上传UGC视频流时,通常需首先选定某个大型直播机位的直播视频流到用户终端进行显示,然后借助用户控制操作,将用户侧摄像头采集的图像信息比如解说人员的头像,加入到用户终端的直播显示画面中,同时与解说音频信息进行合成,得到混合视频流,并对该混合视频流进行编码后上传至内容中心,以供观众观看。但是,用户控制操作的精准度有限,无法保证混合视频流的合成效果。
发明内容
本发明实施例提供一种视频处理方法、通信设备及计算机可读存储介质,以解决目前对UGC视频流和机位的直播视频流进行混流的方式,无法保证混合视频流的合成效果的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种视频处理方法,应用于视频服务器,包括:
获取UGC视频流;
确定与所述UGC视频流对应的机位视频流;
对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
可选的,所述对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流,包括:
确定所述UGC视频流的第一关键帧;
对所述UGC视频流的补充增强信息SEI进行分析,获得所述机位视频流的第二关键帧的序列号,所述第二关键帧的时间点与所述第一关键帧的时间点一致;
根据所述序列号,确定所述第二关键帧;
对所述第一关键帧和所述第二关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
可选的,所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流之前,所述方法还包括:
确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像;
所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流,包括:
根据所述相对位置信息和所述第一帧图像的显示大小,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
可选的,所述确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,包括以下任意一项:
对所述UGC视频流的SEI进行分析,获得所述相对位置信息和所述第一帧图像的显示大小;
对所述机位视频流的视频内容进行分析,基于预设规则选定所述相对位置信息和所述第一帧图像的显示大小。
可选的,所述获取用户生成内容UGC视频流,包括:
通过边缘服务器,接收目标用户设备发送的所述UGC视频流。
可选的,所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流之后,所述方法还包括:
将所述目标视频流发送至内容分发网络CDN内容中心节点,以使所述CDN内容中心节点为视频观看设备提供所述目标视频流。
第二方面,本发明实施例提供一种视频处理方法,应用于用户设备,包括:
生成UGC视频流,其中,所述UGC视频流的第一关键帧的时间点和第二关键帧的时间点一致,所述第二关键帧为与所述UGC视频流对应的机位视频流的关键帧;
向视频服务器发送所述UGC视频流,以由所述视频服务器对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
可选的,所述UGC视频流的SEI中包括所述第二关键帧的序列号。
可选的,所述UGC视频流的SEI中包括所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像。
可选的,所述向视频服务器发送所述UGC视频流之前,所述方法还包括:
向第一服务器发送请求信息,其中,所述请求信息用于请求所述第一服务器为用户设备确定最优的边缘服务器;
接收所述第一服务器根据所述请求信息发送的服务器信息;
根据所述服务器信息,选取边缘服务器;
所述将所述UGC视频流发送视频服务器,包括:
通过选取的所述边缘服务器,向所述视频服务器发送所述UGC视频流。
第三方面,本发明实施例提供了一种通信设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时可实现上述应用于视频服务器的视频处理方法的步骤,或者实现上述应用于用户设备的视频处理方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可实现上述应用于视频服务器的视频处理方法的步骤,或者实现上述应用于用户设备的视频处理方法的步骤。
本发明实施例中,借助视频服务器获取UGC视频流和与所述UGC视频流对应的机位视频流,并依据UGC视频流和机位视频流的关键帧的匹配结果,可以直接对UGC视频流和机位视频流进行混流。与现有技术相比,利用本发明实施例无需借助用户控制操作来对UGC视频流和机位视频流进行混流,而是通过关键帧的匹配结果来对UGC视频流和机位视频流进行混流,从而保证混合视频流的合成效果。
进一步的,本发明实施例是借助视频服务器实现对UGC视频流和机位视频流的混流,相比于目前利用用户终端进行混流的方式,由于视频服务器比用户设备的软硬件能力都高,因此可以减少对机位视频流的画质、清晰度等的损耗,提升编码效率,降低时延,从而提升观看体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的视频处理方法的流程图之一;
图2为本发明实施例的视频处理方法的流程图之一;
图3为本发明具体实例的视频处理过程的流程示意图;
图4为本发明实施例的视频处理装置的结构示意图之一;
图5为本发明实施例的视频处理装置的结构示意图之二;
图6为本发明实施例的通信设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,图1是本发明实施例提供的一种视频处理方法的流程图,该方法应用于视频服务器,如图1所示,该方法包括如下步骤:
步骤101:获取UGC视频流。
本实施例中,视频服务器也可以称为视频服务中心、视频混流中心等。视频服务器可以仅获取一个用户的UGC视频流,也可以获取多个用户不同的UGC视频流。视频服务器在获取UGC视频流时,可以接收相应用户终端直接上传的UGC视频流,也可以接收相应用户终端通过边缘服务器上传的UGC视频流,即上述步骤101可包括:通过边缘服务器,接收用户设备发送的UGC视频流。该边缘服务器比如为实时Live内容分发网络(Content DeliveryNetwork,CDN)边缘节点。
可选的,上述UGC视频流可在用户直播过程中生成,而针对的场景可为大型演艺直播、体育直播等场景。
步骤102:确定与所述UGC视频流对应的机位视频流。
本实施例中,上述机位视频流可以理解为机位摄像装置(比如摄像机)所采集的视频直播流,比如在大型演艺直播、体育直播等场景下,由场景中的机位摄像机所采集的视频直播流。该机位视频流通常可以作为直播流供直播场景内和/或直播场景外的观众观看。当直播现场中的机位摄像装置采集得到视频直播流之后,可以将该视频直播流传送至现场总控中心进行转码输出,并通过专线传送至视频服务器。而视频服务器中可同时具有多个机位摄像装置所采集的视频直播流,即多机位视角的多个机位视频流。
可选的,上述机位视频流的规范可以包括以下至少一项:1)视频格式为高清格式TS;2)视频编码为H.265/AVS2;3)视频分辨率(Video Resolution)为3840x2160以上;4)视频帧率(Frame Rate)为50P/60P以上;5)视频色域(Color Primaries)为BT.2020;6)视频高动态范围(Color Transfer Function)为SMPTE ST2084;7)视频高色深为10bit以上;8)音频为三维全景声,具有三维空间感、方位感的声音;9)视频流中每个GOP的时间相等;10)视频流中由n个GOP组成一个MGOP,并在SEI自定义信息中包括开始关键I帧的递增序号。
由于用户在生成UGC视频时,通常需先在用户终端上选择感兴趣的某指定机位摄像装置所采集的视频直播流即机位视频流进行播放,然后依据播放的视频内容进行解说或者表演,因此,上述的与UGC视频流对应的机位视频流可理解为,在生成该UGC视频时所依据的机位视频流。为了使得视频服务器准确确定与UGC视频流对应的机位视频流,可在该UGC视频流的补充增强信息(Supplemental Enhancement Information,SEI)中添加指示信息,以指示出对应的机位视频流;或者在上传UGC视频流至视频服务器时,额外发送指示信息给视频服务器,以指示出该UGC视频流对应的机位视频流。
步骤103:对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
本实施例中,上述UGC视频流和机位视频流可以采用MGOP形式,通常n个画面组(Group of Pictures,GOP)组成一个MGOP,每个GOP的时间相同,n为大于或等于1的正整数。以机位视频流为例,从该机位视频流的SEI中,可以获取MGOP以及开始关键I帧的递增序号;而在下个SEI中,可以获取MGOP以及新开始关键I帧的递增序号。
可选的,上述步骤103中的关键帧可以为开始关键I帧,即将UGC视频流和机位视频流的开始关键I帧最为匹配的依据,对该UGC视频流和机位视频流进行混流,以得到目标视频流。
本发明实施例的视频处理方法,借助视频服务器获取UGC视频流和与所述UGC视频流对应的机位视频流,并依据UGC视频流和机位视频流的关键帧的匹配结果,可以直接对UGC视频流和机位视频流进行混流。与现有技术相比,利用本发明实施例无需借助用户控制操作来对UGC视频流和机位视频流进行混流,而是通过关键帧的匹配结果来对UGC视频流和机位视频流进行混流,从而保证混合视频流的合成效果。
进一步的,本发明实施例是借助视频服务器实现对UGC视频流和机位视频流的混流,相比于目前利用用户终端进行混流的方式,由于视频服务器比用户设备的软硬件能力都高,因此可以减少对机位视频流的画质、清晰度等的损耗,提升编码效率,降低时延,从而提升观看体验。此外,本发明实施例还可以弱化对用户终端的硬件以及带宽的要求,仅由用户终端上传UGC视频流以及与对应机位视频流相关的少量数值信息。
本发明至少一个实施例中,为了便于视频服务器的混流操作,用户终端在生成UGC视频流时,可以保持该UGC视频流的关键帧(比如开始关键I帧)与对应机位视频流的关键帧(比如开始关键I帧)在时间上一致,并将该机位视频流的关键帧的序列号(比如开始关键I帧的递增序号)写入UGC视频流的SEI中,以使视频服务器在混流时使用。
可选的,上述步骤103可以包括:
确定所述UGC视频流的第一关键帧;
对所述UGC视频流的SEI进行分析,获得所述机位视频流的第二关键帧的序列号,所述第二关键帧的时间点与所述第一关键帧的时间点一致;
根据所述序列号,确定所述第二关键帧;即根据所述序列号对机位视频流进行分析,确定所述第二关键帧;
对所述第一关键帧和所述第二关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
可理解的,上述的第一关键帧和第二关键帧可选为开始关键I帧。上述的第一关键帧和第二关键帧表示的不是具体的关键帧,而表示分别对应于UGC视频流和机位视频流的关键帧。这样,借助在UGC视频流的SEI中包括机位视频流的对应关键帧的序列号,可以便于视频服务器准确的对UGC视频流和机位视频流进行混流。
本发明至少一个实施例中,为了避免在对UGC视频流和机位视频流进行混流后影响到机位视频流的精彩内容,在对UGC视频流和机位视频流进行混流时,可首先借助对机位视频流的视频内容的分析,确定UGC视频流的混合位置和显示大小,然后再基于确定的混合位置和显示大小进行混流。其中,上述步骤103之前,所述方法还可包括:
确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像。
而上述步骤103中的对所述UGC视频流和所述机位视频流进行混流的过程可包括:根据所述相对位置信息和所述第一帧图像的显示大小,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
进一步的,上述确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小可包括以下任意一项:
1)对所述UGC视频流的SEI进行分析,获得所述相对位置信息和所述第一帧图像的显示大小。
此1)下,可以由用户终端(比如借助人工智能AI三方软件)对机位视频流的视频内容进行分析,从而在不遮挡该机位视频流中精彩内容的前提下,确定出UGC视频流中的帧图像的混合位置和显示大小,即上述的相对位置信息和显示大小,并将确定出的相对位置信息和显示大小添加在UGC视频流的SEI中,以便视频服务器获得。
2)对所述机位视频流的视频内容进行分析,基于预设规则选定所述相对位置信息和所述第一帧图像的显示大小。
此2)下,可以由视频服务器对机位视频流的视频内容进行分析,从而在不遮挡该机位视频流中精彩内容的前提下,确定出UGC视频流中的帧图像的混合位置和显示大小,即上述的相对位置信息和显示大小。
可理解的,上述的第一帧图像和第二帧图像表示的不是具体的帧图像,而表示分别对应于UGC视频流和机位视频流的帧图像。上述的第一帧图像和第二帧图像通常不表示单帧图像,而可以MGOP(即n个GOP)为单位。上述的相对位置信息可以借助预设坐标系下的x、y坐标表示,上述的显示大小可以利用宽w和高h表示。
这样,借助对机位视频流的视频内容分析,可以在混流过程中动态调整第一帧图像相对于第二帧图像的相对位置和大小,从而避免遮挡机位视频流中的精彩内容,保证观看效果。
本发明至少一个实施例中,上述步骤103之后,所述方法还可包括:
将所述目标视频流发送至CDN内容中心节点,以使所述CDN内容中心节点为视频观看设备提供所述目标视频流。
一种实施方式中,视频观看设备可以同时获取多个不同的目标视频流,即基于多个视角的机位视频流以及相应的UGC视频流进行混流得到的多个目标视频流,并通过罗列的方式对多个目标视频流进行显示。
可选的,上述目标视频流可以借助广域网发送。在将目标视频流发送至CDN内容中心节点时,视频服务器可以首先将该目标视频流发送至CDN的某个内容中心节点,然后借助CDN内容中心的热点资源预加载能力,由该内容中心节点实时的将最新的视频直播内容扩散至其他内容中心节点。
例如,若将n(n≥1)个CDN边缘节点,按照大区以及运营商等分别划分到若干区域,当客户端A(即视频观看设备A)访问到相应区域中的某个CDN边缘节点时,该CDN边缘节点可以通过预设的链路质量最优算法,从M(M≥1)个CDN内容中心节点中挑选出区域最优的CDN内容中心节点,并将该最优的CDN内容中心节点作为回源地址来获取目标视频流,并对获取的视频流进行缓存的同时返回给客户端A。而若该最优的CDN内容中心节点的有效期为t,则有效期过后,需重新挑选最优的CDN内容中心节点。上述预设的链路质量最优算法可如下所示:
C=sort(C(0,1…M-1)[(D[0,1…I-1]/I)/(T[0,1…I-1]/I)-(O(0,1…M-1)+B(0,1…M-1))])(a>b)[0]
其中,sort表示对给定区间所有元素进行排序;C(0,1…M-1)依次表示M个CDN内容中心节点;O(0,1…M-1)依次表示每个CDN内容中心节点的带宽压力;B(0,1…M-1)依次表示每个CDN内容中心节点的带宽使用率;I表示回源请求的次数;T[0,1…I-1]依次表示每次回源请求的响应时间;D[0,1…I-1]依次表示每次回源请求的下载速度;a和b表示计算得到的任意两个CDN内容中心节点的性能值,(a>b)表示对应sort按照大小进行降序排序;[0]表示CDN内容中心节点从0开始的标记。这样借助选取链路质量最优的CDN内容中心节点来获取播放视频,可以减少视频的卡顿率,降低播放时延。
请参见图2,图2是本发明实施例提供的另一种视频处理方法的流程图,该方法应用于用户设备,如图1所示,该方法包括如下步骤:
步骤201:生成UGC视频流。
其中,所述UGC视频流的第一关键帧的时间点和第二关键帧的时间点一致,所述第二关键帧为与所述UGC视频流对应的机位视频流的关键帧。上述的第一关键帧和第二关键帧可选为开始关键I帧。
步骤202:向视频服务器发送所述UGC视频流,以由所述视频服务器对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
本发明实施例中,可以借助视频服务器获取UGC视频流和与所述UGC视频流对应的机位视频流,并依据UGC视频流和机位视频流的关键帧的匹配结果,直接对所述UGC视频流和所述机位视频流进行混流,从而相比于目前利用用户终端进行混流的方式,可以减少对机位视频流的画质、清晰度等的损耗,提升编码效率,降低时延,从而提升观看体验。
可选的,所述UGC视频流的SEI中包括所述第二关键帧的序列号。这样,借助在UGC视频流的SEI中包括机位视频流的对应关键帧的序列号,可以便于视频服务器准确的对UGC视频流和机位视频流进行混流。
可选的,所述UGC视频流的SEI中包括所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像。
可选的,步骤202之前,所述方法还可包括:
向第一服务器发送请求信息,其中,所述请求信息用于请求所述第一服务器为用户设备确定最优的边缘服务器;
接收所述第一服务器根据所述请求信息发送的服务器信息;
根据所述服务器信息,选取边缘服务器。
而上述步骤202包括:通过选取的所述边缘服务器,向所述视频服务器发送所述UGC视频流。
这样,可以有助于选取最优的边缘服务器来上传UGC视频流,从而保证视频上传质量,降低视频的上传时延。
一种实施方式中,用户终端向视频服务器发送UGC视频流的过程可为:首先,用户终端向第一服务器发送请求信息,其中该请求信息用于请求第一服务器为用户设备确定最优的边缘服务器,该第一服务器可选为网域名称系统(Domain Name System,DNS)服务集群,该请求信息可选为http DNS请求信息,可以包括用户终端所在的经纬度信息、用户终端IP(ClientIp)等信息;然后,DNS服务集群根据用户终端所在的经纬度信息、ClientIp以及业务类型等信息,按照就近、质量、成本、当地节点集群的服务状态等综合因素,确定最优的边缘服务器,并将该最优的边缘服务器的服务器信息(比如ServerIp)发送给用户终端;最后,用户终端根据接收到服务器信息确定边缘服务器,并将UGC视频流推送至确定的边缘服务器,以使该边缘服务器向视频服务器发送UGC视频流。
下面结合图3对本发明具体实例的视频处理过程进行说明。
本发明具体实例中,比如以体育直播场景为例,如图3所示,场景中可具有多个大型机位摄像机(图3中仅示出了4个,但不以此为限),每个机位摄像机可分别采集视频直播流(即机位视频流),并将视频直播流传送至现场总控中心进行转码输出,并通过专线传送至混流中心。而用户(图3中仅示出了3个,但不以此为限)可以通过手机等用户终端生成、编码及上传UGC视频流。用户在生成UGC视频流时,可依据选取的感兴趣的某指定机位摄像机所采集的视频直播流来进行解说或者表演,并借助用户侧摄像头及音频采集装置采集。而生成的UGC视频流在编码之后,可由用户终端上传至LiveCDN的就近边缘节点,并由该就近边缘节点通过CDN转发至混流中心。混流中心在接收到机位视频流和UGC视频流之后,可以对相应的机位视频流和UGC视频流进行混流(具体视频处理过程可参见上述内容,在此不再赘述),以得到目标视频流,并利用内容分发网络CDN对目标视频流进行分发,以使得比如场景外的互联网直播用户可以观看该目标视频流。需说明的是,图3中的细线表示视频采集流,而粗线表示视频播出流。
请参见图4,图4是本发明实施例提供的一种视频处理装置的结构示意图,如图4所示,该视频处理装置40可包括:
获取模块41,用于获取用户生成内容UGC视频流;
第一确定模块42,用于确定与所述UGC视频流对应的机位视频流;
混流模块43,用于对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
可选的,所述混流模块43可包括:
第一确定单元,用于确定所述UGC视频流的第一关键帧;
分析单元,用于对所述UGC视频流的SEI进行分析,获得所述机位视频流的第二关键帧的序列号,所述第二关键帧的时间点与所述第一关键帧的时间点一致;
第二确定单元,用于根据所述序列号,确定所述第二关键帧;
混流单元,用于对所述第一关键帧和所述第二关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
可选的,所述视频处理装置40还可包括:
第二确定模块,用于确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像;
所述混流模块43还用于:
根据所述相对位置信息和所述第一帧图像的显示大小,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
可选的,所述第二确定模块可执行以下任意一项:
对所述UGC视频流的SEI进行分析,获得所述相对位置信息和所述第一帧图像的显示大小;
对所述机位视频流的视频内容进行分析,基于预设规则选定所述相对位置信息和所述第一帧图像的显示大小。
可选的,所述获取模块41还用于:
通过边缘服务器,接收用户设备发送的所述UGC视频流。
可选的,所述视频处理装置40还可包括:
第一发送模块,用于将所述目标视频流发送至CDN内容中心节点,以使所述CDN内容中心节点为视频观看设备提供所述目标视频流。
可理解的,本实施例中的视频处理装置40可以实现上述图1所示的视频播放方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
请参见图5,图5是本发明实施例提供的一种视频处理装置的结构示意图,应用于用户设备,如图5所示,该视频处理装置50可包括:
生成模块51,用于生成UGC视频流,其中,所述UGC视频流的第一关键帧的时间点和第二关键帧的时间点一致,所述第二关键帧为与所述UGC视频流对应的机位视频流的关键帧;
第二发送模块52,用于向视频服务器发送所述UGC视频流,以由所述视频服务器对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
可选的,所述UGC视频流的SEI中包括所述第二关键帧的序列号。
可选的,所述UGC视频流的SEI中包括所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像。
可选的,所述视频处理装置50还可包括:
第三发送模块,用于向第一服务器发送请求信息,其中,所述请求信息用于请求所述第一服务器为用户设备确定最优的边缘服务器;
接收模块,用于接收所述第一服务器根据所述请求信息发送的服务器信息;
选取模块,用于根据所述服务器信息,选取边缘服务器;
所述第二发送模块52还用于:
通过选取的所述边缘服务器,向所述视频服务器发送所述UGC视频流。
可理解的,本实施例中的视频处理装置50可以实现上述图2所示的视频播放方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
此外,本发明实施例还提供了一种通信设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述计算机程序被所述处理器执行时可实现上述图1所示的视频处理方法实施例的各个过程,或者实现上述图2所示的视频处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。该通信设备可选为视频服务器或者用户设备。
具体的,参见图6所示,本发明实施例还提供了一种通信设备,包括总线61、收发机62、天线63、总线接口64、处理器65和存储器66。
在本发明实施例中,所述通信设备还包括:存储在存储器66上并可在处理器65上运行的计算机程序。
可选的,上述通信设备为视频服务器时,所述计算机程序被处理器65执行时可实现如下步骤:
获取UGC视频流;
确定与所述UGC视频流对应的机位视频流;
对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和机位视频流进行混流,得到目标视频流。
此外本实施例中,所述计算机程序被处理器65执行时可实现上述图1所示的视频播放方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
可选的,上述通信设备为用户终端时,所述计算机程序被处理器65执行时可实现如下步骤:
生成UGC视频流,其中,所述UGC视频流的第一关键帧的时间点和第二关键帧的时间点一致,所述第二关键帧为与所述UGC视频流对应的机位视频流的关键帧;
向视频服务器发送所述UGC视频流,以由所述视频服务器对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
此外本实施例中,所述计算机程序被处理器65执行时可实现上述图2所示的视频播放方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
在图6中,总线架构(用总线61来代表),总线61可以包括任意数量的互联的总线和桥,总线61将包括由处理器65代表的一个或多个处理器和存储器66代表的存储器的各种电路链接在一起。总线61还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口64在总线61和收发机62之间提供接口。收发机62可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器65处理的数据通过天线63在无线介质上进行传输,进一步,天线63还接收数据并将数据传送给处理器65。
处理器65负责管理总线61和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器66可以被用于存储处理器65在执行操作时所使用的数据。
可选的,处理器65可以是CPU、ASIC、FPGA或CPLD。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述图1所示的视频处理方法实施例的各个过程,或者实现上述图2所示的视频处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (12)
1.一种视频处理方法,应用于视频服务器,其特征在于,包括:
获取用户生成内容UGC视频流;
确定与所述UGC视频流对应的机位视频流;
对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
2.根据权利要求1所述的方法,其特征在于,所述对所述UGC视频流的关键帧和所述机位视频流的关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到目标视频流,包括:
确定所述UGC视频流的第一关键帧;
对所述UGC视频流的补充增强信息SEI进行分析,获得所述机位视频流的第二关键帧的序列号,所述第二关键帧的时间点与所述第一关键帧的时间点一致;
根据所述序列号,确定所述第二关键帧;
对所述第一关键帧和所述第二关键帧进行匹配,并依据匹配结果,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
3.根据权利要求1所述的方法,其特征在于,所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流之前,所述方法还包括:
确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像;
所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流包括:
根据所述相对位置信息和所述第一帧图像的显示大小,对所述UGC视频流和所述机位视频流进行混流,得到所述目标视频流。
4.根据权利要求3所述的方法,其特征在于,所述确定所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,包括以下任意一项:
对所述UGC视频流的SEI进行分析,获得所述相对位置信息和所述第一帧图像的显示大小;
对所述机位视频流的视频内容进行分析,基于预设规则选定所述相对位置信息和所述第一帧图像的显示大小。
5.根据权利要求1所述的方法,其特征在于,所述获取用户生成内容UGC视频流,包括:
通过边缘服务器,接收用户设备发送的所述UGC视频流。
6.根据权利要求1所述的方法,其特征在于,所述对所述UGC视频流和所述机位视频流进行混流,得到目标视频流之后,所述方法还包括:
将所述目标视频流发送至内容分发网络CDN内容中心节点,以使所述CDN内容中心节点为视频观看设备提供所述目标视频流。
7.一种视频处理方法,应用于用户设备,其特征在于,包括:
生成UGC视频流,其中,所述UGC视频流的第一关键帧的时间点和第二关键帧的时间点一致,所述第二关键帧为与所述UGC视频流对应的机位视频流的关键帧;
向视频服务器发送所述UGC视频流,以由所述视频服务器对所述UGC视频流和所述机位视频流进行混流,得到目标视频流。
8.根据权利要求7所述的方法,其特征在于,所述UGC视频流的SEI中包括所述第二关键帧的序列号。
9.根据权利要求7所述的方法,其特征在于,所述UGC视频流的SEI中包括所述UGC视频流中的第一帧图像与第二帧图像的相对位置信息和所述第一帧图像的显示大小,其中,所述第二帧图像为所述机位视频流中的与所述第一帧图像在时间上一致的帧图像。
10.根据权利要求7所述的方法,其特征在于,所述向视频服务器发送所述UGC视频流之前,所述方法还包括:
向第一服务器发送请求信息,其中,所述请求信息用于请求所述第一服务器为用户设备确定最优的边缘服务器;
接收所述第一服务器根据所述请求信息发送的服务器信息;
根据所述服务器信息,选取边缘服务器;
所述向视频服务器发送所述UGC视频流,包括:
通过选取的所述边缘服务器,向所述视频服务器发送所述UGC视频流。
11.一种通信设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述计算机程序被所述处理器执行时实现如权利要求1至6中任一项所述的视频处理方法的步骤,或者如权利要求7至10中任一项所述的视频处理方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的视频处理方法的步骤,或者如权利要求7至10中任一项所述的视频处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910729587.2A CN110505489A (zh) | 2019-08-08 | 2019-08-08 | 视频处理方法、通信设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910729587.2A CN110505489A (zh) | 2019-08-08 | 2019-08-08 | 视频处理方法、通信设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110505489A true CN110505489A (zh) | 2019-11-26 |
Family
ID=68588046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910729587.2A Pending CN110505489A (zh) | 2019-08-08 | 2019-08-08 | 视频处理方法、通信设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110505489A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113824971A (zh) * | 2020-06-18 | 2021-12-21 | 中央广播电视总台 | 三维声直播流调度和分发方法及系统 |
CN115065829A (zh) * | 2022-04-25 | 2022-09-16 | 武汉斗鱼鱼乐网络科技有限公司 | 一种多人连麦方法及相关设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120137316A1 (en) * | 2010-11-30 | 2012-05-31 | Kirill Elizarov | Media information system and method |
EP2713609A1 (en) * | 2012-09-28 | 2014-04-02 | Stockholms Universitet Holding AB | Dynamic delay handling in mobile live video production systems |
CN104135667A (zh) * | 2014-06-10 | 2014-11-05 | 腾讯科技(深圳)有限公司 | 一种视频异地解说同步方法、终端设备,及系统 |
CN104602127A (zh) * | 2014-09-01 | 2015-05-06 | 腾讯科技(北京)有限公司 | 导播视频同步播放方法和系统以及视频导播设备 |
CN105187733A (zh) * | 2014-06-06 | 2015-12-23 | 腾讯科技(北京)有限公司 | 视频处理方法、装置及终端 |
CN105681387A (zh) * | 2015-11-26 | 2016-06-15 | 乐视云计算有限公司 | 一种直播视频的上传方法、装置及系统 |
CN106954100A (zh) * | 2017-03-13 | 2017-07-14 | 网宿科技股份有限公司 | 直播方法及系统、连麦管理服务器 |
CN107734350A (zh) * | 2017-09-25 | 2018-02-23 | 上海幻电信息科技有限公司 | 直播系统及直播方法 |
CN108833809A (zh) * | 2018-06-19 | 2018-11-16 | 武汉斗鱼网络科技有限公司 | 一种视频混流控制方法、装置、系统、设备及介质 |
CN108900859A (zh) * | 2018-08-17 | 2018-11-27 | 广州酷狗计算机科技有限公司 | 直播方法及系统 |
CN108989906A (zh) * | 2018-08-22 | 2018-12-11 | 佛山龙眼传媒科技有限公司 | 一种直播视频处理方法及装置 |
CN109327741A (zh) * | 2018-11-16 | 2019-02-12 | 网易(杭州)网络有限公司 | 游戏直播方法、装置和系统 |
CN109327708A (zh) * | 2018-11-12 | 2019-02-12 | 深圳品阔信息技术有限公司 | 现场直播方法、现场直播装置及存储介质 |
CN109618170A (zh) * | 2018-12-04 | 2019-04-12 | 嘉兴国电通新能源科技有限公司 | 基于网络编码的d2d实时视频流传输方法 |
-
2019
- 2019-08-08 CN CN201910729587.2A patent/CN110505489A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120137316A1 (en) * | 2010-11-30 | 2012-05-31 | Kirill Elizarov | Media information system and method |
EP2713609A1 (en) * | 2012-09-28 | 2014-04-02 | Stockholms Universitet Holding AB | Dynamic delay handling in mobile live video production systems |
CN105187733A (zh) * | 2014-06-06 | 2015-12-23 | 腾讯科技(北京)有限公司 | 视频处理方法、装置及终端 |
CN104135667A (zh) * | 2014-06-10 | 2014-11-05 | 腾讯科技(深圳)有限公司 | 一种视频异地解说同步方法、终端设备,及系统 |
CN104602127A (zh) * | 2014-09-01 | 2015-05-06 | 腾讯科技(北京)有限公司 | 导播视频同步播放方法和系统以及视频导播设备 |
CN105681387A (zh) * | 2015-11-26 | 2016-06-15 | 乐视云计算有限公司 | 一种直播视频的上传方法、装置及系统 |
CN106954100A (zh) * | 2017-03-13 | 2017-07-14 | 网宿科技股份有限公司 | 直播方法及系统、连麦管理服务器 |
CN107734350A (zh) * | 2017-09-25 | 2018-02-23 | 上海幻电信息科技有限公司 | 直播系统及直播方法 |
CN108833809A (zh) * | 2018-06-19 | 2018-11-16 | 武汉斗鱼网络科技有限公司 | 一种视频混流控制方法、装置、系统、设备及介质 |
CN108900859A (zh) * | 2018-08-17 | 2018-11-27 | 广州酷狗计算机科技有限公司 | 直播方法及系统 |
CN108989906A (zh) * | 2018-08-22 | 2018-12-11 | 佛山龙眼传媒科技有限公司 | 一种直播视频处理方法及装置 |
CN109327708A (zh) * | 2018-11-12 | 2019-02-12 | 深圳品阔信息技术有限公司 | 现场直播方法、现场直播装置及存储介质 |
CN109327741A (zh) * | 2018-11-16 | 2019-02-12 | 网易(杭州)网络有限公司 | 游戏直播方法、装置和系统 |
CN109618170A (zh) * | 2018-12-04 | 2019-04-12 | 嘉兴国电通新能源科技有限公司 | 基于网络编码的d2d实时视频流传输方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113824971A (zh) * | 2020-06-18 | 2021-12-21 | 中央广播电视总台 | 三维声直播流调度和分发方法及系统 |
CN115065829A (zh) * | 2022-04-25 | 2022-09-16 | 武汉斗鱼鱼乐网络科技有限公司 | 一种多人连麦方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103843301B (zh) | 经译码多媒体数据的网络串流期间的表示之间的切换 | |
CN1248520C (zh) | 基站设备 | |
US20070180135A1 (en) | Multimedia content exchange architecture and services | |
CN101485170B (zh) | 通过网络呈现用流传输的可重复的数据对象 | |
CN105491393A (zh) | 多人视频直播业务的实现方法 | |
CN107925797A (zh) | 传输编码的音频数据 | |
CN106134146A (zh) | 处理连续的多周期内容 | |
CN109963162A (zh) | 一种云导播系统及直播处理方法、装置 | |
US11991402B2 (en) | System and method for multiplexed rendering of light fields | |
CN110505489A (zh) | 视频处理方法、通信设备及计算机可读存储介质 | |
CN105357590A (zh) | 一种实现终端多媒体广播的方法及装置 | |
US11375171B2 (en) | System and method for preloading multi-view video | |
Christodoulou et al. | Adaptive subframe allocation for next generation multimedia delivery over hybrid LTE unicast broadcast | |
US20070223635A1 (en) | Information Delivery System and Method, its Information Delivery Apparatus, Receiving Terminal, and Information Relay Apparatus | |
CN110662119A (zh) | 一种视频拼接方法及装置 | |
KR101843815B1 (ko) | 비디오 클립간 중간영상 ppl 편집 플랫폼 제공 방법 | |
CN114363703A (zh) | 视频处理方法、装置及系统 | |
WO2014012384A1 (zh) | 通信数据的发送方法、系统及接收装置 | |
Milovanovic et al. | An Evolution of 5G Multimedia Communication: New Ecosystem | |
Carne | Connections for the Digital Age: Multimedia Communications for Mobile, Nomadic and Fixed Devices | |
CN111131777B (zh) | 一种视联网监控的查看方法和装置 | |
Gabin et al. | 5G multimedia standardization | |
US20240155072A1 (en) | Three-dimensional visual communication sessions | |
Mir et al. | The zewall project: Real-time delivering of events via portable devices | |
CN111147952B (zh) | 一种监控资源数据发送方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191126 |
|
RJ01 | Rejection of invention patent application after publication |