CN116866635A - 视频传输方法、装置、设备、介质和程序产品 - Google Patents

视频传输方法、装置、设备、介质和程序产品 Download PDF

Info

Publication number
CN116866635A
CN116866635A CN202310827501.6A CN202310827501A CN116866635A CN 116866635 A CN116866635 A CN 116866635A CN 202310827501 A CN202310827501 A CN 202310827501A CN 116866635 A CN116866635 A CN 116866635A
Authority
CN
China
Prior art keywords
video
face
dimensional
image
cloud information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310827501.6A
Other languages
English (en)
Inventor
张泽唯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202310827501.6A priority Critical patent/CN116866635A/zh
Publication of CN116866635A publication Critical patent/CN116866635A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本公开提供了一种视频传输方法、装置、设备、介质和程序产品,可以应用于金融技术领域。该视频传输方法包括:获取参会对象的面部静态图像;对原视频进行压缩,得到压缩视频;其中,面部静态图像的清晰度大于压缩视频的清晰度;向视频接收端发送面部静态图像和压缩视频;分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息;其中,原视频图像的帧速率大于压缩视频的帧速率;向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、压缩视频和三维点阵云信息还原视频。

Description

视频传输方法、装置、设备、介质和程序产品
技术领域
本公开涉及金融技术领域,更具体地涉及一种视频传输方法、装置、设备、介质和程序产品。
背景技术
当前办公场景中经常使用视频会议实现远距离双方的有效沟通,由于带宽资源有限,为保证视频传输的及时性,现有视频传输方案通常采用压缩视频的方式进行视频传输。对视频进行压缩虽然可以有效提高视频的传输速率,但是会导致视频的清晰度和流畅性下降,降低用户视觉体验。
发明内容
鉴于上述问题,本公开提供了一种视频传输方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种视频传输方法,包括:获取参会对象的面部静态图像;对原视频进行压缩,得到压缩视频;其中,面部静态图像的清晰度大于压缩视频的清晰度;向视频接收端发送面部静态图像和压缩视频;分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息;其中,原视频图像的帧速率大于压缩视频的帧速率;向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、压缩视频和三维点阵云信息还原视频。
根据本公开的实施例,基于原视频获取参会对象的面部静态图像,包括:识别原视频中的人脸区域,确定参会人员的面部静态图像;其中,面部静态图像包括多个角度n
根据本公开的实施例,分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息,包括:识别视频图像中的人脸区域,得到人脸图像;提取人脸图像中的面部特征;确定面部特征的坐标,得到面部特征的三维点阵云信息;其中,三维点阵云信息包括当前人脸图像中的多个面部特征的坐标组,每一坐标组用于表示一个面部特征的位置,每一坐标组中包含用于表示该面部特征轮廓的多个坐标。
根据本公开的实施例,视频传输方法还包括:基于原视频中的人脸区域确定参会对象,为参会对象配置标识符;其中,标识符与参会对象一一对应,标识符随面部静态图像和三维点阵云信息一同发送至视频接收端,以使视频接收端基于标识符确定参会对象的面部静态图像和三维点阵云信息。
本公开第二方面提供了一种视频传输方法,应用于视频接收端,包括:接收面部静态图像、压缩视频和三维点阵云信息;其中,面部静态图像是由视频发送端基于原视频获取的参会对象的面部静态图像,面部静态图像的清晰度大于所述压缩视频的清晰度;基于面部静态图像构建参会对象的面部三维模型;基于三维点阵云信息和面部三维模型生成参会对象的面部三维动画;其中,三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的;基于面部三维动画对压缩视频进行还原;显示还原后的视频画面。
根据本公开的实施例,基于面部静态图像构建参会对象的面部三维模型,包括:对面部静态图像进行三维特征分析,确定多个三维面部特征;基于三维面部特征,构建面部三维模型。
根据本公开的实施例,基于三维点阵云信息和面部三维模型生成参会对象的面部三维动画,包括:按照时间顺序对三维点阵云信息进行排列,得到三维点阵云序列;基于三维点阵云序列重构面部三维模型中的面部特征,得到面部三维动画。
根据本公开的实施例,基于面部三维动画对压缩视频进行还原,包括:提取面部三维模型特定角度的二维图像;其中,特定角度基于压缩视频中参会对象的角度确定;将二维图像嵌入至压缩视频中相应的参会对象的人脸区域。
本公开的第三方面提供了一种视频传输装置,包括:静态图像获取模块,用于获取参会对象的面部静态图像;视频压缩模块,用于对原视频进行压缩,得到压缩视频;其中,面部静态图像的清晰度大于压缩视频的清晰度;第一发送模块,用于向视频接收端发送面部静态图像和压缩视频;特征提取模块,用于分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息;其中,原视频图像的帧速率大于压缩视频的帧速率;第二发送模块,用于向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、所述压缩视频和所述三维点阵云信息还原所述视频。
本公开的第四方面提供了一种视频传输装置,包括:接收模块,用于接收面部静态图像、压缩视频和三维点阵云信息;其中,面部静态图像是由视频发送端基于原视频获取的参会对象的面部静态图像,面部静态图像的清晰度大于压缩视频的清晰度;模型构建模块,用于基于面部静态图像构建参会对象的面部三维模型;动画生成模块,用于基于三维点阵云信息和面部三维模型生成参会对象的面部三维动画;其中,三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的;视频还原模块,用于基于面部三维动画对压缩视频进行还原;显示模块,用于显示还原后的视频画面。
本公开的第五方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述视频传输方法。
本公开的第六方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述视频传输方法。
本公开的第七方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述视频传输方法。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的视频传输方法的应用场景图;
图2示意性示出了根据本公开实施例的视频传输方法的流程图;
图3示意性示出了根据本公开实施例的提取面部特征位置的流程图;
图4示意性示出了根据本公开实施例的视频传输方法的流程图;
图5示意性示出了根据本公开实施例的构建面部三维模型的流程图;
图6示意性示出了根据本公开实施例的生成参会对象的面部三维动画的流程图;
图7意性示出了根据本公开实施例的还原压缩视频的流程图;
图8示意性示出了根据本公开实施例的视频传输装置的结构框图;
图9意性示出了根据本公开实施例的视频传输装置的结构框图;
图10性示出了根据本公开实施例的适于实现视频传输方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
需要说明的是,本公开视频传输的方法和装置可用于金融领域,也可用于除金融领域之外的任意领域,本公开视频传输的方法和装置的应用领域不做限定。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
本公开的实施例提供了一种视频传输方法,包括:基于原视频获取参会对象的面部静态图像。对原视频进行压缩,得到压缩视频,其中,面部静态图像的清晰度大于压缩视频的清晰度。向视频接收端发送面部静态图像和压缩视频。分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息。向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、压缩视频和三维点阵云信息还原所述视频。
图1示意性示出了根据本公开实施例的视频传输方法的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括网络104、终端设备101、终端设备102、终端设备103和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的视频传输方法一般可以由服务器105执行。相应地,本公开实施例所提供的视频传输装置一般可以设置于服务器105中。本公开实施例所提供的视频传输方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的视频传输装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图7对公开实施例的视频传输方法进行详细描述。
图2示意性示出了根据本公开实施例的视频传输方法的流程图。
如图2所示,该实施例的视频传输方法应用于视频发送端,包括操作S210~操作S250。
在操作S210,获取参会对象的面部静态图像。
在一些实施例中,会议现场布置有多个不同机位,用于对会议进行多角度录制。通过多个机位对参会对象进行识别,获取每一参会对象的面部静态图像,其中,每一参会对象的面部静态图像包括多个不同角度的面部静态子图像。
在操作S220,对原视频进行压缩,得到压缩视频。
在一些实施例中,用于进行视频传输的带宽资源通常是有限的,为了确保视频会议中视频传输的及时性,通常需要对录制的原视频进行压缩,以确保视频可以及时传输至视频接收方,以保证参会双方沟通顺畅。更进一步,由于本公开中布置了多个不同的机位的画面捕捉装置,相应的,原视频包括多个不同的角度。在进行视频压缩的时候,出于带宽资源和用户需求等方面的考量,通常会选择特定机位,对特定机位录制的视频进行压缩,即压缩视频只有一个。对视频进行压缩,可以有效降低视频体积,节约传输带宽资源,实现视频画面的及时传输,确保参会双方沟通的时效性,提高视频双方沟通的效率。
在具体实施过程中,基于传输带宽确定原视频的传输码率,基于码率对原视频进行压缩,得到压缩视频。其中,视频码率与视频体积以及视频清晰度成正比,也就是说,视频码率越小,视频体积越小,视频清晰度越低,传输压缩视频所需的带宽也就越小,即压缩视频的清晰度低于原视频。且由于视频体积与视频帧速率呈正比关系,因此,在对视频进行压编后,视频的帧速率也会相应减小。帧速率是指单位秒钟内所生成的图片帧数,视频的帧速率越小,画面的连贯性就越差,视频体积也会越小。在视频传输过程中,为了节约传输带宽资源,视频帧速率通常为15fps。
在操作S230,向视频接收端发送面部静态图像和压缩视频。
在一些实施例中,由于面部静态图像是基于未经压缩的原视频获取的,因此,面部静态图像的清晰度高于压缩视频的清晰度。
在操作S240,分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息。
在一些实施例中,视频会议的场景通常较为固定,多为人物演讲场景。由于视频的背景较为固定,因此,仅需对易运动的人物面部特征进行提取,得到当前帧视频图像的三维点云信息。其中,三维点阵云信息包括视频图像中的面部特征位置坐标,当视频图像中的人物面部处于运动状态时,面部特征的位置坐标也会相应改变。三维点阵云信息的数据量较小,可以有效节约传输带宽资源。
在具体实施过程中,由于原视频的体积大于压缩视频的体积,相应的,原视频中的帧速率也应大于压缩视频。例如,原视频的帧速率为60fps,那么在一秒内就会产生60张视频图像,相应的,基于视频图像提取的三维点阵云信息的帧速率为60fps。
在操作S250,向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、压缩视频和三维点阵云信息还原视频。
在一些实施例中,相对于高清晰度的原视频图像,三维点阵云信息的数据量较小,有利于在有限带宽中进行数据的快速传输。
在本公开实施例中,将清晰度较高的原视频拆分成参会对象的面部静态图像、清晰度较低的压缩视频以及可以表示视频细节的三维点阵云信息,有效提高视频的帧速率,确保低带宽资源情况下视频传输的效率和及时性。这种将原视频拆解成多个信息流进行传输的方式,使得视频接收端基于拆解后的信息流对视频清晰度进行还原,使得视频接受方在视频接收端看到高清晰的视频画面。在保证视频传输效率的同时,保证视频的质量,使得视频接收方可以在低带宽资源的情况下查看到高流畅度、高清晰度的高质量视频画面,提升用户的视频体验。
根据本发明一实施例,上述操作S210中,基于原视频获取参会对象的面部静态图像,包括:识别原视频中的人脸区域,确定参会对象的面部静态图像;其中,面部静态图像包括多个角度。
在一些实施例中,基于卷积神经网络识别原视频中的人脸区域,确定参会对象的面部静态图像。其中,面部静态图像中包含由多个机位录制的不同角度的面部静态子图像。多角度的面部静态图像有益于提高视频接收端构建的面部三维模型的精确度,使面部三维模型与参会人员的真实面容更加相似,以提高还原后视频的真实度。
在具体实施过程,视频发送端仅需在参会人员首次出现时确定参会人员的面部静态图像,每位参会人员仅需确定一组面部静态图像即可,一组面部静态图像中包括多张不同角度的面部静态子图像。
在具体实施过程,上述视频传输方法还可以包括:
基于原视频中的人脸区域确定参会对象,为参会对象配置标识符。
在一些实施例中,标识符为参会对象的唯一标识,与参会对象一一对应,可用于确定参会对象的信息。当视频发送端向视频接收端发送面部静态图像和/或三维点阵云信息时,标识符也会一起发送至视频接收端,以使视频接收端基于标识符快速确定与每一参会对象对应的面部静态图像和三维点阵信息,确保还原视频的正确性和效率。
图3示意性示出了根据本公开实施例的提取面部特征位置的流程图。
如图3所示,该实施例的提取面部特征位置,包括操作S310~操作S330。
在操作S310,识别视频图像中的人脸区域,得到人脸图像。
在操作S320,提取人脸图像中的面部特征。
在操作S330,确定面部特征的坐标,得到面部特征的三维点阵云信息。
在一些实施例中,将原视频逐帧拆解成多个视频图像,识别每一帧视频图像中的人脸区域,得到人脸图像。根据上述可知,本公开布置了多个不同的机位的画面捕捉装置,以得到多个不同角度的原视频,相应的,人脸图像也应包含多个不同角度的人脸子图像。
从人脸图像中提取n个面部特征,其中面部特征是由视频发送端预先定义好的,例如可以包括眼睛、嘴巴、鼻尖等。确定面部特征在视频图像中的位置坐标,例如,某机位获取的面部特征的位置坐标可以记为(x1,y1,z1),(x2,y2,z2),……,(xn,yn,zn),形成三维点阵云信息。三维点阵云信息包括当前人脸图像的多个面部特征的坐标组,每一坐标组用于标识一个面部特征的位置,每一坐标组中包含m个面部特征的坐标,其中,m≥1。其中,三维点阵云信息包括当前人脸图像中的多个面部特征的坐标组,每一坐标组用于表示一个面部特征的位置,每一坐标组中包含用于表示该面部特征轮廓的多个坐标。
在具体实施过程,可以通过预训练好的识别模型提取视频图像中的人脸图像。该识别模型可以采用卷积神经网络进行视频图像的人脸识别,通过神经网络中的特征提取层提取视频图片中的局部特征并确定局部特征之间的位置关系,将局部特征输入至特征映射层,通过特征映射层对特征提取层中得到的局部特征进行组合,得到当前视频图像的人脸识别结果,确定人脸图像。
在得到人脸图像后,进一步对人脸图像进行面部特征识别,确定面部特征的坐标,得到三维点阵云信息。其中,确定面部特征的坐标,包括:获取当前参会对象的多角度人脸子图像,例如,当前参会对象的人脸图像包括A,B,C三个角度的人脸子图像,基于上述人脸子图像确定当人脸图像中面部特征的坐标信息,其中,坐标信息为三维空间坐标信息。
图4示意性示出了根据本公开实施例的视频传输方法的流程图。
如图4所示,该实施例的视频传输方法应用于视频接收端,包括操作S410~操作S450。
在操作S410,接收面部静态图像、压缩视频和三维点阵云信息。
在一些实施例中,视频接收端接收由视频发送端发送的基于原视频获取的参会对象的面部静态图像,该面部静态图像的清晰度大于压缩视频的清晰度,视频接收端可以利用高清晰度的面部静态图像构建参会对象的面部三维模型。
在具体实施过程,视频接收端在接收面部静态图像以及三维点阵云信息的同时,还会接收相应的标识符。视频接收端基于标识符建立面部静态图像、三维点阵云信息之间的关联关系,以实现面部静态图像、三维点阵云信息与参会对象之间的快速匹配。
在操作S420,基于面部静态图像构建参会对象的面部三维模型。
在一些实施例中,通过多角度的面部静态图像对参会对象进行面部三维模型的构建,得到高清晰度的面部三维模型,以便于后续对压缩视频中参会对象的面部图像进行替换。
在操作S430,基于三维点阵云信息和面部三维模型生成参会对象的面部三维动画。
在一些实施例中,三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的。通过三维点阵云信息对面部三维模型中的特征点进行实时调整,得到面部三维动画。
在操作S440,基于面部三维动画对压缩视频进行还原。
在一些实施例中,确定面部三维模型的特定角度,基于特定角度的面部三维动画得到二维视频,其中,二维视频为参会对象特定角度的面部动画。将二维视频的画面帧嵌入至压缩视频,替换压缩视频中参会对象的面部位置,还原压缩视频的清晰度。
在操作S450,显示还原后的视频画面。
在一些实施例中,视频接收端基于接收到视频发送端发送的面部静态图像、压缩视频和三维点阵云信息,进行视频清晰度的还原。
本公开提供了一种视频传输方法,基于视频发送端发送的面部静态图像和三维点阵云信息对低清晰度的压缩视频进行还原并有效提升视频的帧速率,使得最终呈现给用户的视频具有较高的清晰度和流畅度,提升用户的视觉体验。
图5示意性示出了根据本公开实施例的构建面部三维模型的流程图。
如图5所示,该实施例的构建面部三维模型,包括操作S510~操作S520。
在操作S510,对面部静态图像进行三维特征分析,确定多个三维面部特征。
在操作S520,基于三维面部特征,构建面部三维模型。
在一些实施例中,对多角度的面部静态图像进行面部特征分析,提取三维面部特征。并通过建立面部特征的映射矩阵,将三维人脸形状和特征点关联起来,构建面部三维模型。
图6示意性示出了根据本公开实施例的生成参会对象的面部三维动画的流程图。
如图6所示,该实施例的生成参会对象的面部三维动画,包括操作S610~操作S620。
在操作S610,按照时间顺序对三维点阵云信息进行排列,得到三维点阵云序列。
在操作S620,基于三维点阵云序列重构面部三维模型中的面部特征,得到面部三维动画。
在一些实施例中,视频接收端接收由视频发送端发送的三维点阵云信息。其中,三维点阵云信息是视频发送端基于时间顺序从原视频的视频图像中提取的,即三维点阵云信息在时间上是有序的。根据信息生成的时间顺序对三维点阵云信息进行排列,得到三维点阵云序列。该序列随视频图像每一帧的变动而变动,与视频中参会对象的运动轨迹一致。将三维点阵云序列传入面部三维模型中,使得面部三维模型的面部特征随三维点阵云序列中三维点阵云信息的变化而变化,得到面部三维动画。且由于三维点阵云信息的帧速率大于压缩视频的帧速率,相应的,面部三维动画的帧速率也大于压缩视频的帧速率,即面部三维动画的画面更加流畅。
图7示意性示出了根据本公开实施例的还原压缩视频的流程图。
如图7示,该实施例的还原压缩视频,包括操作S710~操作S720。
在操作S710,提取特定角度面部三维模型的二维图像;其中,特定角度基于压缩视频中参会对象的角度确定。
在操作S720,将二维图像嵌入至压缩视频中相应的参会对象的人脸区域。
在一些实施例中,压缩视频中不同参会对象的面部角度不同,同一参会对象的面部角度在不同时间也会存在区别。为进一步提高压缩视频还原度,本公开提出,基于压缩视频中参会对象的角度,确定面部三维模型角度,并获取该角度的二维图像,以使二维图像与压缩视频中参会对象的人脸角度相同,提高二维图像与压缩视频中该参会对象的适配度,以使视频接收端的用户获得更好的视频观看体验。且本公开的面部三维动画的帧速率大于压缩视频的帧速率,相应的,将由面部三维动画得到的二维图像嵌入压缩视频中相应的二维图像,可以有效提高压缩视频的帧速率,使得还原后的视频具有更高的流畅性。
基于上述视频传输方法,本公开还提供了一种视频传输装置。以下将结合图8对该装置进行详细描述。
图8示意性示出了根据本公开实施例的视频传输装置的结构框图。
如图8所示,该实施例的视频传输装置800包括静态图像获取模块810、视频压缩模块820、第一发送模块830、特征提取模块840和第二发送模块850。
静态图像获取模块810用于基于原视频获取参会对象的面部静态图像。在一实施例中,静态图像获取模块810可以用于执行前文描述的操作S210,在此不再赘述。
视频压缩模块820用于对原视频进行压缩,得到压缩视频。其中,面部静态图像的清晰度大于压缩视频的清晰度。在一实施例中,视频压缩模块820可以用于执行前文描述的操作S220,在此不再赘述。
第一发送模块830用于向视频接收端发送面部静态图像和压缩视频。在一实施例中,第一发送模块830可以用于执行前文描述的操作S230,在此不再赘述。
特征提取模块840用于分别从原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息。在一实施例中,第一发送模块840可以用于执行前文描述的操作S240,在此不再赘述。
第二发送模块850,用于向视频接收端发送三维点阵云信息,以使视频接收端根据面部静态图像、压缩视频和三维点阵云信息还原视频。在一实施例中,第一发送模块850可以用于执行前文描述的操作S250,在此不再赘述。
根据本公开的实施例,静态图像获取模块810、视频压缩模块820、第一发送模块830、特征提取模块840和第二发送模块850中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,静态图像获取模块810、视频压缩模块820、第一发送模块830、特征提取模块840和第二发送模块850中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,静态图像获取模块810、视频压缩模块820、第一发送模块830、特征提取模块840和第二发送模块850中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
基于上述视频传输方法,本公开还提供了一种视频传输装置。以下将结合图9对该装置进行详细描述。
图9示意性示出了根据本公开实施例的视频传输装置的结构框图。
如图9所示,该实施例的视频传输装置900包括接收模块910、模型构建模块920、动画生成模块930、视频还原模块940和显示模块950。
接收模块910用于接收面部静态图像、压缩视频和三维点阵云信息。其中,面部静态图像是由视频发送端基于原视频获取的参会对象的面部静态图像,面部静态图像的清晰度大于压缩视频的清晰度。在一实施例中,接收模块910可以用于执行前文描述的操作S410,在此不再赘述。
模型构建模块920用于基于面部静态图像构建参会对象的面部三维模型。在一实施例中,视频压缩模块920可以用于执行前文描述的操作S420,在此不再赘述。
动画生成模块930用于基于三维点阵云信息和面部三维模型生成参会对象的面部三维动画。其中,三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的。在一实施例中,第一发送模块930可以用于执行前文描述的操作S430,在此不再赘述。
视频还原模块940用于基于面部三维动画对压缩视频进行还原。在一实施例中,第一发送模块940可以用于执行前文描述的操作S440,在此不再赘述。
显示模块950,用于显示还原后的视频画面。在一实施例中,第一发送模块950可以用于执行前文描述的操作S450,在此不再赘述。
根据本公开的实施例,接收模块910、模型构建模块920、动画生成模块930、视频还原模块940和显示模块950中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,接收模块910、模型构建模块920、动画生成模块930、视频还原模块940和显示模块950中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,接收模块910、模型构建模块920、动画生成模块930、视频还原模块940和显示模块950中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图10示意性示出了根据本公开实施例的适于实现视频传输方法的电子设备的方框图。
如图10所示,根据本公开实施例的电子设备1000包括处理器1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。处理器1001例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1001还可以包括用于缓存用途的板载存储器。处理器1001可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1003中,存储有电子设备1000操作所需的各种程序和数据。处理器1001、ROM 1002以及RAM 1003通过总线1004彼此相连。处理器1001通过执行ROM 1002和/或RAM1003中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1002和RAM 1003以外的一个或多个存储器中。处理器1001也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1000还可以包括输入/输出(I/O)接口1005,输入/输出(I/O)接口1005也连接至总线1004。电子设备1000还可以包括连接至I/O接口1005的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1002和/或RAM 1003和/或ROM 1002和RAM 1003以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器1001执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1009被下载和安装,和/或从可拆卸介质1011被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被处理器1001执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (13)

1.一种视频传输方法,应用于视频发送端,包括:
获取参会对象的面部静态图像;
对原视频进行压缩,得到压缩视频;其中,所述面部静态图像的清晰度大于所述压缩视频的清晰度;
向视频接收端发送所述面部静态图像和所述压缩视频;
分别从所述原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息;其中,原视频图像的帧速率大于压缩视频的帧速率;
向视频接收端发送所述三维点阵云信息,以使所述视频接收端根据所述面部静态图像、所述压缩视频和所述三维点阵云信息还原所述视频。
2.根据权利要求1所述的视频传输方法,所述获取参会对象的面部静态图像,包括:
识别当前画面中的人脸区域,得到参会对象的面部静态图像;其中,参会对象的面部静态区域包括多个角度。
3.根据权利要求1所述的视频传输方法,所述分别从所述原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息,包括:
识别所述视频图像中的人脸区域,得到人脸图像;
提取所述人脸图像中的面部特征;
确定所述面部特征的坐标,得到所述面部特征的三维点阵云信息;
其中,所述三维点阵云信息包括当前人脸图像中的多个面部特征的坐标组,每一坐标组用于表示一个面部特征的位置,每一坐标组中包含用于表示该面部特征轮廓的多个坐标。
4.根据权利要求1所述的视频传输方法,还包括:
基于所述原视频中的人脸区域确定参会对象,为所述参会对象配置标识符;其中,所述标识符与所述参会对象一一对应,所述标识符随所述面部静态图像和所述三维点阵云信息一同发送至视频接收端,以使所述视频接收端基于所述标识符确定参会对象的面部静态图像和三维点阵云信息。
5.一种视频传输方法,应用于视频接收端,包括:
接收面部静态图像、压缩视频和三维点阵云信息;其中,所述面部静态图像是由视频发送端基于原视频获取的参会对象的面部静态图像,所述面部静态图像的清晰度大于所述压缩视频的清晰度;
基于所述面部静态图像构建参会对象的面部三维模型;
基于所述三维点阵云信息和所述面部三维模型生成参会对象的面部三维动画;其中,所述三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的;
基于所述面部三维动画对所述压缩视频进行还原;其中,所述面部三维动画的帧速率大于所述压缩视频的帧速率;
显示还原后的视频画面。
6.根据权利要求5所述的视频传输方法,所述基于所述面部静态图像构建参会对象的面部三维模型,包括:
对所述面部静态图像进行三维特征分析,确定多个三维面部特征;
基于所述三维面部特征,构建所述面部三维模型。
7.根据权利要求5所述的视频传输方法,所述基于所述三维点阵云信息和所述面部三维模型生成参会对象的面部三维动画,包括:
按照时间顺序对所述三维点阵云信息进行排列,得到三维点阵云序列;
基于所述三维点阵云序列重构所述面部三维模型中的面部特征,得到面部三维动画。
8.根据权利要求5所述的视频传输方法,所述基于所述面部三维动画对所述压缩视频进行还原,包括:
提取所述面部三维模型特定角度的二维图像;其中,所述特定角度基于压缩视频中参会对象的角度确定;
将所述二维图像嵌入至所述压缩视频中相应的参会对象的人脸区域。
9.一种视频传输装置,包括:
静态图像获取模块,用于获取参会对象的面部静态图像;
视频压缩模块,用于对原视频进行压缩,得到压缩视频;其中,所述面部静态图像的清晰度大于所述压缩视频的清晰度;
第一发送模块,用于向视频接收端发送所述面部静态图像和所述压缩视频;
特征提取模块,用于分别从所述原视频中每一帧的视频图像中提取面部特征位置,得到对应于每一帧视频图像的三维点阵云信息;其中,原视频图像的帧速率大于压缩视频的帧速率;
第二发送模块,用于向视频接收端发送所述三维点阵云信息,以使所述视频接收端根据所述面部静态图像、所述压缩视频和所述三维点阵云信息还原所述视频。
10.一种视频传输装置,包括:
接收模块,用于接收面部静态图像、压缩视频和三维点阵云信息;其中,所述面部静态图像是由视频发送端基于原视频获取的参会对象的面部静态图像,所述面部静态图像的清晰度大于所述压缩视频的清晰度;
模型构建模块,用于基于所述面部静态图像构建参会对象的面部三维模型;
动画生成模块,用于基于所述三维点阵云信息和所述面部三维模型生成参会对象的面部三维动画;其中,所述三维点阵云信息是由视频发送端基于原视频中每一帧的视频图像中提取得到的;
视频还原模块,用于基于所述面部三维动画对所述压缩视频进行还原;
显示模块,用于显示还原后的视频画面。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~4中任一项所述的方法,或,执行根据权利要求5~8中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有可执行指令,该指令被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~4中任一项所述的方法,或,执行根据权利要求5~8中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~4中任一项所述的方法,或,执行根据权利要求5~8中任一项所述的方法。
CN202310827501.6A 2023-07-06 2023-07-06 视频传输方法、装置、设备、介质和程序产品 Pending CN116866635A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310827501.6A CN116866635A (zh) 2023-07-06 2023-07-06 视频传输方法、装置、设备、介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310827501.6A CN116866635A (zh) 2023-07-06 2023-07-06 视频传输方法、装置、设备、介质和程序产品

Publications (1)

Publication Number Publication Date
CN116866635A true CN116866635A (zh) 2023-10-10

Family

ID=88226314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310827501.6A Pending CN116866635A (zh) 2023-07-06 2023-07-06 视频传输方法、装置、设备、介质和程序产品

Country Status (1)

Country Link
CN (1) CN116866635A (zh)

Similar Documents

Publication Publication Date Title
US20090257730A1 (en) Video server, video client device and video processing method thereof
CN109309842B (zh) 直播数据处理方法和装置、计算机设备和存储介质
CN109922319B (zh) 基于多核cpu的rtsp协议多视频流并行预处理方法
CN112738541B (zh) 画面显示方法、装置及电子设备
CN112291502B (zh) 信息交互方法、装置、系统和电子设备
US9038102B1 (en) Cable television system with integrated social streaming
US10360727B2 (en) Methods for streaming visible blocks of volumetric video
CN112954450A (zh) 视频处理方法、装置、电子设备和存储介质
CN112843676B (zh) 数据处理方法、装置、终端、服务器及存储介质
US11758182B2 (en) Video encoding through non-saliency compression for live streaming of high definition videos in low-bandwidth transmission
US20220076476A1 (en) Method for generating user avatar, related apparatus and computer program product
CN109040786A (zh) 摄像头数据的传输方法、装置、系统及存储介质
CN111818383B (zh) 视频数据的生成方法、系统、装置、电子设备及存储介质
US11223662B2 (en) Method, system, and non-transitory computer readable record medium for enhancing video quality of video call
CN110740352A (zh) 显卡透传环境下基于spice协议的差异图像显示方法
CN114463470A (zh) 虚拟空间浏览方法、装置、电子设备和可读存储介质
CN114363703A (zh) 视频处理方法、装置及系统
CN114051120A (zh) 视频告警方法、装置、存储介质及电子设备
WO2023226504A1 (zh) 一种媒体数据处理方法、装置、设备以及可读存储介质
KR20180131687A (ko) 실시간기반 및 컨텐츠 기반 실시간 공연공유 서비스 제공시스템
CN116866635A (zh) 视频传输方法、装置、设备、介质和程序产品
CN115174954A (zh) 视频直播方法、装置、电子设备以及存储介质
Tang et al. A cloud-edge collaborative gaming framework using AI-Powered foveated rendering and super resolution
US20240196050A1 (en) System, Method and Computer Program For Delivering Video Reactions to a Livestream Display Interface
CN115278278B (zh) 一种页面显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination