CN113225587B - 视频处理方法、视频处理装置及电子设备 - Google Patents

视频处理方法、视频处理装置及电子设备 Download PDF

Info

Publication number
CN113225587B
CN113225587B CN202010081319.7A CN202010081319A CN113225587B CN 113225587 B CN113225587 B CN 113225587B CN 202010081319 A CN202010081319 A CN 202010081319A CN 113225587 B CN113225587 B CN 113225587B
Authority
CN
China
Prior art keywords
video
implantation
implant
processing method
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010081319.7A
Other languages
English (en)
Other versions
CN113225587A (zh
Inventor
张洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN202010081319.7A priority Critical patent/CN113225587B/zh
Publication of CN113225587A publication Critical patent/CN113225587A/zh
Application granted granted Critical
Publication of CN113225587B publication Critical patent/CN113225587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

公开了一种视频处理方法、视频处理装置和电子设备。该视频处理方法包括:获取主视频和用于植入所述主视频中的附属对象;确定用于在所述主视频中植入所述附属对象的植入信息;以及,基于所述植入信息和所述附属对象生成植入视频。这样,实现了植入视频的灵活性、可定制化和交互性。

Description

视频处理方法、视频处理装置及电子设备
技术领域
本申请涉及视频处理技术领域,且更为具体地,涉及一种视频处理方法、视频处理装置和电子设备。
背景技术
目前,在视频中插入广告的方式越来越多地得到应用,并且,与中断视频的播放并插入广告的方式相比,软植入广告能够带来更好的用户体验。
但是,目前的软植入广告内容是通过在源视频相应的位置与源视频一起进行编码合成一个视频后进行视频分发,这会带来诸如灵活性差的问题。
因此,期望提供改进的视频处理方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种视频处理方法、视频处理装置和电子设备,其能够分别获取主视频和用于植入主视频中的附属对象,并基于用于植入附属对象的植入信息来生成用于与主视频以不同视频流同步播放的植入视频,从而实现了植入视频的灵活性、可定制化和交互性。
根据本申请的一方面,提供了一种视频处理方法,包括:获取主视频和用于植入所述主视频中的附属对象;确定用于在所述主视频中植入所述附属对象的植入信息;以及,基于所述植入信息和所述附属对象生成植入视频。
在上述视频处理方法中,确定用于在所述主视频中植入所述附属对象的植入信息包括:通过对所述主视频进行视频分析以检测所述主视频内用于植入所述附属对象的点位;基于检测到的点位确定所述主视频内的候选区域;以及,通过跟踪所述候选区域以确定所述主视频内用于植入所述附属对象的植入区域的植入信息。
在上述视频处理方法中,所述视频分析包括以下的至少其中之一:物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别。
在上述视频处理方法中,基于所述植入信息和所述附属对象生成植入视频包括:基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频;以及,基于所述植入信息生成所述植入视频的配置文件。
在上述视频处理方法中,在基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频之前包括:获取效果模板;以及,将所述附属对象与所述效果模板合并以获得合并后的附属对象。
在上述视频处理方法中,获取效果模板包括:基于所述植入信息确定所述主视频中相对应的视频内容;以及,获取与所述视频内容具有关联性的效果模板。
在上述视频处理方法中,基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频包括:对所述合并后的附属对象进行对象处理,所述对象处理包括亮度迁移、颜色迁移、模糊迁移和光照估计的至少其中之一;以及,在时间和尺寸上处理进行了对象处理的所述附属对象以生成所述植入视频。
在上述视频处理方法中,基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频包括:对处理后的附属对象进行边缘美化以生成所述植入视频。
在上述视频处理方法中,所述主视频用于存储在数据库中以获得包含所述主视频的视频文件列表,所述植入视频和所述配置文件用于存储在数据库中以获得包含所述植入视频和所述配置文件的植入文件列表。
在上述视频处理方法中,所述视频文件列表和所述植入文件列表用于存储在云服务器上。
在上述视频处理方法中,所述视频文件列表和所述植入文件列表用于响应于用户端的请求向用户端提供所述主视频和所述植入视频及所述配置文件,以在所述用户端以不同视频流同步播放所述主视频和所述植入视频。
在上述视频处理方法中,所述植入视频的每个像素包括用于表示所述像素的透明度的预定通道值。
在上述视频处理方法中,在基于所述植入信息和所述附属对象生成植入视频之后进一步包括:以不同视频流同步播放所述主视频和所述植入视频。
根据本申请的另一方面,提供了一种视频处理装置,其特征在于,包括:获取单元,用于获取主视频和用于植入所述主视频中的附属对象;确定单元,用于确定用于在所述获取单元所获取的所述主视频中植入所述获取单元所获取的所述附属对象的植入信息;以及,生成单元,用于基于所述确定单元所确定的所述植入信息和所述获取单元所获取的所述附属对象生成植入视频。
在上述视频处理装置中,所述确定单元包括:点位检测子单元,用于通过对所述获取单元所获取的所述主视频进行视频分析以检测所述主视频内用于植入所述附属对象的点位;区域确定子单元,用于基于所述点位检测子单元检测到的点位确定所述主视频内的候选区域;以及,信息确定子单元,用于通过跟踪所述区域确定子单元所确定的所述候选区域以确定所述主视频内用于植入所述附属对象的植入区域的植入信息。
在上述视频处理装置中,所述视频分析包括以下的至少其中之一:物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别。
在上述视频处理装置中,所述生成单元包括:视频生成子单元,用于基于所述确定单元所确定的所述植入信息在时间和尺寸上处理所述获取单元所获取的所述附属对象以生成所述植入视频;以及,配置生成子单元,用于基于所述确定单元所确定的所述植入信息生成所述视频生成子单元所生成的所述植入视频的配置文件。
在上述视频处理装置中,进一步包括:模板单元,用于在所述生成单元基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频之前获取效果模板;以及,合并单元,用于将所述获取单元所获取的所述附属对象与所述模板单元所获取的所述效果模板合并以获得合并后的附属对象。
在上述视频处理装置中,所述模板单元用于:基于所述植入信息确定所述主视频中相对应的视频内容;以及,获取与所述视频内容具有关联性的效果模板。
在上述视频处理装置中,所述生成单元用于:对所述合并后的附属对象进行对象处理,所述对象处理包括亮度迁移、颜色迁移、模糊迁移和光照估计的至少其中之一;以及,在时间和尺寸上处理进行了对象处理的所述附属对象以生成所述植入视频。
在上述视频处理装置中,所述生成单元用于:对处理后的附属对象进行边缘美化以生成所述植入视频。
在上述视频处理装置中,所述主视频用于存储在数据库中以获得包含所述主视频的视频文件列表,所述植入视频和所述配置文件用于存储在数据库中以获得包含所述植入视频和所述配置文件的植入文件列表。
在上述视频处理装置中,所述视频文件列表和所述植入文件列表用于存储在云服务器上。
在上述视频处理装置中,所述视频文件列表和所述植入文件列表用于响应于用户端的请求向用户端提供所述主视频和所述植入视频及所述配置文件,以在所述用户端以不同视频流同步播放所述主视频和所述植入视频。
在上述视频处理装置中,所述植入视频的每个像素包括用于表示所述像素的透明度的预定通道值。
在上述视频处理装置中,进一步包括:播放单元,用于以不同视频流同步播放所述主视频和所述植入视频。
根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的视频处理方法。
根据本申请的又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的视频处理方法。
本申请提供的视频处理方法、视频处理装置和电子设备,能够将主视频和用于植入主视频中的植入视频解耦以单独制作和播放,从而实现了植入视频的灵活性、可定制化和交互性。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1图示了根据本申请实施例的视频处理方法的流程图。
图2图示了根据本申请实施例的视频处理方法中确定植入信息的过程的示例的流程图。
图3图示了根据本申请实施例的视频处理方法的应用示例的示意图。
图4图示了根据本申请实施例的视频处理方法应用的系统的示例的示意图。
图5图示了根据本申请实施例的视频处理方法中同步播放的示例的示意图。
图6图示了根据本申请实施例的视频处理装置的框图。
图7图示了根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
如上所述,如果将软植入广告与源视频一起编码后合成单个视频流并播放,这会带来以下几个问题。
首先,由于合并为单个视频,使得软植入的广告的内容的灵活性差,不能进行动态更新。
第二,对于用户的广告定制存在局限,也就是观看同一视频的不同用户也只能看到相同的软植入广告,无法针对用户进行定制。
第三,由于广告内容本身已经与源视频内容进行了绑定,无法实现用户与源视频的交互,也就是,用户与源视频的内容无法实时互动。
针对上述技术问题,本申请的基本构思是将源视频与植入视频进行解耦以单独制作植入视频,也就是,分别获取主视频和用于植入主视频中的附属对象,并确定用于在主视频中植入附属对象的植入信息,来基于植入信息生成植入视频。
具体地,本申请提供的视频处理方法、视频处理装置和电子设备首先获取主视频和用于植入所述主视频中的附属对象,然后确定用于在所述主视频中植入所述附属对象的植入信息,最后基于所述植入信息和所述附属对象生成植入视频。
这样,本申请提供的视频处理方法、视频处理装置和电子设备实现了植入视频与源视频之间的解耦,从而可以针对同一源视频配置不同的植入视频,从而实现了植入视频的灵活性。
并且,因为可以针对同一源视频配置不同的植入视频,对于观看同一视频的不同用户,可以按照用户的具体情况选择用户感兴趣的植入视频向用户播放,从而实现了植入视频的可定制化。
此外,由于植入视频与源视频在制作和播放过程中都是彼此分离的,可以对植入视频进行单独处理,以针对植入视频本身增强与用户的交互能力,例如,用户可对所述植入视频进行点击、滑动和缩放的交互操作,从而实现了植入视频的交互性。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图1图示了根据本申请实施例的视频处理方法的流程图。
如图1所示,根据本申请实施例的视频处理方法包括以下步骤。
步骤S110,获取主视频和用于植入所述主视频中的附属对象。这里,所述主视频是用户观看的视频,比如电影或者剧集。用于植入所述主视频中的附属对象可以是图片或者视频,并且,植入的图片可以是静态图片或者动态图片。
在本申请实施例中,用于植入所述主视频中的附属对象可以是广告,也可以是其它内容,比如台标,字幕,或者其它用于与所述主视频一起向用户呈现的内容。
在步骤S120中,确定用于在所述主视频中植入所述附属对象的植入信息。也就是,对于比如电影之类的单个视频来说,需要确定所述主视频中植入所述附属对象的具体的时间和位置信息。而对于视频库中的多个视频来说,所述植入信息还包括所述附属对象对应的具体视频的标识信息,比如视频文件名。另外,对于剧集等由多个视频片段组成的视频,所述植入信息还包括所述附属对象对应的具体视频片段的标识信息,比如剧集中的第几集视频。
在本申请实施例中,可以通过视频分析的方式来自动确定用于在所述主视频中植入所述附属对象的植入信息。具体地,图2图示了根据本申请实施例的视频处理方法中确定植入信息的过程的示例的流程图。
如图2所示,在如图1所示的实施例的基础上,所述步骤S120包括以下步骤。
步骤S1201,通过对所述主视频进行视频分析以检测所述主视频内用于植入所述附属对象的点位。这里,检测所述主视频内用于植入所述附属对象的点位包括检测适于植入所述附属对象的场景,以确定用于植入所述附属对象的开始时间点。
具体地,在本申请实施例中,可以通过多种方式来检测适于植入所述附属对象的场景,包括但不限于物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别等。
也就是,在上述根据本申请实施例的视频处理方法中,所述视频分析包括以下的至少其中之一:物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别。
这里,在检测到适于植入所述附属对象的场景后,可以以多种形式表示用于植入所述附属对象的开始时间点,例如,所述开始时间点可以表示为时间形式,例如所述主视频开始后的某个时间,或者,所述开始时间点也可以表示为帧数形式,例如所述主视频开始后的某帧等。
此外,检测所述主视频内用于植入所述附属对象的点位还包括确定适于植入所述附属对象的当前场景中用于植入所述附属对象的具体位置。例如,当通过物体识别确定当前场景中呈现有挂在墙上的海报,从而适于植入图像或者视频时,可以进一步确定表示当前场景的当前帧中海报的具体区域坐标,从而确定用于植入所述附属对象的具体位置。也就是,在根据本申请实施例的视频处理方法中,所述点位包含用于植入所述附属对象的时间信息和位置信息。
步骤S1202,基于检测到的点位确定所述主视频内的候选区域。也就是,在步骤S1201中,可以通过视频分析的方式检测到所述主视频内用于植入所述附属对象的所有点位,从而可以在步骤S1202中,对于上述检测到的点位进行筛选以确定用于实际植入所述附属对象的候选区域。
这里,本领域技术人员可以理解,可以通过包括视频分析在内的多种方式来进行检测到的点位的筛选。并且,可以根据要植入的附属对象本身的特性来进行点位的筛选。例如,如果要植入的附属对象包括图像,则可以仅将识别出的特定物体,比如墙上张贴的海报、路边的广告牌等确定为用于植入所述附属对象的候选区域。而如果要植入的附属对象仅包括字符,则可以将识别出的特定字符,例如墙上粉刷的标语等确定为用于植入所述附属对象的候选区域。
步骤S1203,通过跟踪所述候选区域以确定所述主视频内用于植入所述附属对象的植入区域的植入信息。这里,在确定所述候选区域之后,由于伴随着所述主视频的播放,所述候选区域在所述主视频内是一个动态变化的过程,因此需要在检测到点位的当前帧之后的后续帧中跟踪所述候选区域,以确定实际植入所述附属对象的植入区域的植入信息。
例如,通过跟踪所述候选区域,比如墙上张贴的海报,确定所述候选区域在后续帧中呈现持续一预定时间段,则可以基于开始时间点和该预定时间段确定结束时间点。并且,可以确定开始时间点和结束时间点之间所述主视频的每帧中用于植入所述附属对象的具体位置,也就是用于植入所述附属对象的区域信息。
因此,在根据本申请实施例的视频处理方法中,所述植入区域的植入信息包括所述主视频内用于植入所述附属对象的植入区域的时间信息和位置信息,也就是,所述植入区域的开始时间点、结束时间点以及在开始时间点和结束时间点之间的所述主视频的每帧中的区域位置。
这样,通过如图2所示的确定植入信息的过程的示例,可以通过视频分析的方式方便地检测所述主视频内用于植入所述附属对象的点位,并通过筛选和跟踪最终确定用于指示所述主视频内的植入区域的植入信息。当然,本领域技术人员可以理解,除了如上所述通过视频分析的方式自动确定植入信息以外,也可以通过人工标注的方式,标注用于植入所述附属对象的开始时间点、结束时间点以及在开始时间点和结束时间点之间的所述主视频的每帧中的植入区域的区域位置。
返回参考图1,根据本申请实施例的视频处理方法进一步包括步骤S130,基于所述植入信息和所述附属对象生成植入视频。
具体地,因为在将所述附属对象植入所述主视频时,需要基于所述植入信息对所述附属对象进行编辑,以符合所述附属对象植入所述主视频中的时间信息和区域信息。因此,基于所述植入信息指示的用于植入所述附属对象的开始时间点和结束时间点,在时间上处理所述附属对象。例如,对于时间长度大于所述开始时间点和所述结束时间点之间的预定时段的视频,可以裁剪视频中所述预定时段的视频,以用于植入所述主视频中。或者,对于静态图片,可以处理所述图片以所述开始时间点和所述结束时间点之间的预定时段内持续呈现,以用于植入所述主视频中。
另外,基于所述植入信息指示的所述开始时间点和所述结束时间点之间的所述主视频的每帧中的植入区域的区域位置,在尺寸上处理所述附属对象。例如,可以在整体上缩放所述附属对象的尺寸以符合所述区域位置的尺寸,也可以裁剪所述附属对象的一部分以符合所述区域位置的尺寸。
这样,通过基于所述植入信息在时间和尺寸上处理所述附属对象,可以生成用于植入所述主视频中的植入视频。另外,基于所述植入信息,生成所述植入视频的配置文件,以指示所述植入视频用于植入所述主视频中的信息,例如,所述植入视频要植入的所述主视频的视频ID,开始时间,结束时间,位置信息等。
因此,在根据本申请实施例的视频处理方法中,基于所述植入信息和所述附属对象生成植入视频包括:基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频;以及,基于所述植入时间和所述植入位置生成所述植入视频的配置文件。
当然,本领域技术人员可以理解,在生成所述植入视频的过程中,除了基于所述植入信息在时间和尺寸上处理所述附属对象之外,还可以通过修改所述附属对象的视觉参数,例如亮度、对比度等来改变所述附属对象的呈现效果,以生成所述植入视频。并且,这里所述呈现效果的改变可以是基于所述附属对象要植入的所述主视频中的具体内容的,例如,如果所述主视频中植入所述附属对象的场景为夜晚,则相应地降低所述附属对象的亮度,以使得生产的植入视频不至于在主视频中过于突兀。
综上所述,在根据本申请实施例的视频处理方法中,所述植入视频独立于所述主视频,基于所确定的植入信息制作为单独的视频流,因此,所述植入视频可以不与所述主视频合并为同一视频流进行播放,而是可以以不同视频流同步播放,从而通过主视频和植入视频的解耦实现了植入视频的灵活性、可定制化和交互性。
也就是,在根据本申请实施例的视频处理方法中,在基于所述植入信息和所述附属对象生成植入视频可以进一步包括以不同视频流同步播放所述主视频和所述植入视频。
在根据本申请实施例的视频处理方法中,为了增强植入视频的个性化,除了附属对象的内容之外,还可以给植入视频添加特效效果,从而通过定制多种特效生成个性化的特效植入视频,提升用户观看植入视频的视觉体验。
具体地,可以通过效果模板的形式添加特效效果,所述效果模板可以表示多种特效效果,例如飞舞的花朵或者花瓣的效果、雪花的飘落效果、气球膨胀并爆炸的效果等。在获取所述效果模板之后,可以通过将所述效果模板与所述附属对象集成来生成具有特效效果的植入视频。
在一个示例中,可以首先获取效果模板,然后将所述附属对象与所述效果模板合并,再基于所述植入信息对合并了效果模板的附属对象进行处理以生成所述植入视频。
也就是,在根据本申请实施例的视频处理方法中,在基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频之前包括:获取效果模板;以及,将所述附属对象与所述效果模板合并以获得合并后的附属对象。
在另一示例中,也可以在获取效果模板之后,分别基于所述植入信息对于所述效果模板和所述附属对象进行时间和尺寸上的处理,再合并处理之后的效果模板和附属对象来获得植入视频。
当然,本领域技术人员可以理解,特效效果对应的主视频中的呈现时间和呈现位置可以不同于作为植入内容的附属对象的呈现时间和呈现位置。例如,所述特效效果的呈现时间可以早于所述附属对象的呈现时间,因此,可以单独确定所述主视频中用于植入所述特效效果的植入信息,并基于所述植入信息生成具有特效效果的植入视频。
因此,在本申请实施例中,可以基于植入信息生成单独的分割模板,用于指示所述主视频中用于植入所述附属对象和所述特效效果的时间和位置,能够通过将分割模板、效果模板和附属对象进行合并来生成所述植入视频。
另外,在本申请实施例中,由于植入视频与所述主视频在不同视频流中同步播放,因此,为了使得植入视频不影响用户对于所述主视频的观看,所述植入视频包含附加的用于表示视频中的每个像素的透明度的预定通道值。
例如,可以将该预定通道值定义为alpha通道,也就是,植入视频除RGB三色信息外,还带有Alpha通道信息,即拥有RGBA四个数据组。alpha通道相当于植入视频的蒙版,例如,白色的像素代表该处不透明,黑色的像素代表该处透明。
相应地,作为合成所述植入视频的附属对象、效果模板和分割模板,也可以首先将其处理为RGBA数据,然后进行合并。当然,本领域技术人员可以理解,所述附属对象、效果模板和分割模板也可以首先作为RGB数据进行合并,再处理为RGBA数据。
如上所述,所述效果模板可以表示多种特效效果,因此,对于具体采用何种效果,可以根据用于植入所述特效效果的主视频的内容来确定。例如,在所述主视频的内容为欢快的内容时,可以采样颜色鲜艳的花瓣飞舞的效果。
因此,在根据本申请实施例的视频处理方法中,获取效果模板包括:确定所述主视频与所述植入时间和所述植入位置对应的视频内容;以及,获取与所述视频内容具有关联性的效果模板。
另外,在合并了附属对象和效果模板之后,还可以进一步进行视觉效果方面的处理,例如特效渲染。这种处理可以包括亮度迁移、颜色迁移、模糊迁移和光照估计等。
也就是,在根据本申请实施例的视频处理方法中,基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频包括:对所述合并后的附属对象进行对象处理,所述对象处理包括亮度迁移、颜色迁移、模糊迁移和光照估计的至少其中之一;以及,在时间和尺寸上处理进行了对象处理的所述附属对象以生成所述植入视频。
并且,在进行了上述处理之后,可以进一步进行边缘美化,以获得最终植入所述主视频中的植入视频。
也就是,在根据本申请实施例的视频处理方法中,基于所述植入石女士在时间和尺寸上处理所述附属对象以生成所述植入视频包括:对处理后的附属对象进行边缘美化以生成所述植入视频。
应用示例
图3图示了根据本申请实施例的视频处理方法的应用示例的示意图。
如图3所示,在将广告植入视频的情况下,首先获得输入视频,也就是如上所述的主视频,然后通过植入点位检测来确定所述输入视频中用于植入广告的点位。
具体地,可以根据物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别等识别手段,在所述输入视频中找到合适的场景,并进行点位检测。这里,点位检测指的是在视频中标记植入的广告的开始和结束时间,以及广告的位置坐标。
接下来,进行植入区域的筛选和跟踪,从而生成植入区域的指示数据。
基于植入区域的指示区域,可以提取植入区域,以作为如上所述的分割模板,以对特效蒙版和广告素材进行处理。这里,特效蒙版指的是具有alpha通道值的如上所述的效果模板,用于展示叠加在广告素材上的特效,例如飞舞的花瓣、飘落的雪花等。并且,透明像素用于展示由特效蒙版覆盖的视频的内容,而不透明像素用于展示特效或者所叠加的广告素材。
另一方面,将广告素材和特效蒙版(例如,通过分割和粒子效果等手段生成)进行特效合成以生成特效素材,然后进行特效渲染,比如亮度迁移、颜色迁移、模糊迁移和光照估计,以生成植入效果,也就是如上所述的植入视频。
最后,将在植入视频进行边缘美化后,基于植入区域的指示数据生成特效资源文件,所述特效资源文件可以包括植入视频及其配置文件。
示例性系统
图4图示了根据本申请实施例的视频处理方法应用的系统的示例的示意图。
如图4所示,为了实现视频的植入和播放,根据本申请实施例的视频处理方法应用的系统200包括制作单元210,数据库220,服务器230和客户端240。
其中,所述制作单元210用于获取原始片源视频数据,特效输入数据以及附属对象资源数据,例如,所述制作单元210从运营方获得上述数据。这里,所述附属对象资源数据可以是广告素材,也就是广告资源数据,可以包括静态图片、动态图片和视频等带alpha通道,即RGBA数据格式的资源文件。
所述制作单元210可以具体包括点位子单元211和特效子单元212。所述点位子单元211用于给出点位信息,即要植入广告的视频文件名、分段编号、特效开始时间、结束时间和位置,以及附属对象的开始时间、结束时间和位置等。所述特效子单元212基于点位信息,组合附属对象资源数据和特效输入数据,参考特效类型(3D环绕、花瓣飞舞等)生成特效资源文件。并且,特效子单元212生成的特效资源文件中,除植入视频的视频文件以外,还包括相应的配置文件(主视频的视频ID,植入视频的开始时间、结束时间、坐标,以及植入视频的视频文件的存储路径等)。
接下来,将生成的特效资源文件存储在数据库220中,并且,可以基于存储的特效资源文件生成特效文件列表,以便于服务器230调用。另外,在数据库220中,还可以存储主视频的视频文件,并生成单独的视频文件列表,以用于由服务器230调用。
也就是,在根据本申请实施例的视频处理方法中,所述主视频用于存储在数据库中以获得包含所述主视频的视频文件列表,所述植入视频和所述配置文件用于存储在数据库中以获得包含所述植入视频和所述配置文件的植入文件列表。
为了便于用户访问,生成的所述视频文件列表和特效文件列表可以存储在服务器230中。这里,服务器230可以具体包括云服务器231和互动平台232。其中,云服务器231用于存储所述视频文件列表和所述特效文件列表,且互动平台232用于与用户互动,以响应于用户的请求访问所述视频文件列表和所述特效文件列表,并调用数据库220中存储的视频文件和特效资源文件。
也就是,在根据本申请实施例的视频处理方法中,所述视频文件列表和所述植入文件列表用于存储在云服务器上。
最后,客户端240在主视频的播放过程,获取特效资源文件中的配置文件,并通过解析个性化的用于特效播放的配置文件,请求植入视频的视频文件。例如,为了及时响应用户请求,可以要求客户端240提前N秒向互动平台232请求植入视频的视频文件。另外,客户的请求还可以包括用户目前的操控数据以供后续统计用。
客户端240在获取植入视频的视频文件后,解码并按时间与主视频同步播放。
也就是,在根据本申请实施例的视频处理方法中,所述视频文件列表和所述植入文件列表用于响应于用户端的请求向用户端提供所述主视频和所述植入视频及所述配置文件,以在所述用户端以不同视频流同步播放所述主视频和所述植入视频。
在本申请实施例中,可以以多种方式实现植入视频和主视频的以不同视频流的同步播放。在一个示例中,在播放层播放主视频,并在播放主视频时,通过呈现时间戳(PTS)获取在播放层显示帧缓存对象(FBO),也就是播放主视频的某个帧的时机,然后,将特效层的植入视频的相应帧进行内容填充,以插入渲染上下文中进行播放,如图5所示。图5图示了根据本申请实施例的视频处理方法中同步播放的示例的示意图。
在另一示例中,也可以不将特效层的植入视频的相应帧填充到播放层中,而是直接在特效层不断进行时间同步校正,并直接进行植入视频的视频流的播放,但这种情况下可能产生植入视频的抖动。
这样,上述系统实现了打点特效制作系统和播放器的体系化,可以定制多种特效生成个性化的特效配置文件,并进行双流多层解析播放。
示例性装置
图6图示了根据本申请实施例的视频处理装置的框图。
如图6所示,根据本申请实施例的视频处理装置300包括:获取单元310,用于获取主视频和用于植入所述主视频中的附属对象;确定单元320,用于确定用于在所述获取单元310所获取的所述主视频中植入所述获取单元310所获取的所述附属对象的植入信息;以及,生成单元330,用于基于所述确定单元320所确定的所述植入信息和所述获取单元310所获取的所述附属对象生成植入视频。
在一个示例中,在上述视频处理装置300中,所述确定单元320包括:点位检测子单元,用于通过对所述获取单元所获取的所述主视频进行视频分析以检测所述主视频内用于植入所述附属对象的点位;区域确定子单元,用于基于所述点位检测子单元检测到的点位确定所述主视频内的候选区域;以及,信息确定子单元,用于通过跟踪所述区域确定子单元所确定的所述候选区域以确定所述主视频内用于植入所述附属对象的植入区域的植入信息。
在一个示例中,在上述视频处理装置300中,所述视频分析包括以下的至少其中之一:物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别。
在一个示例中,在上述视频处理装置300中,所述生成单元330包括:视频生成子单元,用于基于所述确定单元所确定的所述植入信息在时间和尺寸上处理所述获取单元所获取的所述附属对象以生成所述植入视频;以及,配置生成子单元,用于基于所述确定单元所确定的所述植入信息生成所述视频生成子单元所生成的所述植入视频的配置文件。
在一个示例中,在上述视频处理装置300中,进一步包括:模板单元,用于在所述生成单元基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频之前获取效果模板;以及,合并单元,用于将所述获取单元所获取的所述附属对象与所述模板单元所获取的所述效果模板合并以获得合并后的附属对象。
在一个示例中,在上述视频处理装置300中,所述模板单元用于:基于所述植入信息确定所述主视频中相对应的视频内容;以及,获取与所述视频内容具有关联性的效果模板。
在一个示例中,在上述视频处理装置300中,所述生成单元330用于:对所述合并后的附属对象进行对象处理,所述对象处理包括亮度迁移、颜色迁移、模糊迁移和光照估计的至少其中之一;以及,在时间和尺寸上处理进行了对象处理的所述附属对象以生成所述植入视频。
在一个示例中,在上述视频处理装置300中,所述生成单元330用于:对处理后的附属对象进行边缘美化以生成所述植入视频。
在一个示例中,在上述视频处理装置300中,所述主视频用于存储在数据库中以获得包含所述主视频的视频文件列表,所述植入视频和所述配置文件用于存储在数据库中以获得包含所述植入视频和所述配置文件的植入文件列表。
在一个示例中,在上述视频处理装置300中,所述视频文件列表和所述植入文件列表用于存储在云服务器上。
在一个示例中,在上述视频处理装置300中,所述视频文件列表和所述植入文件列表用于响应于用户端的请求向用户端提供所述主视频和所述植入视频及所述配置文件,以在所述用户端以不同视频流同步播放所述主视频和所述植入视频。
在一个示例中,在上述视频处理装置300中,所述植入视频的每个像素包括用于表示所述像素的透明度的预定通道值。
在一个示例中,在上述视频处理装置300中,进一步包括:播放单元,用于以不同视频流同步播放所述主视频和所述植入视频。
这里,本领域技术人员可以理解,上述视频处理装置300中的各个单元和模块的具体功能和操作已经在上面参考图1到图5的视频处理方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的视频处理装置300可以实现在各种终端设备中,例如用于视频植入的制作系统等。在一个示例中,根据本申请实施例的视频处理装置300可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该视频处理装置300可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该视频处理装置300同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该视频处理装置300与该终端设备也可以是分立的设备,并且该视频处理装置300可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性电子设备
下面,参考图7来描述根据本申请实施例的电子设备。
图7图示了根据本申请实施例的电子设备的框图。
如图7所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的视频处理方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如主视频、附属对象、植入信息、植入视频等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入装置13可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括植入视频等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在第一用户计算设备上执行、部分地在第一用户设备上执行、作为一个独立的软件包执行、部分在第一用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (15)

1.一种视频处理方法,其特征在于,包括:
获取主视频和用于植入所述主视频中的附属对象;
确定用于在所述主视频中植入所述附属对象的植入信息;以及
基于所述植入信息和所述附属对象生成植入视频;
所述植入视频用于在所述主视频播放过程中,响应于用户端的植入视频请求,和所述主视频以不同视频流同步播放。
2.根据权利要求1所述的视频处理方法,其特征在于,确定用于在所述主视频中植入所述附属对象的植入信息包括:
通过对所述主视频进行视频分析以检测所述主视频内用于植入所述附属对象的点位;
基于检测到的点位确定所述主视频内的候选区域;以及
通过跟踪所述候选区域以确定所述主视频内用于植入所述附属对象的植入区域的植入信息。
3.根据权利要求2所述的视频处理方法,其特征在于,所述视频分析包括以下的至少其中之一:物体识别、品牌识别、场景识别、动作识别、背景音乐识别、字符视频、情绪识别和人物识别。
4.根据权利要求1所述的视频处理方法,其特征在于,基于所述植入信息和所述附属对象生成植入视频包括:
基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频;以及
基于所述植入信息生成所述植入视频的配置文件。
5.根据权利要求4所述的视频处理方法,其特征在于,在基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频之前包括:
获取效果模板;
将所述附属对象与所述效果模板合并以获得合并后的附属对象。
6.根据权利要求5所述的视频处理方法,其特征在于,获取效果模板包括:
基于所述植入信息确定所述主视频中相对应的视频内容;以及
获取与所述视频内容具有关联性的效果模板。
7.根据权利要求5所述的视频处理方法,其特征在于,基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频包括:
对所述合并后的附属对象进行对象处理,所述对象处理包括亮度迁移、颜色迁移、模糊迁移和光照估计的至少其中之一;以及
在时间和尺寸上处理进行了对象处理的所述附属对象以生成所述植入视频。
8.根据权利要求5所述的视频处理方法,其特征在于,基于所述植入信息在时间和尺寸上处理所述附属对象以生成所述植入视频包括:
对处理后的附属对象进行边缘美化以生成所述植入视频。
9.根据权利要求4所述的视频处理方法,其特征在于,所述主视频用于存储在数据库中以获得包含所述主视频的视频文件列表,所述植入视频和所述配置文件用于存储在数据库中以获得包含所述植入视频和所述配置文件的植入文件列表。
10.根据权利要求9所述的视频处理方法,其特征在于,所述视频文件列表和所述植入文件列表用于存储在云服务器上。
11.根据权利要求10所述的视频处理方法,其特征在于,所述视频文件列表和所述植入文件列表用于响应于用户端的请求向用户端提供所述主视频和所述植入视频及所述配置文件,以在所述用户端以不同视频流同步播放所述主视频和所述植入视频。
12.根据权利要求1所述的视频处理方法,其特征在于,所述植入视频的每个像素包括用于表示所述像素的透明度的预定通道值。
13.根据权利要求1所述的视频处理方法,其特征在于,在基于所述植入信息和所述附属对象生成植入视频之后进一步包括:
以不同视频流同步播放所述主视频和所述植入视频。
14.一种视频处理装置,其特征在于,包括:
获取单元,用于获取主视频和用于植入所述主视频中的附属对象;
确定单元,用于确定用于在所述获取单元所获取的所述主视频中植入所述获取单元所获取的所述附属对象的植入信息;以及
生成单元,用于基于所述确定单元所确定的所述植入信息和所述获取单元所获取的所述附属对象生成植入视频;所述植入视频用于在所述主视频播放过程中,响应于用户端的植入视频请求,和所述主视频以不同视频流同步播放。
15.一种电子设备,包括:
处理器;以及
存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如权利要求1-13中任一项所述的视频处理方法。
CN202010081319.7A 2020-02-06 2020-02-06 视频处理方法、视频处理装置及电子设备 Active CN113225587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010081319.7A CN113225587B (zh) 2020-02-06 2020-02-06 视频处理方法、视频处理装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010081319.7A CN113225587B (zh) 2020-02-06 2020-02-06 视频处理方法、视频处理装置及电子设备

Publications (2)

Publication Number Publication Date
CN113225587A CN113225587A (zh) 2021-08-06
CN113225587B true CN113225587B (zh) 2023-04-28

Family

ID=77085481

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010081319.7A Active CN113225587B (zh) 2020-02-06 2020-02-06 视频处理方法、视频处理装置及电子设备

Country Status (1)

Country Link
CN (1) CN113225587B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113676775A (zh) * 2021-08-27 2021-11-19 苏州因塞德信息科技有限公司 一种利用人工智能在视频和游戏中进行广告植入的方法
CN113691835B (zh) * 2021-10-21 2022-01-21 星河视效科技(北京)有限公司 视频植入方法、装置、设备及计算机可读存储介质
CN114664331B (zh) * 2022-03-29 2023-08-11 深圳万兴软件有限公司 一种周期可调的变速特效渲染方法、系统及其相关组件

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742173B (zh) * 2008-11-12 2012-05-16 中兴通讯股份有限公司 一种支持观看两路视频的方法及网络互动电视系统
CN107360160A (zh) * 2017-07-12 2017-11-17 广州华多网络科技有限公司 直播视频与动画融合方法、装置及终端设备
CN109842811B (zh) * 2019-04-03 2021-01-19 腾讯科技(深圳)有限公司 一种在视频中植入推送信息的方法、装置及电子设备
CN110381369B (zh) * 2019-07-19 2022-02-22 腾讯科技(深圳)有限公司 推荐信息植入位置的确定方法、装置、设备及存储介质
CN110300316B (zh) * 2019-07-31 2022-02-11 腾讯科技(深圳)有限公司 视频中植入推送信息的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113225587A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN113225587B (zh) 视频处理方法、视频处理装置及电子设备
KR102319423B1 (ko) 컨텍스트 기반 증강 광고
CN111899322B (zh) 视频处理方法、动画渲染sdk和设备及计算机存储介质
CN111491174A (zh) 虚拟礼物获取及展示方法、装置、设备及存储介质
EP1628477A1 (en) Reproduction device and program
CN113225450B (zh) 视频处理方法、视频处理装置及电子设备
US10972809B1 (en) Video transformation service
JP2004304791A (ja) デジタルシネマフレームコンテンツを修正する方法及び装置
JP2005527158A (ja) プレゼンテーションシンセサイザ
JP5717629B2 (ja) デジタル映画のための動的表示のための方法および装置
CN110214343A (zh) 信息处理装置、信息处理方法及其程序
CN110996150A (zh) 视频融合方法、电子设备及存储介质
JP2019092186A (ja) 配信サーバ、配信プログラムおよび端末
KR101927965B1 (ko) 광고 동영상 제작 시스템 및 방법
JP2023115088A (ja) 画像ファイル生成装置及び画像ファイル生成方法、画像生成装置及び画像生成方法、画像生成システム、並びにプログラム
KR101915792B1 (ko) 얼굴인식을 이용한 광고 삽입 시스템 및 방법
CN113301425A (zh) 视频播放方法、视频播放装置及电子设备
WO2022080670A1 (ko) 컨텐츠 제공 방법 및 장치와, 컨텐츠 재생 방법
KR101823767B1 (ko) 사용자 요구 및 환경 맞춤형 콘텐츠 제공을 위한 메타 정보를 포함하는 멀티미디어 파일 구조 및 그 시스템
KR101221540B1 (ko) 인터랙티브 미디어 매핑 시스템 및 그 방법
KR101399633B1 (ko) 영상 합성 방법 및 장치
JP6363015B2 (ja) 電子機器及び表示方法
US20240275934A1 (en) Information processing apparatus, management apparatus, information processing method, and control method for management apparatus
JP2011023836A (ja) スライドデータ作成装置、スライドデータ作成方法及びプログラム
KR20140092564A (ko) 증강 현실 서비스 제공 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant