CN111541914A - 一种视频处理方法及存储介质 - Google Patents

一种视频处理方法及存储介质 Download PDF

Info

Publication number
CN111541914A
CN111541914A CN202010407491.7A CN202010407491A CN111541914A CN 111541914 A CN111541914 A CN 111541914A CN 202010407491 A CN202010407491 A CN 202010407491A CN 111541914 A CN111541914 A CN 111541914A
Authority
CN
China
Prior art keywords
special effect
video
target
information
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010407491.7A
Other languages
English (en)
Other versions
CN111541914B (zh
Inventor
陈晓
孙子荀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010407491.7A priority Critical patent/CN111541914B/zh
Publication of CN111541914A publication Critical patent/CN111541914A/zh
Application granted granted Critical
Publication of CN111541914B publication Critical patent/CN111541914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明实施例提供一种视频处理方法及存储介质;方法包括:服务器接收终端发送的特效编辑请求,响应特效编辑请求,获取待处理视频,待处理视频对应至少一个事件类型,每个事件类型为待处理视频中待进行特效编辑的事件的类型;选择与每个事件类型匹配的目标特效逻辑信息,目标特效逻辑信息表征与每个事件类型对应的特效编辑的逻辑信息;依据目标特效逻辑信息,对待处理视频进行特效编辑,得到特效视频;将特效视频发送至终端,以通过终端展示特效视频。通过本发明实施例,能够提升视频特效编辑的自动化效果。

Description

一种视频处理方法及存储介质
技术领域
本发明涉及计算机技术领域中的视频处理技术,尤其涉及一种视频处理方法及存储介质。
背景技术
特效编辑,指对视频进行编辑,以突出视频中的一些视频效果的处理方式;通过视频特效处理后,所获得的特效视频更具备视觉冲击力,从而特效编辑在视频处理领域中越来越重要。
一般来说,在对视频进行特效编辑时,通常由创作者通过第三方软件对视频进行特效编辑,最后得到特效视频。然而,上述实现视频的特效编辑的过程中,需要借助第三方软件人工进行,因此,特效视频编辑的自动化效果差。
发明内容
本发明实施例提供一种视频处理方法及存储介质,能够提升特效视频获取的自动化效果。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种视频处理方法,包括:
接收第一视频处理设备发送的特效编辑请求,响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;
选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;
依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
将所述特效视频发送至所述第一视频处理设备,以通过所述第一视频处理设备展示所述特效视频。
上述方案中,目标事件集合中的每个目标事件包括目标事件内容、事件时间信息、事件参与对象名称和事件参与对象位置中的至少一种。
上述方案中,整体特效逻辑信息包括开头效果特效逻辑信息、封面图特效逻辑信息、开场视频特效逻辑信息、结尾视频特效逻辑信息、结束效果特效逻辑信息和背景音频特效逻辑信息中的至少一种。
上述方案中,所述目标特效逻辑信息包括至少一种子特效逻辑信息,每种子特效逻辑信息包括特效类别、特效属性信息、转场信息和特效嵌套信息中的至少一种。
上述方案中,待解析属性包括特效添加文本,且所述每个目标事件包括所述事件参与对象名称;利用每个目标事件,对所述待解析属性的属性信息进行解析,得到目标属性信息,包括:
从所述每个目标事件中,获取所述事件参与对象名称和所述目标事件内容;
获取所述目标事件内容对应的动作信息,得到目标事件动作信息;
将所述特效添加文本对应的属性信息,解析为所述事件参与对象名称和/或所述目标事件动作信息,得到所述目标属性信息。
本发明实施例还提供一种视频处理方法,包括:
在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求;
将所述特效编辑请求发送至第二视频处理设备,以通过所述第二视频处理设备执行如下操作:响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
接收所述第二视频处理设备响应所述特效编辑请求所发送的所述特效视频;
从所述特效编辑界面跳转至视频展示界面,在所述视频展示界面上,展示所述特效视频。
本发明实施例提供一种第二视频处理装置,包括:
视频获取模块,用于接收第一视频处理设备发送的特效编辑请求,响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;
特效选择模块,用于选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;
特效编辑模块,用于依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
视频发送模块,用于将所述特效视频发送至所述第一视频处理设备,以通过所述第一视频处理设备展示所述特效视频。
本发明实施例提供一种第一视频处理装置,包括:
请求获取模块,用于在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求;
请求发送模块,用于将所述特效编辑请求发送至第二视频处理设备,以通过所述第二视频处理设备执行如下操作:响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
视频接收模块,用于接收所述第二视频处理设备响应所述特效编辑请求所发送的所述特效视频;
视频展示模块,用于从所述特效编辑界面跳转至视频展示界面,在所述视频展示界面上,展示所述特效视频。
本发明实施例提供一种第二视频处理设备,包括:
第一存储器,用于存储可执行指令;
第一处理器,用于执行所述第一存储器中存储的可执行指令时,实现本发明实施例提供的应用于第二视频处理设备的视频处理方法。
本发明实施例提供一种第一视频处理设备,包括:
第二存储器,用于存储可执行指令;
第二处理器,用于执行所述第二存储器中存储的可执行指令时,实现本发明实施例提供的应用于第一视频处理设备的视频处理方法。
本发明实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起第一处理器执行时,实现本发明实施例提供的应用于第二视频处理设备的视频处理方法;或者用于引起第二处理器执行时,实现本发明实施例提供的应用于第一视频处理设备的视频处理方法。
本发明实施例具有以下有益效果:由于在对待处理视频进行特效编辑时,能够通过待处理视频中的事件对应的每个事件类型,选择对应的目标特效逻辑信息,进而,根据目标特效逻辑信息对待处理视频进行特效编辑,得到特效视频;从而,实现了一种自动获取待处理视频的特效视频的技术方案;因此,达到了自动对待处理视频进行特效编辑的目的,如此,能够提升视频特效编辑的自动化效果。
附图说明
图1是本发明实施例提供的视频处理系统的一个可选的架构示意图;
图2a是本发明实施例提供的一种图1中服务器的结构示意图;
图2b是本发明实施例提供的一种图1中终端的结构示意图;
图3是本发明实施例提供的视频处理方法的一个可选的交互示意图;
图4a是本发明实施例提供的一种示例性的生成特效编辑请求的示意图;
图4b是本发明实施例提供的另一种示例性的生成特效编辑请求的示意图;
图4c是本发明实施例提供的又一种示例性的生成特效编辑请求的示意图;
图4d是本发明实施例提供的视频处理方法的另一个可选的交互示意图;
图5是本发明实施例提供的一种特效编辑的处理流程示意图;
图6是本发明实施例提供的视频处理方法的又一个可选的交互示意图;
图7是本发明实施例提供的创作逻辑的一个示例性的示意图;
图8是本发明实施例提供的视频处理流程的一个可选的示意图;
图9是本发明实施例提供的一种示例性的获取特效视频的流程示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
除非另有定义,本发明实施例所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本发明实施例中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。
1)特效逻辑信息,指用于编辑视频特效的逻辑信息,与事件类型对应。其中,事件类型表征待增加特效的事件所属的类型,比如,扣篮,游戏战斗等;特效编辑信息通常包括特效类别(比如,封面图、开场/结尾视频、片段截取、转场、表情包、动画、文字、音效、背景音乐、变速播放/回放/暂停等等)、特效添加时间和特效添加位置等信息。在本发明实施例中,目标特效逻辑信息属于特效逻辑信息。
2)片段截取,一种特效,指通过起止时间对视频进行截取的特效处理,得到的处理结果为视频片段。
3)转场,一种特效,指两个相邻的视频片段之间的过渡效果,如淡出淡入、画面切入、中心展开、中心收起、对角线展开、对角线收起、圆圈展开、圆圈收起、水平展开、水平收起等。
4)人工智能(Artificial Intelligence,AI),是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
5)机器学习(Machine Learning,ML),是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能;重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习通常包括人工神经网络、置信网络、强化学习、迁移学习和归纳学习等技术。
6)人工神经网络,是一种模仿生物神经网络结构和功能的数学模型,本文中人工神经网络的示例性结构包括深度神经网络(Deep Neural Networks,DNN)、卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)等。
需要说明的是,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
另外,人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
随着人工智能技术的研究和进步,人工智能技术在多个领域展开了研究和应用;例如,常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗和智能客服等;随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值;比如,还可以将人工智能应用在文本处理领域。本发明实施例中所涉及的人工智能在视频处理领域的应用将在后续进行说明。
一般来说,为了对视频进行特效编辑,可以由创作者通过第三方软件对视频进行特效编辑,最后得到特效视频。也可以先结合AI技术识别出精彩片段,然后再通过第三方软件(比如,特效编辑软件)对识别出的各精彩片段进行特效编辑(特效增加、和拼接组合),最后得到特效视频。然而,上述实现特效编辑的过程中,需要借助第三方软件人工进行,是一种通过客户端交互的方式由人工指定特效素材、特效添加时间及特效添加位置等实现特效编辑的方案,因此,获取特效视频的智能性低。另外,上述实现视频特效编辑的过程中,人工手动编辑特效的时间成本高,且存在对相似特效的重复编辑,效率低,特效视频编辑的自动化效果差。
基于此,本发明实施例提供一种视频处理方法、装置、设备及存储介质,能够提升视频的特效编辑的效率、智能性和自动化。下面说明本发明实施例提供的视频处理设备(包括第一视频处理设备和第二视频处理设备)的示例性应用,本发明实施例提供的视频处理设备可以实施为智能手机、平板电脑、笔记本电脑等各种类型的用户终端,也可以实施为服务器。下面,将说明第一视频处理设备实施为终端,而第二视频处理设备实施为服务器时的示例性应用。
参见图1,图1是本发明实施例提供的视频处理系统的一个可选的架构示意图;如图1所示,为支撑一个视频处理应用,在视频处理系统100中,包括终端200(第一视频处理设备,示例性地示出了终端200-1和终端200-2),终端200-1和服务器500均通过网络300连接服务器400(第二视频处理设备),终端200-2与服务器500连接;其中,网络300可以是广域网或者局域网,又或者是二者的组合。
终端200-1,用于通过网络300向服务器400发送携带待处理视频或待处理视频对应的视频标识的特效编辑请求,并通过网络300接收服务器400发送的特效视频,在图形界面201-1上显示特效视频。
终端200-2,用于采集实时视频流,并将实时视频流作为待处理视频携带在特效编辑请求中,将该携带待处理视频的特效编辑请求通过服务器500和网络300发送至服务器400,以及通过服务器500和网络300接收服务器400发送的特效视频,在图像界面201-2上显示特效视频。另外,终端200-2还可以直接与服务器400连接来实现实时视频流的特效编辑和对应特效视频的接收,图中未示出。
服务器400,用于通过网络300从终端200-1,或通过网络300和服务器500从终端200-2中接收特效编辑请求,响应特效编辑请求,获取待处理视频,待处理视频对应至少一个事件类型,每个事件类型为待处理视频中待进行特效编辑的事件的类型;响应特效编辑请求,选择与每个事件类型匹配的目标特效逻辑信息,目标特效逻辑信息表征与每个事件类型对应的特效编辑的逻辑信息;依据目标特效逻辑信息,对待处理视频进行特效编辑,得到特效视频。还用于通过网络300向终端200-1,或通过网络300和服务器500向终端200-2发送特效视频。
参见图2a,图2a是本发明实施例提供的一种图1中服务器的结构示意图,图2a所示的服务器400包括:至少一个第一处理器410、第一存储器450、至少一个第一网络接口420和第一用户接口430。服务器400中的各个组件通过第一总线系统440耦合在一起。可理解,第一总线系统440用于实现这些组件之间的连接通信。第一总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2a中将各种总线都标为第一总线系统440。
第一处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
第一用户接口430包括使得能够呈现媒体内容的一个或多个第一输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。第一用户接口430还包括一个或多个第一输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
第一存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本发明实施例描述的第一存储器450旨在包括任意适合类型的存储器。第一存储器450可选地包括在物理位置上远离第一处理器410的一个或多个存储设备。
在一些实施例中,第一存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
第一操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
第一网络通信模块452,用于经由一个或多个(有线或无线)第一网络接口420到达其他计算设备,示例性的第一网络接口420包括:蓝牙、无线相容性认证(Wi-Fi)、和通用串行总线(USB,Universal Serial Bus)等;
第一显示模块453,用于经由一个或多个与第一用户接口430相关联的第一输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
第一输入处理模块454,用于对一个或多个来自一个或多个第一输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。在一些实施例中,本发明实施例提供的第二视频处理装置可以采用软件方式实现,图2a示出了存储在第一存储器450中的第二视频处理装置455,其可以是程序和插件等形式的软件,包括以下软件模块:视频获取模块4551、特效选择模块4552、特效编辑模块4553、视频发送模块4554和特效创建模块4555,将在下文中说明各个模块的功能。
参见图2b,图2b是本发明实施例提供的一种图1中终端的结构示意图,图2b所示的终端200包括:至少一个第二处理器210、第二存储器250、至少一个第二网络接口220和第二用户接口230。终端200中的各个组件通过第二总线系统240耦合在一起。可理解,第二总线系统240用于实现这些组件之间的连接通信。第二总线系统240除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2b中将各种总线都标为第二总线系统240。
第二处理器210可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
第二用户接口230包括使得能够呈现媒体内容的一个或多个第二输出装置231,包括一个或多个扬声器和/或一个或多个视觉显示屏。第二用户接口230还包括一个或多个第二输入装置232,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
第二存储器250包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本发明实施例描述的第二存储器250旨在包括任意适合类型的存储器。第二存储器250可选地包括在物理位置上远离第二处理器210的一个或多个存储设备。
在一些实施例中,第二存储器250能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
第二操作系统251,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
第二网络通信模块252,用于经由一个或多个(有线或无线)第二网络接口220到达其他计算设备,示例性的第二网络接口220包括:蓝牙、无线相容性认证(Wi-Fi)、和通用串行总线等;
第二显示模块253,用于经由一个或多个与第二用户接口230相关联的第二输出装置231(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
第二输入处理模块254,用于对一个或多个来自一个或多个第二输入装置232之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。在一些实施例中,本发明实施例提供的第一视频处理装置可以采用软件方式实现,图2b示出了存储在存储器250中的第一视频处理装置255,其可以是程序和插件等形式的软件,包括以下软件模块:请求获取模块2551、请求发送模块2552、视频接收模块2553和视频展示模块2554,将在下文中说明各个模块的功能。
在另一些实施例中,本发明实施例提供的视频处理装置(包括第一视频处理装置和第二视频处理装置)可以采用硬件方式实现,作为示例,本发明实施例提供的视频处理装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本发明实施例提供的视频处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable LogicDevice)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或其他电子元件。
下面,将结合本发明实施例提供的终端和服务器的示例性应用和实施,说明本发明实施例提供的视频处理方法。
参见图3,图3是本发明实施例提供的视频处理方法的一个可选的交互示意图,将结合图3示出的步骤进行说明。
S101、终端在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应触控操作,生成特效编辑请求。
在本发明实施例中,当终端侧通过特效编辑界面触发了对视频进行特效编辑的请求时,终端也就获取到了特效编辑请求,该特效编辑请求用于请求对视频进行特效编辑。
这里,终端侧触发的视频特效编辑的请求,可以是终端接收用户作用在特效编辑控件上的触控操作,响应该触控操作也就触发了对视频进行特效编辑的请;其中,触控操作比如为上传待进行特效编辑的视频,并触控用于触发特效编辑的按钮的操作;或者,输入获取视频的条件(视频标识,日期等),并触控用于触发特效编辑的按钮的操作;或者,终端实时进行视频流的采集时,触控用于触发视频采集按钮的操作。另外,特效编辑界面指终端上显示的用于进行特效编辑的显示界面。
S102、服务器接收终端发送的特效编辑请求,响应特效编辑请求,获取待处理视频,待处理视频对应至少一个事件类型,每个事件类型为待处理视频中待进行特效编辑的事件的类型。
需要说明的是,用于依据特效编辑请求对视频进行特效编辑的执行主体为服务器,从而,终端获取到该特效编辑请求之后,将该特效编辑请求发送指服务器,以通过服务器对待处理视频进行特效编辑,来实现对特效编辑请求的响应。因此,终端将特效编辑请求发送至服务器,以通过服务器对待处理视频进行特效编辑。
在本发明实施例中,当终端完成了向服务器发送特效编辑请求的处理时,终端也就接收到了服务器发送的特效编辑请求;当需要对视频进行特效编辑时,服务器获取待进行特效编辑的对象。这里,该特效编辑请求中可以包括所请求处理的视频对应的信息,比如,预设时间段,也可以包括所请求处理的视频,因此,服务器获得了特效编辑请求之后,根据特效编辑请求中所请求处理的视频对应的信息,进行视频的获取,或者从特效编辑请求中获取所请求处理的视频,也就得到了待处理视频。其中,待处理视频为待进行特效编辑的音视频流,包括至少一个视频,并且,待处理视频可以是非实时视频流,也可以是实时视频流,本发明实施例对此不作具体限定。
还需要说明的是,由于待处理视频中包含各种事件,且待处理视频所包含的各种事件均对应着事件类型,因此,待处理视频对应至少一个事件类型,并且,至少一个事件类型中的每个事件类型为待处理视频中待进行特效编辑的事件的类型;比如,进球类型、三分球类型和扣篮类型,或者游戏战斗类型、多杀类型、团战类型、抢龙类型和推塔类型。
这里,服务器在确定待处理视频对应的至少一个事件类型时,可以人工对待处理视频的事件进行浏览,以确定待处理视频对应的至少一个事件类型;还可以自动地对待处理视频进行事件识别,得到包括至少一个事件类型的识别结果,从而也就确定了待处理视频对应的至少一个事件类型;等等,本发明实施例对此不作具体限定。
其中,服务器通过对待处理视频进行事件识别,得到对应的至少一个事件类型时,所获得的识别结果中还包括除至少一个事件类型之外的事件类型,而这些识别出的除至少一个事件类型之外的事件类型,是不包括在特效编辑需求的,或者,这些识别出的除至少一个事件类型之外的事件类型,是不包括在预先存储的特效逻辑的数据库中的,等等;因此,在本发明实施例中,依据至少一个事件类型对待处理视频进行特效编辑,以实现特效编辑的针对性,提升特效编辑效率。比如,当识别结果中包括三分球类型、扣篮类型、罚球类型和普通进球类型,而至少一个事件类型可能仅为三分球类型和扣篮类型。
另外,当识别出的除至少一个事件类型之外的事件类型不包括在预先存储的特效逻辑的数据库中时,服务器可以基于识别出的除至少一个事件类型之外的事件类型,更新预先存储的特效逻辑的数据库,进而依据更新后的特效逻辑的数据库进行特效编辑,以实现服务器进行特效编辑的泛化能力。
还需要说明的是,服务器在获取待处理视频时,还可以获取到包括视频类型或者针对待处理视频进行特效编辑的业务需求,服务器在对待处理视频进行事件识别时,根据视频类型(比如,游戏类型或篮球比赛类型)或者针对待处理视频进行特效编辑的业务需求(三分球集锦、扣篮集锦和进球集锦,或三分球集锦),确定针对待处理视频的识别算法,以及识别时所依据的信息,进而再根据识别算法以及识别时所依据的信息,对待处理视频进行事件识别。
这里,服务器在对待处理视频进行事件识别时,可以通过AI技术实现;服务器根据待处理视频对应的信息(比如,视频类型)确定识别算法(比如,特征匹配、模板匹配、光学字符识别、深度学习分类或深度学习检测等),进而根据所确定的识别算法对待处理视频进行事件识别。易知,不同的待处理视频所确定的识别算法可能不同,对应得到的识别结果也可能不同。
S103、服务器选择与每个事件类型匹配的目标特效逻辑信息。
需要说明的是,服务器中预先设置有预先存储的特效逻辑的数据库,即预设事件类型与特效逻辑信息之间的对应关系,是一种针对事件类型对视频进行特效编辑的逻辑信息构成的数据库;其中,特效逻辑信息即对视频进行特效编辑的逻辑信息;从而,当服务器获得了待处理视频对应的至少事件类型之后,针对至少一个事件类型中的每个事件类型与,预设事件类型与特效逻辑信息之间的对应关系中的各事件类型进行一一匹配,匹配出的事件类型对应的特效逻辑信息,即与每个事件类型匹配的目标特效逻辑信息。
这里,目标特效逻辑信息为对待处理视频进行与每个事件类型对应的特效编辑的逻辑信息。
另外,待处理视频在获得了待处理视频,响应特效编辑请求对待处理视频进行特效编辑时,可以是随机地选择特效信息对待处理视频进行特效编辑;还可以是对待处理视频所表征的视频语义进行识别,根据识别出的视频语义选择特效信息对待处理视频进行特效编辑;等等,本发明实施例对此不作具体限定。
S104、服务器依据目标特效逻辑信息,对待处理视频进行特效编辑,得到特效视频。
在本发明实施例中,由于目标特效逻辑信息为针对每个事件类型对待处理视频进行特效编辑的逻辑信息,比如,特效的类别(表情包类别、动画类别和音效类别等)和特效的添加信息(表情包图片、动画和音频等)等;因此,视频处理设备获得了目标特效逻辑信息之后,就能够依据目标特效逻辑信息对待处理视频进行特效的添加,实现对待处理视频的特效编辑;这里,完成特效编辑后的待处理视频即与每个事件类型对应的特效视频,该特效视频即针对每个事件类型增加了特效后的待处理视频,且该特效视频用于输出展示。
S105、服务器将特效视频发送至终端,以通过终端展示特效视频。
在本发明实施例中,服务器针对每个事件类型完成了对待处理视频的特效编辑,得到了与每个事件类型对应的特效视频之后,服务器也就完成了对特效编辑请求的响应,将与每个事件类型对应的特效视频作为响应结果发送至终端,以使终端展示该与每个事件类型对应的特效视频。
相应地,当服务器执行完S105之后,即服务器将特效视频发送至终端之后,终端也就接收到了服务器响应特效编辑请求所发送的特效视频;
S106、终端从特效编辑界面跳转至视频展示界面,在视频展示界面上,展示特效视频。
在本发明实施例中,终端获得了特效视频之后,页面发生调整,由显示的特效编辑界面跳转至视频展示界面,并在视频展示界面上展示该特效视频;比如,在视频展示界面上以文件形式展示整个特效视频,以使用户通过展示的特效视频确定完成了对待处理视频的特效编辑;或者,通过视频播放应用的界面(视频展示界面)上播放该特效视频,以替换播放待处理视频。
可以理解的是,由于在对待处理视频进行特效编辑时,能够先通过对待处理视频进行事件识别,再根据识别结果的每个事件类型,从预设事件类型与特效逻辑信息之间的对应关系中选择对应的目标特效逻辑信息,最后根据目标特效逻辑信息对待处理视频进行特效编辑得到特效视频,是一种自动获取待处理视频的特效视频的技术方案;因此,达到了自动对待处理视频进行特效编辑的目的,如此,能够提升视频特效编辑的自动化、智能性和效率。
进一步地,在本发明实施例中,特效编辑控件包括视频上传控件和确定上传控件,触控操作包括视频长传操作和确定上传操作;此时,S101可通过S1011-S1014实现;也就是说,终端在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应触控操作,生成特效编辑请求,包括S1011-S1014,下面对各步骤分别进行说明。
S1011、终端在特效编辑界面上,接收作用在视频上传控件上的视频上传操作。
在本发明实施例中,当在终端上触发了特效编辑的功能应用时,终端会显示特效编辑界面;在该特效编辑界面上,设置有视频上传控件和确定上传控件,其中,视频长传控件用于触发视频的获取,确定上传控件用于触发获取到的视频的上传。这里,终端首先接收到的是用于作用在视频上传控件上的视频上传操作,视频上传操作用于指示视频上传控件触发视频的获取。
S1012、终端响应视频上传操作,获取待处理视频。
在本发明实施例中,终端接收到该视频上传操作之后,响应视频上传操作,对上传的视频进行获取,也就获取到了待处理视频。
S1013、终端接收作用在确定上传控件上的确定上传操作。
S1014、终端响应确定上传操作,生成携带待处理视频的特效编辑请求。
在本发明实施例中,终端获取到待处理视频之后,可以直接生成包括待处理视频的特效编辑请求,还可以在接收到作用在确定上传控件上的确定上传操作之后,再生成携带待处理视频的特效编辑请求;等等,本发明实施例对此不作具体限定。这里,确定上传操作用于指示视频确定控件触发视频的上传。
示例性地,参见图4a,图4a是本发明实施例提供的一种示例性的生成特效编辑请求的示意图;如图4a所示,在特效编辑界面4a-1上,显示有视频输入框4a-111和浏览按钮4a-112(共组成视频上传控件),以及确定按钮4a-12(确定上传控件);当将焦点定位于视频输入框4a-111,点击浏览按钮4a-112,进而弹出视频选择框选择视频并确定之后,特效编辑界面4a-1上会显示已上传的视频(待处理视频),这里,焦点的定位操作和点击浏览按钮4a-112的操作,以及选择视频并确定操作均是视频上传操作。之后,当点击(确定上传操作)确定按钮4a-12时,终端也就生成了特效编辑请求。
进一步地,在本发明实施例中,特效编辑控件包括视频采集控件,触控操作包括视频采集操作;此时,S101可通过S1015和S1016实现;也就是说,终端在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应触控操作,生成特效编辑请求,包括S1015和S1016,下面对各步骤分别进行说明。
S1015、终端在特效编辑界面上,接收作用在视频采集控件上的视频采集操作。
需要说明的是,当视频处理是对实时视频流进行特效编辑时,则在终端的特效编辑界面上显示有视频采集控件,该视频采集控件用于触发视频的采集和采集的视频的上传。当用户在视频采集控件上进行了预设操作,终端也就接收到了作用在视频采集控件上的视频采集操作。这里,视频采集操作用于指示视频采集控件触发视频的采集和上传。
S1016、终端响应视频采集操作,通过视频采集区域获取待处理视频,生成携带待处理视频的特效编辑请求。
在本发明实施例中,终端响应视频采集操作进行视频的采集,易知,所采集到的视频即待处理视频;从而,终端生成特效编辑请求时,将待处理视频携带在特效编辑请求中。
示例性地,参见图4b,图4b是本发明实施例提供的另一种示例性的生成特效编辑请求的示意图;如图4b所示,在特效编辑界面4b-1上,显示有拍摄按钮4b-111(视频采集控件)和视频采集区域4b-112;当点击(视频采集操作)拍摄按钮4b-111时,终端对视频采集区域4b-112的视频(待处理视频)进行采集,并生成包括采集的视频特效编辑请求。
进一步地,在本发明实施例中,特效编辑控件包括条件获取控件和确定编辑控件,触控操作包括条件输入操作和确定编辑操作;此时,S101可通过S1017-S10110实现;也就是说,在特效编辑界面上,终端接收作用在特效编辑控件上的触控操作,响应触控操作,生成特效编辑请求,包括S1017-S10110,下面对各步骤分别进行说明。
S1017、终端在特效编辑界面上,接收作用在条件获取控件的条件输入操作。
在本发明实施例中,当视频处理是通过输入视频标识进行特效编辑时,则在中的特效编辑界面上显示有条件获取控件和确定编辑控件;其中,条件获取控件用于触发视频条件的获取,确定编辑控件用于触发特效编辑。
这里,当用户通过条件获取控件输入视频获取的条件时,终端也就接收到了作用在条件获取控件的条件输入操作,该条件输入操作用于获取视频的获取条件。
S1018、终端响应条件输入操作,获取视频获取条件。
需要说明的是,终端接收到条件输入操作之后,响应条件输入操作,获取视频的获取条件,也就得到了视频获取条件;这里,视频获取条件用于获取待处理视频。
S1019、终端接收作用在确定编辑控件上的确定编辑操作。
S10110、终端响应确定编辑操作,生成携带视频获取条件的特效编辑请求。
在本发明实施例中,终端获取到视频获取条件之后,可以直接生成包括视频获取条件的特效编辑请求,还可以在接收到作用在确定编辑控件上的确定编辑操作之后,再生成携带视频获取条件的特效编辑请求;等等,本发明实施例对此不作具体限定。这里,确定编辑操作用于指示确定编辑控件触发视频的特效编辑。
示例性地,参见图4c,图4c是本发明实施例提供的又一种示例性的生成特效编辑请求的示意图;如图4c所示,在特效编辑界面4c-1上,显示有时间选择框4c-11(条件获取控件),以及确定按钮4c-12(确定编辑控件);通过点击(条件输入操作)从时间选择框4c-11中选择时间段(视频获取条件),并点击(确定编辑操作)确定按钮4c-12时,终端也就生成了特效编辑请求。
进一步地,在本发明实施例中,待处理视频包括:至少一个事件类型对应的至少一个事件集合,每个事件类型对应至少一个事件集合中的一个目标事件集合;其中,目标事件集合中的每个目标事件为待处理视频中一个与事件类型对应的视频段的识别信息。此时,参见图4d,S104可通过S1041和S1042实现;也就是说,服务器依据目标特效逻辑信息,对待处理视频进行特效编辑,得到特效视频,包括S1041和S1042,下面对各步骤分别进行说明。
S1041、服务器依据目标事件集合,对目标特效逻辑信息进行结构化处理,得到与每个事件类型对应的第一目标特效结构信息。
在本发明实施例中,由于目标特效逻辑信息指对待处理视频进行特效编辑的逻辑信息,不确定特效编辑时的属性值或素材等(比如,特效添加时间、特效类别和特效添加位置等);因此,服务器还需对目标特效逻辑信息中的属性值或素材等进行确定,即对目标特效逻辑信息进行结构化处理。其中,结构化处理指确定目标特效逻辑信息中的待确定的信息(比如,属性对应的属性值和确定指定素材)的处理。
这里,由于目标特效逻辑信息用于对待处理视频中目标事件集合对应的视频片段进行特效编辑,因此,服务器依据目标事件集合,对目标特效逻辑信息进行结构化处理,即依据目标事件集合中的各个事件确定目标特效逻辑信息中的待确定的信息;此时,所获得的结构化处理结果即与每个事件类型对应的第一目标特效结构信息。
需要说明的是,第一目标特效结构信息为对待处理视频进行与每个事件类型对应的特效编辑的结构化信息,明确了对待处理视频进行特效编辑的处理信息。
S1042、服务器依据第一目标特效结构信息,对待处理视频中与目标事件集合对应的视频片段进行特效编辑,得到特效视频。
在本发明实施例中,服务器获得了第一目标特效结构信息之后,也就明确了对待处理视频进行特效编辑的处理信息,比如,特效添加时间、特效类别和特效添加位置等;因此,就能够依据该第一目标特效结构信息对待处理视频中与目标事件集合对应的视频片段(比如,三分球片段和扣篮片段等)进行特效编辑,完成特效编辑后的待处理视频即与每个事件类型对应的特效视频。
可以理解的是,由于在对待处理视频进行特效编辑时,是根据待处理视频中待进行特效编辑的事件类型,从预先设置的针对事件类型的特效逻辑信息构成的数据库中选择对应的特效逻辑信息,并根据待处理视频的识别结果(至少一个事件类型),确定对应的特效逻辑信息中的各属性信息,来得到第一目标特效结构信息,最后根据该第一目标特效结构信息对待处理视频进行特效编辑,从而得到了特效视频,进而达到了一种自动对待处理视频进行特效编辑的目的,这样可以提升视频特效编辑的自动化。
进一步地,目标事件集合中的每个目标事件包括目标事件内容、事件时间信息、事件参与对象名称和事件参与对象位置中的至少一种。
其中,目标事件内容指待处理视频中识别出的每个目标事件所对应的事件的细粒度类型,此时,目标事件内容表征的类型属于事件类型;也就是说,事件类型可以是目标事件内容表征的类型的总类型,也可以是目标事件内容表征的类型,本发明实施例对此不作具体限定;比如,目标事件内容表征的类型为扣篮类型或三分球类型时,事件类型可以是进球类型,也可以同目标事件内容表征的类型一致,为扣篮类型或三分球类型。事件时间信息指待处理视频中识别出的每个目标事件对应的时间,包括事件发生片段时间和/或事件发生时刻等,比如,进球片段起止时间和/或进球时刻。事件参与对象名称指待处理视频中识别出的每个目标事件对应的参与对象,比如,进球球员,双杀游戏角色等。事件参与对象位置指待处理视频中的识别出的每个目标事件对应的参与对象的所在位置,比如,投三分球时球员所在位置,或扣篮时球员运动轨迹。
进一步地,在本发明实施例中,每个目标事件包括目标事件内容,且目标特效逻辑信息包括片段特效逻辑信息,片段特效逻辑信息为对待处理视频中的视频片段进行特效编辑的逻辑信息;此时,S1041可通过S10411-S10413实现,也就是说,服务器依据目标事件集合,对目标特效逻辑信息进行结构化处理,得到与每个事件类型对应的第一目标特效结构信息,包括S10411-S10413,下面对各步骤分别进行说明。
S10411、服务器依据目标事件集合中每个目标事件的目标事件内容,从片段特效逻辑信息中,确定与每个目标事件对应的目标子片段特效逻辑信息。
需要说明的是,片段特效逻辑信息包括与至少一个片段类型对应的至少一个子片段特效逻辑信息,服务器在获得了目标事件集合之后,为了确定目标事件集合中各目标事件自身对应的特效编辑信息,根据每个目标事件的目标事件内容与至少一个片段类型进行匹配,匹配的片段类型在至少一个子片段特效逻辑信息中所对应的子片段特效逻辑信息,即与每个目标事件对应的目标子片段特效逻辑信息。
S10412、服务器基于每个目标事件,对目标子片段特效逻辑信息进行结构化处理,得到与每个目标事件对应的子片段特效结构信息,从而得到与目标事件集合对应的片段特效结构信息。
在本发明实施例中,服务器进行结构化处理时,是利用每个目标事件,对每个目标事件对应的目标子片段特效逻辑信息进行结构化处理的,完成结构化处理后的目标子片段特效逻辑信息,即与每个目标事件对应的子片段特效结构信息。
需要说明的是,当完成了目标事件集合中各目标事件与其对应的目标子片段特效逻辑信息的结构化处理时,也就获得了与目标事件集合中至少一个目标事件一一对应的至少一个子片段特效结构信息,该至少一个子片段特效结构信息即与目标事件集合对应的片段特效结构信息。也就是说,片段特效结构信息为与每个目标事件对应的子片段特效结构信息构成的集合。
还需要说明的是,当目标子片段特效逻辑信息包括素材标识时,还需要借助预设素材库对目标子片段特效逻辑信息进行结构化处理,对应的实现过程的描述参见后续的S1043和S1044,本发明实施例在此不再赘述。
S10413、服务器基于片段特效结构信息,确定与每个事件类型对应的第一目标特效结构信息。
在本发明实施例中,服务器获得了片段特效结构信息之后,可以将片段特效结构信息作为与每个事件类型对应的第一目标特效结构信息;还可以将片段特效结构信息结合其他信息(比如,背景音乐和开场视频等)组合为与每个事件类型对应的第一目标特效结构信息;本发明实施例对此不作具体限定。也就是说,与每个事件类型对应的第一目标特效结构信息中包括片段特效结构信息。
进一步地,在本发明实施例中,目标特效逻辑信息还包括:整体特效逻辑信息,其中,整体特效信息指以视频为整体进行特效编辑的信息。此时,S10413可通过S104131和S104132实现;也就是说,服务器基于片段特效结构信息,确定与每个事件类型对应的第一目标特效结构信息,包括S104131和S104132,下面对各步骤分别进行说明。
S104131、服务器利用预设素材库,对整体特效逻辑信息进行结构化处理,得到整体特效结构信息。
在本发明实施例中,由于整体特效逻辑信息用于在视频外部进行特效编辑,又由于整体特效逻辑信息为与每个事件类型对应的目标特效逻辑信息中的部分信息;因此,整体特效逻辑信息中已明确了待添加特效所对应的素材标识,从而,服务器能够基于素材标识,确定整体特效逻辑信息中的待确定信息(素材),所获得的结构化处理结果即整体特效结构信息;此时,也就完成了利用预设素材库对整体特效逻辑信息的结构化处理。
S104132、服务器将整体特效结构信息和片段特效结构信息,组合为与每个事件类型对应的第一目标特效结构信息。
需要说明的是,目标特效逻辑信息包括整体特效逻辑信息和片段特效逻辑信息,因此,在服务器确定了整体特效逻辑信息和片段特效逻辑信息,分别对应的结构化信息整体特效结构信息和片段特效结构信息之后,将整体特效结构信息和片段特效结构信息组合,也就得到目标特效逻辑信息的结构化信息,即与每个事件类型对应的第一目标特效结构信息。
进一步地,在本发明实施例中,整体特效逻辑信息包括开头效果特效逻辑信息、封面图特效逻辑信息、开场视频特效逻辑信息、结尾视频特效逻辑信息、结束效果特效逻辑信息和背景音频特效逻辑信息中的至少一种。
需要说明的是,其中,开头效果特效逻辑信息指视频的开头效果对应的逻辑信息,包括至少一个开头效果的逻辑信息,比如,淡入的逻辑信息;封面图特效逻辑信息指视频的封面图对应的逻辑信息,包括至少一个封面图的逻辑信息,比如,为视频添加一个3秒时长的封面图的逻辑信息;开场视频特效逻辑信息指视频的开场视频对应的逻辑信息,包括至少一个开场视频的逻辑信息,比如,为视频添加一个3秒的开场视频的逻辑信息;结尾视频特效逻辑信息指视频的结尾视频对应的逻辑信息,包括至少一个结尾视频的逻辑信息,比如,为视频添加一个3秒的结尾视频的逻辑信息;结束效果特效逻辑信息指视频的结束效果对应的逻辑信息,包括至少一个结束效果的逻辑信息,比如,淡出的逻辑信息;背景音频特效逻辑信息指视频的背景音频对应的逻辑信息,包括至少一个背景音频的逻辑信息,比如,对视频添加背景音乐的逻辑信息。
进一步地,在本发明实施例中,目标特效逻辑信息包括至少一种子特效逻辑信息,每种子特效逻辑信息包括特效类别、特效属性信息、转场信息和特效嵌套信息中的至少一种。
需要说明的是,目标特效逻辑信息,依据在视频中进行特效编辑的位置,划分为整体特效逻辑信息和片段特效逻辑信息;而依据目标特效逻辑信息的特效效果,可以将目标特效逻辑信息划分为至少一种子特效逻辑信息。这里,整体特效逻辑信息和片段特效逻辑信息均可以指至少一种子特效逻辑信息的一个或多个子特效逻辑信息。
还需要说明的是,特效类别指特效对应的类别,比如,表情包、动画、文字、音效、背景音乐、转场和封面图等。特效属性信息指特效对应的各种属性和/或各种属性值;比如,当特效类别为封面图类别时,则特效属性信息为:封面图时长、封面图图片、封面图标签、封面图添加时间、封面图添加位置和封面图添加文字等(其中,封面图时长、封面图图片和封面图标签为属性值,封面图添加时间、封面图添加位置和封面图添加文字为属性,需要根据识别结果进一步确定对应的属性值)。转场信息指转场的信息;比如,当特效类别为封面图类别时,转场信息为封面图向下一相邻视频信息转场时展示的过渡效果。特效嵌套信息指子特效逻辑信息是否嵌套的信息,当特效嵌套信息表征子特效逻辑信息是嵌套的时,则所嵌套的逻辑信息仍然包括至少一种子特效逻辑信息,以及每种子特效逻辑信息包括特效类别、特效属性信息、转场信息和特效嵌套信息中的至少一种,并且具有特效嵌套信息的子特效逻辑信息是以片段特效逻辑信息为片段主体进行的包括至少一种子特效逻辑信息的特效嵌套;如此,能够通过多层的特效嵌套实现丰富的特效编辑需求。
进一步地,在本发明实施例中,每个目标事件包括目标事件内容,且每种子特效逻辑信息包括特效属性信息;此时,S10412中服务器基于每个目标事件,对目标子片段特效逻辑信息进行结构化处理,得到与每个目标事件对应的子片段特效结构信息,包括S104121-S104123,下面对各步骤分别进行说明。
S104121、服务器依据特效属性信息,从目标子片段特效逻辑信息中,确定待解析属性。
需要说明的是,由于目标特效逻辑信息中的每种子特效逻辑信息均包含特效属性信息,表明目标特效逻辑信息中包含待确定属性信息的属性,而目标子片段特效逻辑信息作为从目标特效逻辑信息中获取的信息;因此,目标子片段特效逻辑信息中包含待确定属性值的属性,从而,服务器从目标子片段特效逻辑信息中获取待确定属性值的属性信息,也就获得了待解析属性。
这里,待解析属性包括特效添加时间、特效添加位置和特效添加文本中的至少一种。其中,特效添加时间指添加特效的时间,比如,音效特效添加时刻,动画添加时间段。特效添加位置指添加特效的位置,比如,文本在视频帧中的添加位置,动画的添加轨迹。特效添加文本指添加的文本,比如,“谢谢观赏”。
S104122、服务器利用每个目标事件,对待解析属性的属性信息进行解析,得到目标属性信息。
在本发明实施例中,服务器获得的了待解析属性,利用每个目标事件中所包含的信息,确定待解析属性的属性值,也就完成了对待解析属性的属性信息的解析,所获得的解析结果即目标属性信息。
S104123、服务器将目标属性信息和目标子片段特效逻辑信息,组合为子片段特效结构信息,完成对目标子片段特效逻辑信息的结构化处理。
在本发明实施例中,服务器获得了待解析属性的属性信息即目标属性信息,将该目标属性信息与目标子片段特效逻辑信息进行对应组合,所获得的组合结果即子片段特效结构信息;此时,也就完成了对目标子片段特效逻辑信息的结构化处理,子片段特效结构信息为目标子片段特效逻辑信息的结构化信息。
进一步地,在本发明实施例中,待解析属性包括特效添加时间,且每个目标事件包括事件时间信息;此时,S104122可通过S1041221和S1041222实现;也就是说,服务器利用每个目标事件,对待解析属性的属性信息进行解析,得到目标属性信息,包括S1041221和S1041222,下面对各步骤分别进行说明。
S1041221、服务器从每个目标事件中,获取事件时间信息。
需要说明的是,每个目标事件信息包括事件时间信息,并且,服务器确定目标子片段特效逻辑信息中,待解析属性中的特效添加时间,是根据每个目标事件的事件时间信息进行的;因此,服务器进行属性信息解析时,需要先从每个目标事件中,获取事件时间信息。
S1041222、服务器将特效添加时间对应的属性信息,解析为事件时间信息,从而得到目标属性信息。
需要说明的是,服务器获得了事件时间信息后,将待解析属性中的特效添加时间对应的属性信息,解析为事件时间信息;易知,目标属性信息即事件时间信息。
示例性地,待处理视频的识别结果中,每个目标事件为进球事件,事件时间信息为进球的开始时间和进球的结束时间,且目标子片段特效逻辑信息对应的特效的类别为片段裁剪时;则目标子片段特效逻辑信息中,待解析属性中的特效添加时间(可以指定为数值,或字符串表达式)即片段裁剪的时间,片段裁剪的开始时间为进球的开始时间,片段裁剪的结束时间为进球的结束时间。解析的过程可通过以下方式实现:
Figure BDA0002491868290000251
其中,"clip"指目标子片段特效逻辑信息对应的特效的类别:片段裁剪,"start":"{start_time}"指片段裁剪的开始时间为进球的开始时间,"duration":"{end_time}-{start_time}"指片段裁剪的片段时长为进球的开始时间至进球的结束时间。
进一步地,在本发明实施例中,待解析属性包括特效添加位置,且每个目标事件包括事件参与对象位置;此时,S104122可通过S1041223和S1041224实现;也就是说,服务器利用每个目标事件,对待解析属性的属性信息进行解析,得到目标属性信息,包括S1041223和S1041224,下面对各步骤分别进行说明。
S1041223、服务器从每个目标事件中,获取事件参与对象位置。
需要说明的是,每个目标事件包括事件参与对象位置,并且,服务器确定目标子片段特效逻辑信息中,待解析属性中的特效添加位置,是根据每个目标事件的事件参与对象位置进行的;因此,服务器进行属性信息解析时,需要先从每个目标事件中,获取事件参与对象位置。
S1041224、服务器将特效添加位置对应的属性信息,解析为事件参与对象位置,得到目标属性信息。
需要说明的是,服务器获得了事件参与对象位置后,将待解析属性中的特效添加位置对应的属性信息,解析为事件参与对象位置;易知,目标属性信息即事件参与对象位置。
示例性地,待处理视频的识别结果中,每个目标事件为进球事件,事件参与对象位置为进球球员的运动轨迹(或进球球员所在位置区域的中心位置),且目标子片段特效逻辑信息对应的特效的类别为动画时;则目标子片段特效逻辑信息中,待解析属性中的特效添加位置即添加动画的位置,为进球球员的运动轨迹(或进球球员所在位置区域的中心位置)。解析的过程可通过以下方式实现:
Figure BDA0002491868290000261
其中,"anim"指目标子片段特效逻辑信息对应的特效的类别:动画,"position"指动画添加位置为进球球员所在位置区域的中心位置,并随进球球员一同移动。这里,当"marker"对应的参考目标为静止目标,则计算该目标对应的中心位置的实际值;若所读区的参考目标为移动目标,则对该目标的移动轨迹进行分段拟合,计算出对应的动画位置的移动轨迹。
另外,还可以对目标子片段特效逻辑信息中,待解析属性中的特效添加位置进行指定,比如,指定以屏幕为参考目标,指定固定位置和位置区域。指定的过程可通过以下方式实现:
Figure BDA0002491868290000271
其中,"emoji"指目标子片段特效逻辑信息对应的特效的类别:表情包,"position"指表情包添加位置,为屏幕的左上方或右上方,并随进球球员一同移动。这里,"screen"表示指定屏幕为参考系,"x"为0表示屏幕最左边,"x"为1表示屏幕最右边,"y"为0表示屏幕最上边,"y"为1表示屏幕最下边。
进一步地,在本发明实施例中,待解析属性包括特效添加文本,且每个目标事件包括事件参与对象名称;此时,S103122可通过S1031225-S1031227实现;也就是说,服务器利用每个目标事件,对待解析属性的属性信息进行解析,得到目标属性信息,包括S1031225-S1031227,下面对各步骤分别进行说明。
S1031225、服务器从每个目标事件中,获取事件参与对象名称和目标事件内容。
需要说明的是,每个目标事件包括事件参与对象名称和目标事件内容,并且,服务器确定目标子片段特效逻辑信息中,待解析属性中的特效添加文本,是根据每个目标事件的事件参与对象名称和/或目标事件内容进行的;因此,服务器进行属性信息解析时,需要先从每个目标事件中,获取事件参与对象名称和目标事件内容。
S1041226、服务器获取目标事件内容对应的动作信息,得到目标事件动作信息。
在本发明实施例中,服务器获得了目标事件内容之后,对该目标事件内容对应的动作信息进行获取,此时,也就得到了目标事件动作信息。比如,当目标事件内容表征为三分球事件时,则目标事件动作信息为远投三分。
S1041227、服务器将特效添加文本对应的属性信息,解析为事件参与对象名称和/或目标事件动作信息,得到目标属性信息。
需要说明的是,服务器获得了事件参与对象名称和目标事件动作信息后,将待解析属性中的特效添加文本对应的属性信息,解析为事件参与对象名称和/或目标事件动作信息;易知,目标属性信息即事件参与对象名称和/或目标事件动作信息。
示例性地,待处理视频的识别结果中,每个目标事件为三分球事件,事件参与对象名称为进球球员名称,且目标子片段特效逻辑信息类别为文本时;则目标子片段特效逻辑信息中,待解析属性中的特效添加文本即进球球员名称和目标事件动作信息即远投三分球,为特效添加文本;解析的过程可通过以下方式实现:
Figure BDA0002491868290000281
其中,"text"指目标子片段特效逻辑信息对应的特效的类别:文本,"text"指文本的具体内容,为进球球员名称和远投三分球。
进一步地,在本发明实施例中,S1042可通过S10421和S10422实现;也就是说,服务器依据第一目标特效结构信息,对待处理视频中与目标事件集合对应的视频片段进行特效编辑,得到与每个事件类型对应的特效视频,包括S10421和S10422,下面对各步骤分别进行说明。
S10421、服务器依据第一目标特效结构信息中的片段特效结构信息,对待处理视频中与目标事件集合对应的视频片段进行特效编辑,得到初始特效视频。
在本发明实施例中,当第一目标特效结构信息是由片段特效结构信息和整体特效结构信息组成时,由于片段特效结构信息针对视频内部进行特效编辑,整体特效结构信息针对视频外部进行特效编辑,而对视频外部进行特效编辑会造成时间上信息的改变,比如加开场视频后视频长度从原来的5分钟变成6分钟;因此,为实现对待处理视频的准确的特效编辑,服务器先依据第一目标特效结构信息中的片段特效结构信息,对待处理视频中与目标事件集合对应的视频片段自身进行特效编辑,这里,所获得的特效编辑结果即初始特效视频。
S10422、服务器依据第一目标特效结构信息中的整体特效结构信息,以初始特效视频为整体进行特效编辑,得到与每个事件类型对应的特效视频。
在本发明实施例中,当服务器以及片段特效结构信息完成了对待处理视频的特效编辑之后,就能够依据整体特效结构信息,再对特效编辑后的结果即初始特效视频继续进行特效编辑了;当完成此次的特效编辑后,完成特效编辑后的初始特效视频,即与每个事件类型对应的特效视频。
示例性地,参见图5,图5是本发明实施例提供的一种特效编辑的处理流程示意图;如图5所示,由于目标特效结构信息包括片段特效结构信息和整体特效结构信息,而片段特效结构信息包括表情包特效、动画特效、文字特效、音效、变速播放/回放/暂停特效和片段拼接特效,整体特效结构信息包括开场/结尾视频、封面图特效、开始/结束效果和背景音乐。特效编辑时,服务器先依据片段特效结构信息依次进行表情包特效、动画特效、文字特效、音效和变速播放/回放/暂停特效的添加;并且,由于每个子特效逻辑信息包括特效嵌套信息,而片段特效结构信息和整体特效结构信息,作为目标特效逻辑信息中的一种子特效逻辑信息或多种子特效逻辑信息,也具有对应的特效嵌套信息;因此,需要进行是否含有嵌入特效的判断,当是的时候,则继续执行上述特效的添加,直到不含有嵌入特效时,进行片段拼接特效的添加;同样判断是否含有嵌入特效,当是的时候,则继续执行上述特效的添加,直到不含有嵌入特效时,进行开场/结尾视频的添加;同样判断是否含有嵌入特效,当是的时候,则继续执行上述特效的添加,直到不含有嵌入特效时,进行封面特效的添加;同样判断是否含有嵌入特效,当是的时候,则继续执行上述特效的添加,直到不含有嵌入特效时,进行开始/结束效果的添加;由于开始/结束效果通常不包含嵌入特效的,因此,完成后继续进行背景音乐的添加。此时,判断是否完成了所有嵌套特效的添加,当否的时候,则继续进行片段拼接特效、开场/结尾视频、封面特效、开始/结束效果和背景音乐中所包含的特效的添加;直到完成了所有嵌套特效的添加,也就得到了特效视频。其中,开场/结尾视频、封面图特效、开始/结束效果和背景音乐,为开场视频特效逻辑信息/结尾视频特效逻辑信息、封面图特效逻辑信息、开头效果特效逻辑信息/结束效果特效逻辑信息和背景音频特效逻辑信息依次分别对应的结构化信息。
进一步地,继续参见图4d,在本发明实施例中,S104可以通过S1041和S1042实现,S104还可以通过S1043-S1046实现;也就是说,服务器依据目标特效逻辑信息,对待处理视频进行特效编辑,得到特效视频,包括S1043-S1046,下面结合图5a示出的步骤进行说明。
S1043、服务器从目标特效逻辑信息中,获取目标素材标识。
需要说明的是,当目标特效逻辑信息仅用于以待处理视频为整体进行特效编辑时,服务器仅需对目标特效逻辑信息中素材进行确定;此时,服务器从目标特效逻辑信息中获取待确定素材的素材标识,也就获得了目标素材标识。
这里,目标素材标识可以为素材唯一标识,也可以为素材主题,等等;以及目标素材标识可以为单个标识,也可以为多个标识的组合;本发明实施例对此不作具体限定。
S1044、服务器从预设素材库中,选择与目标素材标识匹配的目标素材。
需要说明的是,目标素材标识是特效逻辑信息创建时设置的,对应于预设素材库中的素材标识。因此,当服务器获得了目标素材标识后,将目标素材标识与预设素材库中的素材标识一一进行匹配,所获得的匹配的素材标识对应的素材信息,即目标素材。
示例性地,待处理视频的识别结果中,其中一个事件类型进球事件类型时,且目标事件特效逻辑信息对应的特效的类别为表情包,以及目标素材标识为"厉害,开心"时,获取目标素材的过程可通过以下方式实现:
Figure BDA0002491868290000311
其中,"emoji"指目标事件特效逻辑信息对应的特效的类别:表情包,"tag_name":"厉害,开心"为目标素材标识,表示指定表情包在主题为“厉害”或“开心”的素材中选取;另外,未指定具体素材("key"值为空),则根据指定的特效添加素材主题"tag_name"在预设素材库中检索符合目标素材标识的素材,以获得目标素材。
S1045、服务器将目标特效逻辑信息和目标素材,组合为第二目标特效结构信息。
在本发明实施例中,服务器获得了目标素材之后,将该目标素材与目标特效逻辑信息进行对应组合,所获得的组合结果即第二目标特效结构信息;此时,也就完成了对目标特效逻辑信息的结构化处理,第二目标特效结构信息为目标特效逻辑信息的结构化信息,并且第二目标特效结构信息为对待处理视频进行特效编辑的结构化信息。
S1046、服务器依据第二目标特效结构信息,以待处理视频为整体进行特效编辑,得到特效视频。
在本发明实施例中,服务器获得了第二目标特效结构信息之后,也就明确了以待处理视频为整体,对待处理视频进行特效编辑的处理信息,比如,封面图特效、背景音乐和开场视频等;因此,就能够依据该第二目标特效结构信息并以待处理视频为整体进行特效编辑,完成特效编辑后的待处理视频即与每个事件类型对应的特效视频。
进一步地,参见图6,图6是本发明实施例提供的视频处理方法的又一个可选的交互示意图;如图6所示,在本发明实施例中,S103之前还包括S107-S109;也就是说,服务器选择与每个事件类型匹配的目标特效逻辑信息之前,方法还包括S107-S109,下面结合图6示出的步骤进行说明。
S107、服务器获取特效创建请求。
在本发明实施例中,当进行特效逻辑信息创建时,服务器也就获取到了特效创建请求;这里,特效创建请求用于请求创建事件类型对应的特效逻辑信息。
需要说明的是,服务器中设置有特效创建页面,该特效创建页面中设置有事件类型输入控件和特效逻辑输入控件,以及生成特效创建请求的触发控件;其中,事件类型输入控件用于获取每个事件类型,特效逻辑输入控件用于获取与获取到的每个事件类型对应的目标特效逻辑信息,而触发控件用于生成包括获取到每个事件类型和目标特效逻辑信息的特效创建请求。
这里,服务器中预先设置了创作逻辑的模板格式,并将该创作逻辑的模板格式对应在特效创建页面显示,当创作者在特效创建页面中进行操作选择各种特效时,服务器根据所选择的各种特效以及输入的各种参数等信息确定每个精彩事件类型(每个事件类型)对应的创作逻辑(目标特效逻辑信息)。示例性地,创作逻辑的模板格式如图7所示,包括开头效果7-11、封面图7-12、开场视频7-13、片段7-14、结尾视频7-15、结束效果7-16和背景音频特效7-17(开头效果特效逻辑信息、封面图特效逻辑信息、开场视频特效逻辑信息、片段特效逻辑信息、结尾视频特效逻辑信息、结束效果特效逻辑信息和背景音频特效逻辑信息);针对开头效果7-11、封面图7-12、开场视频7-13、片段7-14、结尾视频7-15和结束效果7-16中的每一种,均可以设置有添加转场7-2(转场信息,比如,封面图7-12和开场视频7-13,以及片段7-14中的前两个片段均添加了转场);以及针对封面图7-12、开场视频7-13、片段7-14和结尾视频7-15均可以作为片段主体(片段7-24)添加内嵌特效(特效嵌套信息),如图7中虚线箭头所示;并且,每一种添加内嵌特效时,则将自身对应的视频片段作为片段主体(片段7-24)进行封面图7-22、开场视频7-23、片段7-24和结尾视频7-25的添加。如此,每次嵌套将当前的特效作为片段主体,不断地进行逻辑嵌套,实现多次嵌套,即实现嵌套至封面图7-n2、开场视频7-n3、片段7-n4和结尾视频7-n5的添加。其中,每个片段主体包括表情包、动画、文字、变速播放/回放/暂停等播放控制和音效;以及,针对视频流和音频流可以分别进行特效的添加。
S108、服务器从特效创建请求中,获取每个事件类型和目标特效逻辑信息。
在本发明实施例中,服务器获得了特效创建请求之后,对特效创建请求进行响应;而由于特效创建请求用于请求创建与每个事件类型对应的目标特效逻辑信息,因此,服务器能够从特效创建请求中获取到每个事件类型,以及每个事件类型对应的目标特效逻辑信息。
S109、服务器将每个事件类型和目标特效逻辑信息对应存储,得到每个事件类型与特效逻辑信息之间的对应关系。
在本发明实施例中,服务器获得了每个事件类型和目标特效逻辑信息之后,将每个事件类型和目标特效逻辑信息对应存储,也就得到了预设事件类型与特效逻辑信息之间的对应关系。
需要说明的是,至少一个事件类型,属于预设事件类型与特效逻辑信息之间的对应关系中的事件类型;也即是说,至少一个事件类型为预设事件类型与特效逻辑信息之间的对应关系中存在的事件类型。
相应地,本发明实施例S103中服务器选择与每个事件类型匹配的目标特效逻辑信息,包括:服务器从预设事件类型与特效逻辑信息之间的对应关系中,选择与每个事件类型匹配的目标特效逻辑信息。也就是说,目标特效逻辑信息为预设事件类型与特效逻辑信息之间的对应关系中与每个时间类型匹配的特效逻辑信息。
示例性地,参见图8,图8是本发明实施例提供的视频处理流程的一个可选的示意图;如图8所示,首先,服务器(第二视频处理设备)针对每个事件类型进行特效逻辑信息8-1的创建,得到特效逻辑库8-2(预设事件类型与特效逻辑信息之间的对应关系),并搜索素材构建预设素材库8-3。其次,获得了待处理视频8-4之后,对待处理视频8-4进行事件识别,得到识别结果8-5,识别结果8-5中包括至少一个事件类型,针对每个事件类型8-6,从特效逻辑库8-2中选择对应的目标特效逻辑信息8-7;然后,利用识别结果8-5中每个事件类型8-6对应的目标事件集合8-8和/或预设素材库8-3对目标特效逻辑信息8-7进行解析,得到目标特效结构信息8-9(第一目标特效结构信息,或第二目标特效结构信息);最后,利用目标特效结构信息8-9对待处理视频8-4进行特效编辑,得到特效视频8-10。
可以理解的是,本发明实施例通过预先录入每个事件类型与每个事件类型对应的目标特效逻辑信息,使得能够对待处理视频自动地进行特效的编辑,节约了创作者创作的时间成本和工具成本,避免了创作者对于相似创作逻辑的重复编辑,进而提升了视频特效编辑的效率和自动化。
下面,将说明本发明实施例在一个实际的应用场景中的示例性应用。
示例性地,参见图9,图9是本发明实施例提供的一种示例性的获取特效视频的流程示意图;如图9所示,首先,特效创作者通过前端交互(特效创建页面)进行创作逻辑9-11(创作者在特效创建页面上输入的信息)的上传,创作逻辑9-11经过服务器(第二视频处理设备)的预处理模块9-21的结构化处理模块9-211(即利用创作逻辑的模板格式,将前端录入的信息存至对应的字段),得到结构化创作逻辑9-12(每个事件类型对应的目标特效逻辑信息),将结构化创作逻辑9-12存储至创作逻辑库9-3(预设事件类型与特效逻辑信息之间的对应关系)。
其次,用户在特效编辑界面上通过前端操作,生成获取今天篮球比赛的视频的特效视频的特效编辑请求,此时,服务器响应特效编辑请求获得篮球比赛视频9-31(待处理视频),利用预处理模块9-21中的AI识别算法9-212对篮球比赛视频9-31进行事件识别,得到结构化识别结果9-32(识别结果)。
这里,结构化识别结果9-32中包括了普通进球事件类型、罚球事件类型、三分球事件类型和扣篮事件类型,以及每个事件类型对应的事件集合;这里,由于创作逻辑库9-3中仅包括了三分球事件类型和扣篮事件类型,故,三分球事件类型和扣篮事件类型为至少一个事件类型,以及三分球事件类型和扣篮事件类型分别对应的三分球事件集合和扣篮事件集合,为每个事件类型对应的目标事件集合。
然后,(这里以三分球事件类型对应的特效视频的获取过程为例进行说明)服务器的解析器9-22利用结构化识别结果9-32中的三分球事件类型9-321从创建逻辑库9-3中选择创作逻辑9-13(目标特效逻辑信息),并根据结构化识别结果9-32中的三分球事件集合9-323对创作逻辑9-13中的片段部分的创造逻辑进行确定(确定后的创作逻辑即与三分球事件的数量对应的多个目标子片段特效逻辑信息)并解析,同时,针对创作逻辑9-13从素材库9-5(预设素材库)中选择素材,得到结构化特效9-4(片段特效结构信息)。
最后,服务器的合成器9-23针对篮球比赛视频9-31对结构化特效9-4进行特效叠加和合成,直至完成所有特效的叠加和合成,输出表征三分球集锦的特效视频9-6。另外,扣篮事件类型对应的特效视频的获取过程,与上述针对三分球事件类型对应的特效视频的获取过程类似,本发明实施例在此不再赘述。
下面继续说明本发明实施例提供的第二视频处理装置455的实施为软件模块的示例性结构,在一些实施例中,如图2a所示,存储在第一存储器450的第二视频处理装置455中的软件模块可以包括:
视频获取模块4551,用于接收第一视频处理设备发送的特效编辑请求,响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;
特效选择模块4552,用于选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;
特效编辑模块4553,用于依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
视频发送模块4554,用于将所述特效视频发送至所述第一视频处理设备,以通过所述第一视频处理设备展示所述特效视频。
进一步地,所述待处理视频包括所述至少一个事件类型对应的至少一个事件集合,所述每个事件类型对应所述至少一个事件集合中的一个目标事件集合;
所述特效编辑模块4553,还用于依据所述目标事件集合,对所述目标特效逻辑信息进行结构化处理,得到与所述每个事件类型对应的第一目标特效结构信息;所述第一目标特效结构信息为对所述待处理视频进行与所述每个事件类型对应的特效编辑的结构化信息;依据所述第一目标特效结构信息,对所述待处理视频中与所述目标事件集合对应的视频片段进行特效编辑,得到所述特效视频。
进一步地,所述目标事件集合中的每个目标事件包括目标事件内容、事件时间信息、事件参与对象名称和事件参与对象位置中的至少一种。
进一步地,所述每个目标事件包括所述目标事件内容,且所述目标特效逻辑信息包括片段特效逻辑信息,所述片段特效逻辑信息为对所述待处理视频中的视频片段进行特效编辑的逻辑信息;
所述特效编辑模块4553,还用于依据所述目标事件集合中所述每个目标事件的所述目标事件内容,从所述片段特效逻辑信息中,确定与所述每个目标事件对应的目标子片段特效逻辑信息;基于所述每个目标事件,对所述目标子片段特效逻辑信息进行结构化处理,得到与所述每个目标事件对应的子片段特效结构信息,从而得到与所述目标事件集合对应的片段特效结构信息;基于所述片段特效结构信息,确定与所述每个事件类型对应的所述第一目标特效结构信息。
进一步地,所述目标特效逻辑信息还包括:整体特效逻辑信息,所述整体特效信息指以视频为整体进行特效编辑的信息;所述特效编辑模块4553,还用于利用预设素材库,对所述整体特效逻辑信息进行结构化处理,得到整体特效结构信息;将所述整体特效结构信息和所述片段特效结构信息,组合为与所述每个事件类型对应的所述第一目标特效结构信息。
进一步地,所述整体特效逻辑信息包括开头效果特效逻辑信息、封面图特效逻辑信息、开场视频特效逻辑信息、结尾视频特效逻辑信息、结束效果特效逻辑信息和背景音频特效逻辑信息中的至少一种。
进一步地,所述目标特效逻辑信息包括至少一种子特效逻辑信息,每种子特效逻辑信息包括特效类别、特效属性信息、转场信息和特效嵌套信息中的至少一种。
进一步地,所述每个目标事件包括所述目标事件内容,且所述每种子特效逻辑信息包括所述特效属性信息;
所述特效编辑模块4553,还用于依据所述特效属性信息,从所述目标子片段特效逻辑信息中,确定待解析属性;所述待解析属性包括特效添加时间、特效添加位置和特效添加文本中的至少一种;利用所述每个目标事件,对所述待解析属性的属性信息进行解析,得到目标属性信息;将所述目标属性信息和所述目标子片段特效逻辑信息,组合为所述子片段特效结构信息,完成对所述目标子片段特效逻辑信息的结构化处理。
进一步地,所述待解析属性包括所述特效添加时间,且所述每个目标事件包括所述事件时间信息;所述特效编辑模块4553,还用于从所述每个目标事件中,获取所述事件时间信息;将所述特效添加时间对应的属性信息,解析为所述事件时间信息,从而得到所述目标属性信息。
进一步地,所述待解析属性包括所述特效添加位置,且所述每个目标事件包括所述事件参与对象位置;所述特效编辑模块4553,还用于从所述每个目标事件中,获取所述事件参与对象位置;将所述特效添加位置对应的属性信息,解析为所述事件参与对象位置,得到所述目标属性信息。
进一步地,所述待解析属性包括所述特效添加文本,且所述每个目标事件包括所述事件参与对象名称;所述特效编辑模块4553,还用于从所述每个目标事件中,获取所述事件参与对象名称和所述目标事件内容;获取所述目标事件内容对应的动作信息,得到目标事件动作信息;将所述特效添加文本对应的属性信息,解析为所述事件参与对象名称和/或所述目标事件动作信息,得到所述目标属性信息。
进一步地,所述特效编辑模块4553,还用于依据所述第一目标特效结构信息中的所述片段特效结构信息,对所述待处理视频中与所述目标事件集合对应的视频片段进行特效编辑,得到初始特效视频;依据所述第一目标特效结构信息中的所述整体特效结构信息,以所述初始特效视频为整体进行特效编辑,得到所述特效视频。
所述特效编辑模块4553,还用于从所述目标特效逻辑信息中,获取目标素材标识;从预设素材库中,选择与所述目标素材标识匹配的目标素材;将所述目标特效逻辑信息和所述目标素材,组合为第二目标特效结构信息;所述第二目标特效结构信息为对所述待处理视频进行特效编辑的结构化信息;依据所述第二目标特效结构信息,以所述待处理视频为整体进行特效编辑,得到所述特效视频。
进一步地,所述第二视频处理装置455还包括特效创建模块4555,用于获取特效创建请求;所述特效创建请求用于请求创建所述每个事件类型对应的所述目标特效逻辑信息;从所述特效创建请求中,获取所述每个事件类型和所述目标特效逻辑信息;将所述每个事件类型和所述目标特效逻辑信息对应存储,得到预设事件类型与特效逻辑信息之间的对应关系。
相应地,所述特效选择模块4552,还用于从所述预设事件类型与特效逻辑信息之间的对应关系中,选择与所述每个事件类型匹配的所述目标特效逻辑信息。
下面继续说明本发明实施例提供的第一视频处理装置255的实施为软件模块的示例性结构,在一些实施例中,如图2b所示,存储在第二存储器250的第一视频处理装置255中的软件模块可以包括:
请求获取模块2551,用于在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求;
请求发送模块2552,用于将所述特效编辑请求发送至第二视频处理设备,以通过所述第二视频处理设备执行如下操作:响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
视频接收模块2553,用于接收所述第二视频处理设备响应所述特效编辑请求所发送的所述特效视频;
视频展示模块2554,用于从所述特效编辑界面跳转至视频展示界面,在所述视频展示界面上,展示所述特效视频。
进一步地,所述特效编辑控件包括视频上传控件和确定上传控件,所述触控操作包括视频长传操作和确定上传操作;所述请求获取模块2551,还用于在所述特效编辑界面上,接收作用在所述视频上传控件上的所述视频上传操作;响应所述视频上传操作,获取所述待处理视频;接收作用在所述确定上传控件上的所述确定上传操作;响应所述确定上传操作,生成携带所述待处理视频的所述特效编辑请求。
进一步地,所述特效编辑控件包括视频采集控件,所述触控操作包括视频采集操作;所述请求获取模块2551,还用于在所述特效编辑界面上,接收作用在所述视频采集控件上的所述视频采集操作;响应所述视频采集操作,通过视频采集区域获取所述待处理视频,生成携带所述待处理视频的所述特效编辑请求。
进一步地,所述特效编辑控件包括条件获取控件和确定编辑控件,所述触控操作包括条件输入操作和确定编辑操作;
进一步地,在所述特效编辑界面上,接收作用在所述条件获取控件的所述条件输入操作;响应所述条件输入操作,获取视频获取条件;所述视频获取条件用于获取所述待处理视频;接收作用在所述确定编辑控件上的所述确定编辑操作;响应所述确定编辑操作,生成携带所述视频获取条件的所述特效编辑请求。
本发明实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被第一处理器执行时,将引起第一处理器执行本发明实施例提供的应用于第二视频处理设备的视频处理方法;或者,当可执行指令被第二处理器执行时,将引起第二处理器执行本发明实施例提供的应用于第一视频处理设备的视频处理方法;例如,如图3示出的视频处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上所述,通过本发明实施例,由于在对待处理视频进行特效编辑时,能够通过待处理视频中的事件对应的每个事件类型,选择对应的目标特效逻辑信息,进而,根据目标特效逻辑信息对待处理视频进行特效编辑,得到特效视频;从而,实现了一种自动获取待处理视频的特效视频的技术方案;因此,达到了自动对待处理视频进行特效编辑的目的,如此,能够提升视频特效编辑的自动化效果。
以上所述,仅为本发明的实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本发明的保护范围之内。

Claims (15)

1.一种视频处理方法,其特征在于,包括:
接收第一视频处理设备发送的特效编辑请求,响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;
选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;
依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
将所述特效视频发送至所述第一视频处理设备,以通过所述第一视频处理设备展示所述特效视频。
2.根据权利要求1所述的方法,其特征在于,所述待处理视频包括:所述至少一个事件类型对应的至少一个事件集合,所述每个事件类型对应所述至少一个事件集合中的一个目标事件集合;
所述依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频,包括:
依据所述目标事件集合,对所述目标特效逻辑信息进行结构化处理,得到与所述每个事件类型对应的第一目标特效结构信息;所述第一目标特效结构信息为对所述待处理视频进行与所述每个事件类型对应的特效编辑的结构化信息;
依据所述第一目标特效结构信息,对所述待处理视频中与所述目标事件集合对应的视频片段进行特效编辑,得到所述特效视频。
3.根据权利要求2所述的方法,其特征在于,所述目标事件集合中的每个目标事件包括目标事件内容,且所述目标特效逻辑信息包括片段特效逻辑信息,所述片段特效逻辑信息为对所述待处理视频中的视频片段进行特效编辑的逻辑信息;
所述依据所述目标事件集合,对所述目标特效逻辑信息进行结构化处理,得到与所述每个事件类型对应的第一目标特效结构信息,包括:
依据所述目标事件集合中所述每个目标事件的所述目标事件内容,从所述片段特效逻辑信息中,确定与所述每个目标事件对应的目标子片段特效逻辑信息;
基于所述每个目标事件,对所述目标子片段特效逻辑信息进行结构化处理,得到与所述每个目标事件对应的子片段特效结构信息,从而得到与所述目标事件集合对应的片段特效结构信息;
基于所述片段特效结构信息,确定与所述每个事件类型对应的所述第一目标特效结构信息。
4.根据权利要求3所述的方法,其特征在于,所述目标特效逻辑信息还包括:整体特效逻辑信息,所述整体特效信息指以视频为整体进行特效编辑的信息;
所述基于所述片段特效结构信息,确定与所述每个事件类型对应的所述第一目标特效结构信息,包括:
利用预设素材库,对所述整体特效逻辑信息进行结构化处理,得到整体特效结构信息;
将所述整体特效结构信息和所述片段特效结构信息,组合为与所述每个事件类型对应的所述第一目标特效结构信息。
5.根据权利要求3或4所述的方法,其特征在于,所述目标特效逻辑信息中的每种子特效逻辑信息包括特效属性信息;
所述基于所述每个目标事件,对所述目标子片段特效逻辑信息进行结构化处理,得到与所述每个目标事件对应的子片段特效结构信息,包括:
依据所述特效属性信息,从所述目标子片段特效逻辑信息中,确定待解析属性;所述待解析属性包括特效添加时间、特效添加位置和特效添加文本中的至少一种;
利用所述每个目标事件,对所述待解析属性的属性信息进行解析,得到目标属性信息;
将所述目标属性信息和所述目标子片段特效逻辑信息,组合为所述子片段特效结构信息,完成对所述目标子片段特效逻辑信息的结构化处理。
6.根据权利要求5所述的方法,其特征在于,所述待解析属性包括所述特效添加时间,且所述每个目标事件包括事件时间信息;
所述利用所述每个目标事件,对所述待解析属性的属性信息进行解析,得到目标属性信息,包括:
从所述每个目标事件中,获取所述事件时间信息;
将所述特效添加时间对应的属性信息,解析为所述事件时间信息,从而得到所述目标属性信息。
7.根据权利要求5所述的方法,其特征在于,所述待解析属性包括所述特效添加位置,且所述每个目标事件包括事件参与对象位置;
所述利用所述每个目标事件,对所述待解析属性的属性信息进行解析,得到目标属性信息,包括:
从所述每个目标事件中,获取所述事件参与对象位置;
将所述特效添加位置对应的属性信息,解析为所述事件参与对象位置,得到所述目标属性信息。
8.根据权利要求2至4任一项所述的方法,其特征在于,所述依据所述第一目标特效结构信息,对所述待处理视频中与所述目标事件集合对应的视频片段进行特效编辑,得到所述特效视频,包括:
依据所述第一目标特效结构信息中的所述片段特效结构信息,对所述待处理视频中与所述目标事件集合对应的视频片段进行特效编辑,得到初始特效视频;
依据所述第一目标特效结构信息中的所述整体特效结构信息,以所述初始特效视频为整体进行特效编辑,得到所述特效视频。
9.根据权利要求1所述的方法,其特征在于,所述依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频,包括:
从所述目标特效逻辑信息中,获取目标素材标识;
从预设素材库中,选择与所述目标素材标识匹配的目标素材;
将所述目标特效逻辑信息和所述目标素材,组合为第二目标特效结构信息;所述第二目标特效结构信息为对所述待处理视频进行特效编辑的结构化信息;
依据所述第二目标特效结构信息,以所述待处理视频为整体进行特效编辑,得到所述特效视频。
10.根据权利要求1至4、9任一项所述的方法,其特征在于,所述选择与所述每个事件类型匹配的目标特效逻辑信息之前,所述方法还包括:
获取特效创建请求;所述特效创建请求用于请求创建所述每个事件类型对应的所述目标特效逻辑信息;
从所述特效创建请求中,获取所述每个事件类型和所述目标特效逻辑信息;
将所述每个事件类型和所述目标特效逻辑信息对应存储,得到预设事件类型与特效逻辑信息之间的对应关系;
所述选择与所述每个事件类型匹配的目标特效逻辑信息,包括:
从所述预设事件类型与特效逻辑信息之间的对应关系中,选择与所述每个事件类型匹配的所述目标特效逻辑信息。
11.一种视频处理方法,其特征在于,包括:
在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求;
将所述特效编辑请求发送至第二视频处理设备,以通过所述第二视频处理设备执行如下操作:响应所述特效编辑请求,获取待处理视频,所述待处理视频对应至少一个事件类型,每个事件类型为所述待处理视频中待进行特效编辑的事件的类型;选择与所述每个事件类型匹配的目标特效逻辑信息,所述目标特效逻辑信息表征与所述每个事件类型对应的特效编辑的逻辑信息;依据所述目标特效逻辑信息,对所述待处理视频进行特效编辑,得到特效视频;
接收所述第二视频处理设备响应所述特效编辑请求所发送的所述特效视频;
从所述特效编辑界面跳转至视频展示界面,在所述视频展示界面上,展示所述特效视频。
12.根据权利要求11所述的方法,其特征在于,所述特效编辑控件包括视频上传控件和确定上传控件,所述触控操作包括视频长传操作和确定上传操作;
所述在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求,包括:
在所述特效编辑界面上,接收作用在所述视频上传控件上的所述视频上传操作;
响应所述视频上传操作,获取所述待处理视频;
接收作用在所述确定上传控件上的所述确定上传操作;
响应所述确定上传操作,生成携带所述待处理视频的所述特效编辑请求。
13.根据权利要求11所述的方法,其特征在于,所述特效编辑控件包括视频采集控件,所述触控操作包括视频采集操作;
所述在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求,包括:
在所述特效编辑界面上,接收作用在所述视频采集控件上的所述视频采集操作;
响应所述视频采集操作,通过视频采集区域获取所述待处理视频,生成携带所述待处理视频的所述特效编辑请求。
14.根据权利要求11所述的方法,其特征在于,所述特效编辑控件包括条件获取控件和确定编辑控件,所述触控操作包括条件输入操作和确定编辑操作;
所述在特效编辑界面上,接收作用在特效编辑控件上的触控操作,响应所述触控操作,生成特效编辑请求,包括:
在所述特效编辑界面上,接收作用在所述条件获取控件的所述条件输入操作;
响应所述条件输入操作,获取视频获取条件;所述视频获取条件用于获取所述待处理视频;
接收作用在所述确定编辑控件上的所述确定编辑操作;
响应所述确定编辑操作,生成携带所述视频获取条件的所述特效编辑请求。
15.一种计算机可读存储介质,其特征在于,存储有可执行指令,用于引起第一处理器执行时,实现权利要求1至10任一项所述的视频处理方法;或者用于引起第二处理器执行时,实现权利要求11至14任一项所述的视频处理方法。
CN202010407491.7A 2020-05-14 2020-05-14 一种视频处理方法及存储介质 Active CN111541914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010407491.7A CN111541914B (zh) 2020-05-14 2020-05-14 一种视频处理方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010407491.7A CN111541914B (zh) 2020-05-14 2020-05-14 一种视频处理方法及存储介质

Publications (2)

Publication Number Publication Date
CN111541914A true CN111541914A (zh) 2020-08-14
CN111541914B CN111541914B (zh) 2021-10-15

Family

ID=71977741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010407491.7A Active CN111541914B (zh) 2020-05-14 2020-05-14 一种视频处理方法及存储介质

Country Status (1)

Country Link
CN (1) CN111541914B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112702625A (zh) * 2020-12-23 2021-04-23 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及存储介质
CN113254677A (zh) * 2021-07-06 2021-08-13 北京达佳互联信息技术有限公司 多媒体信息处理方法、装置、电子设备及存储介质
CN113470701A (zh) * 2021-06-30 2021-10-01 深圳市斯博科技有限公司 音视频的编辑方法、装置、计算机设备及存储介质
CN114125528A (zh) * 2020-08-28 2022-03-01 北京达佳互联信息技术有限公司 一种视频特效处理方法、装置、电子设备及存储介质
CN114567793A (zh) * 2022-02-23 2022-05-31 广州博冠信息科技有限公司 直播互动特效的实现方法及装置、存储介质、电子设备
CN114697703A (zh) * 2022-04-01 2022-07-01 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质
CN115379136A (zh) * 2022-08-19 2022-11-22 北京字跳网络技术有限公司 特效道具处理方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104618797A (zh) * 2015-02-06 2015-05-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN109040766A (zh) * 2018-08-27 2018-12-18 百度在线网络技术(北京)有限公司 直播视频处理方法、装置及存储介质
CN110049371A (zh) * 2019-05-14 2019-07-23 北京比特星光科技有限公司 视频合成、播放和修改方法、视频合成系统及设备
CN110213504A (zh) * 2018-04-12 2019-09-06 腾讯科技(深圳)有限公司 一种视频处理方法、信息发送方法及相关设备
US20190327514A1 (en) * 2014-12-25 2019-10-24 Dish Ukraine L.L.C. Simultaneously viewing multiple camera angles
CN110662090A (zh) * 2018-06-29 2020-01-07 腾讯科技(深圳)有限公司 一种视频处理方法和系统
CN110856039A (zh) * 2019-12-02 2020-02-28 新华智云科技有限公司 视频处理方法及装置、存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190327514A1 (en) * 2014-12-25 2019-10-24 Dish Ukraine L.L.C. Simultaneously viewing multiple camera angles
CN104618797A (zh) * 2015-02-06 2015-05-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN110213504A (zh) * 2018-04-12 2019-09-06 腾讯科技(深圳)有限公司 一种视频处理方法、信息发送方法及相关设备
CN110662090A (zh) * 2018-06-29 2020-01-07 腾讯科技(深圳)有限公司 一种视频处理方法和系统
CN109040766A (zh) * 2018-08-27 2018-12-18 百度在线网络技术(北京)有限公司 直播视频处理方法、装置及存储介质
CN110049371A (zh) * 2019-05-14 2019-07-23 北京比特星光科技有限公司 视频合成、播放和修改方法、视频合成系统及设备
CN110856039A (zh) * 2019-12-02 2020-02-28 新华智云科技有限公司 视频处理方法及装置、存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114125528A (zh) * 2020-08-28 2022-03-01 北京达佳互联信息技术有限公司 一种视频特效处理方法、装置、电子设备及存储介质
WO2022042029A1 (zh) * 2020-08-28 2022-03-03 北京达佳互联信息技术有限公司 视频特效处理方法、装置、电子设备、存储介质
CN114125528B (zh) * 2020-08-28 2022-11-11 北京达佳互联信息技术有限公司 一种视频特效处理方法、装置、电子设备及存储介质
CN112702625A (zh) * 2020-12-23 2021-04-23 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及存储介质
CN112702625B (zh) * 2020-12-23 2024-01-02 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及存储介质
CN113470701A (zh) * 2021-06-30 2021-10-01 深圳市斯博科技有限公司 音视频的编辑方法、装置、计算机设备及存储介质
CN113470701B (zh) * 2021-06-30 2022-07-01 深圳万兴软件有限公司 音视频的编辑方法、装置、计算机设备及存储介质
CN113254677A (zh) * 2021-07-06 2021-08-13 北京达佳互联信息技术有限公司 多媒体信息处理方法、装置、电子设备及存储介质
CN114567793A (zh) * 2022-02-23 2022-05-31 广州博冠信息科技有限公司 直播互动特效的实现方法及装置、存储介质、电子设备
CN114697703A (zh) * 2022-04-01 2022-07-01 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质
CN114697703B (zh) * 2022-04-01 2024-03-22 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质
CN115379136A (zh) * 2022-08-19 2022-11-22 北京字跳网络技术有限公司 特效道具处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111541914B (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
CN111541914B (zh) 一种视频处理方法及存储介质
US11023736B2 (en) Methods and systems of spatiotemporal pattern recognition for video content development
CN111835986B (zh) 视频编辑处理方法、装置及电子设备
CN112449231B (zh) 多媒体文件素材的处理方法、装置、电子设备及存储介质
US20200406137A1 (en) Voice skill game editing method, apparatus, device and readable storage medium
CN111526242B (zh) 音频处理方法、装置和电子设备
CN110364146B (zh) 语音识别方法、装置、语音识别设备及存储介质
US20160004911A1 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
US20140136186A1 (en) Method and system for generating an alternative audible, visual and/or textual data based upon an original audible, visual and/or textual data
CN106331869B (zh) 一种基于视频的图片重编辑方法及装置
CN103258338A (zh) 利用真实数据来驱动仿真的虚拟环境的方法和系统
CN109710357B (zh) 一种基于Unity3D引擎实现服务器操作的方法及系统
KR20100054078A (ko) 스토리보드를 통한 애니메이션 저작 장치 및 그 방법
CN110874859A (zh) 一种生成动画的方法和设备
US10762130B2 (en) Method and system for creating combined media and user-defined audio selection
CN111667557B (zh) 动画制作方法及装置、存储介质、终端
CN112752121B (zh) 一种视频封面生成方法及装置
CN108900897A (zh) 一种多媒体数据处理方法、装置以及相关设备
JPWO2008136466A1 (ja) 動画編集装置
CN113207039B (zh) 视频处理方法、装置、电子设备及存储介质
JPWO2012093430A1 (ja) 興味区間抽出装置、興味区間抽出方法
CN113792646A (zh) 舞蹈动作辅助生成方法、装置及跳舞设备
CN113160361B (zh) 基于gim的模拟施工方法和装置、设备及存储介质
CN114332309A (zh) 一种电影生成方法及装置
CN114723398A (zh) 舞台创意编排方法、舞台创意编排装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40027430

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant