CN111914523B - 基于人工智能的多媒体处理方法、装置及电子设备 - Google Patents
基于人工智能的多媒体处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111914523B CN111914523B CN202010837810.8A CN202010837810A CN111914523B CN 111914523 B CN111914523 B CN 111914523B CN 202010837810 A CN202010837810 A CN 202010837810A CN 111914523 B CN111914523 B CN 111914523B
- Authority
- CN
- China
- Prior art keywords
- multimedia file
- template
- editing mode
- interaction
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 136
- 238000003672 processing method Methods 0.000 title claims abstract description 36
- 239000000463 material Substances 0.000 claims abstract description 532
- 230000002452 interceptive effect Effects 0.000 claims abstract description 166
- 230000003993 interaction Effects 0.000 claims abstract description 141
- 238000012545 processing Methods 0.000 claims abstract description 93
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000000694 effects Effects 0.000 claims description 122
- 238000012790 confirmation Methods 0.000 claims description 48
- 230000008569 process Effects 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 11
- 230000000737 periodic effect Effects 0.000 claims description 10
- 230000000875 corresponding effect Effects 0.000 description 91
- 238000012216 screening Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000002829 reductive effect Effects 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本申请提供了一种基于人工智能的多媒体处理方法、装置、电子设备及计算机可读存储介质;方法包括:响应于针对多媒体文件的编辑操作,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板;根据所述素材编辑模式在所述多媒体文件中识别所述素材,并对所识别的所述素材应用所述互动模板;呈现应用所述互动模板后的所述多媒体文件。通过本申请,能够对多媒体文件进行有效编辑,提升计算资源的利用率。
Description
技术领域
本申请涉及人工智能和多媒体技术,尤其涉及一种基于人工智能的多媒体处理方法、装置、电子设备及计算机可读存储介质。
背景技术
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。计算机视觉(Computer Vision,CV)技术是人工智能的一个重要分支,主要通过摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
多媒体编辑是计算机视觉的一个重要应用,在相关技术提供的方案中,通常是由用户选择素材编辑模式,再上传多媒体文件,由电子设备根据素材编辑模式对多媒体文件进行编辑。但是,用户上传的多媒体文件可能与素材编辑模式并不相符,导致电子设备对多媒体文件进行了无效的处理,浪费了较多的计算资源,多媒体编辑的智能程度低。
发明内容
本申请实施例提供一种基于人工智能的多媒体处理方法、装置、电子设备及计算机可读存储介质,能够节省计算资源,提升多媒体编辑的智能程度。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种基于人工智能的多媒体处理方法,包括:
响应于针对多媒体文件的编辑操作,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板;
根据所述素材编辑模式在所述多媒体文件中识别所述素材,并对所识别的所述素材应用所述互动模板;
呈现应用所述互动模板后的所述多媒体文件。
本申请实施例提供一种基于人工智能的多媒体处理装置,包括:
获取模块,用于响应于针对多媒体文件的编辑操作,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板;
应用模块,用于根据所述素材编辑模式在所述多媒体文件中识别所述素材,并对所识别的所述素材应用所述互动模板;
应用完成模块,用于呈现应用所述互动模板后的所述多媒体文件。
本申请实施例提供一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的基于人工智能的多媒体处理方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的基于人工智能的多媒体处理方法。
本申请实施例具有以下有益效果:
根据多媒体文件中所包括的素材的类型,获取对应的素材编辑模式及互动模板,并通过获取到的素材编辑模式识别多媒体文件中的素材,对所识别的素材应用互动模板,如此,能够提升对多媒体文件进行编辑的成功率,降低多媒体文件的选择门槛,提升计算资源的利用率。
附图说明
图1是本申请实施例提供的基于人工智能的多媒体处理系统的一个可选的架构示意图;
图2是本申请实施例提供的终端设备的一个可选的架构示意图;
图3A是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图;
图3B是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图;
图3C是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图;
图3D是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图;
图3E是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图;
图4是本申请实施例提供的创意玩法模板的一个可选的示意图;
图5是本申请实施例提供的选择多媒体文件的一个可选的示意图;
图6是本申请实施例提供的应用创意玩法模板后的多媒体文件的一个可选的示意图;
图7是本申请实施例提供的应用创意玩法模板后的多媒体文件的一个可选的示意图;
图8是本申请实施例提供的确认提示的一个可选的示意图;
图9是本申请实施例提供的素材编辑能力的一个可选的示意图;
图10是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。在以下的描述中,所涉及的术语“多个”是指至少两个。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)多媒体文件:指包含至少一种媒体形式的文件,例如,多媒体文件可以是图片、音频及视频中的任意一种。
2)素材:指预先设定好的识别对象,例如素材的类型可以为人脸、猫、狗或天空等。
3)素材编辑模式:用于在多媒体文件中识别素材,素材编辑模式包括素材编辑能力,即用于识别素材的能力,例如人脸识别能力或天空识别能力等。
4)互动模板:包括互动效果,用于应用至多媒体文件中,以形成基于素材的互动效果。本申请实施例对互动效果的具体表示形式不做限定,例如可以是视频、图片、音频、动画、特效或变速效果等。
5)人工智能模型:基于人工智能原理构建的模型,本申请实施例对人工智能模型的类型不做限定,例如人工智能模型可以是神经网络模型。
6)虚拟现实(Virtual Reality,VR):利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合,使其转化为能够让人们感受到的模拟环境。利用虚拟现实技术创建的效果即为虚拟现实效果。
7)增强现实(Augmented Reality,AR):将计算机生成的文字、图像、三维模型、音乐或视频等虚拟信息模拟仿真后,应用到真实世界中,虚拟信息和真实世界中的信息互为补充,从而实现对真实世界的增强。利用增强现实技术创建的效果即为增强现实效果。
8)数据库(Database):以一定方式储存在一起、能与多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合,用户可以对数据库中的数据执行新增、查询、更新及删除等操作。
本申请实施例提供一种基于人工智能的多媒体处理方法、装置、电子设备和计算机可读存储介质,能够对多媒体文件进行有效编辑,提升计算资源的利用率。下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施为笔记本电脑,平板电脑,台式计算机,机顶盒,移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)等各种类型的终端设备,也可以实施为服务器。电子设备通过运行本申请实施例提供的多媒体处理方案,能够对多媒体文件进行有效编辑,提升计算资源的利用率,即提高电子设备自身的编辑性能,适用于多种编辑场景。
参见图1,图1是本申请实施例提供的基于人工智能的多媒体处理系统100的一个可选的架构示意图,终端设备400通过网络300连接服务器200,服务器200连接数据库500,其中,网络300可以是广域网或者局域网,又或者是二者的组合。
在一些实施例中,以电子设备是终端设备为例,本申请实施例提供的基于人工智能的多媒体处理方法可以由终端设备实现。例如,终端设备400在接收到针对某个多媒体文件的编辑操作时,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板,根据素材编辑模式在多媒体文件中识别素材,并对所识别的素材应用互动模板。最终,终端设备400将应用互动模板后的多媒体文件呈现于图形界面410中。其中,素材编辑模式及互动模板可以预先存储在终端设备400本地,也可以是终端设备400向外界(如数据库500)获取得到的,多媒体文件同理。
在一些实施例中,以电子设备是服务器为例,本申请实施例提供的基于人工智能的多媒体处理方法也可以由服务器和终端设备协同实现。例如,服务器200在接收到终端设备400发送的、针对多媒体文件的编辑操作时,从数据库500中获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板。
然后,服务器200可以根据素材编辑模式在多媒体文件中识别素材,对所识别的素材应用互动模板,并将应用互动模板的多媒体文件发送至终端设备400,以使终端设备400将其呈现于图形界面410中。或者,服务器200也可以将素材编辑模式和互动模板发送至终端设备400,以使终端设备400在本地根据素材编辑模式识别多媒体文件中的素材,并对识别的素材应用互动模板,其中,可以预先将多个类型对应的素材编辑模式及互动模板部署在终端设备400本地,如此,服务器200仅发送素材编辑模式和互动模板的标识或编号,终端设备400便可在本地调用相应的素材编辑模式和互动模板进行编辑,能够减少通信资源的消耗。值得说明的是,本申请实施例对素材编辑模式及互动模板的存储位置不做限定,并不限于数据库500,例如还可以是服务器200的分布式文件系统或者区块链等位置。
终端设备400用于在图形界面410中,显示多媒体处理过程中的各种结果和最终结果。在图1中,示例性地示出了待编辑的多媒体文件411、针对多媒体文件411的编辑选项、以及应用互动模板后的多媒体文件412。其中,当针对多媒体文件411的编辑选项被触发时,确定接收到针对多媒体文件411的编辑操作;应用的互动模板包括用于替换的人脸,即多媒体文件412是通过对多媒体文件411进行人脸替换得到的。
在一些实施例中,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器,其中,云服务可以是多媒体编辑服务,供终端设备400进行调用,以对终端设备400发送的多媒体文件进行编辑,最终将应用互动模板后的多媒体文件发送至终端设备400。终端设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱及智能手表等,但并不局限于此。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
以本申请实施例提供的电子设备是终端设备为例说明,可以理解的,对于电子设备是服务器的情况,图2中示出的结构中的部分(例如用户接口、呈现模块和输入处理模块)可以缺省。参见图2,图2是本申请实施例提供的终端设备400的结构示意图,图2所示的终端设备400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。终端400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他计算设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的装置可以采用软件方式实现,图2示出了存储在存储器450中的基于人工智能的多媒体处理装置455,其可以是程序和插件等形式的软件,包括以下软件模块:获取模块4551、应用模块4552及应用完成模块4553,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在另一些实施例中,本申请实施例提供的装置可以采用硬件方式实现,作为示例,本申请实施例提供的基于人工智能的多媒体处理装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的基于人工智能的多媒体处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(ASIC,ApplicationSpecific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable LogicDevice)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或其他电子元件。
将结合本申请实施例提供的电子设备的示例性应用和实施,说明本申请实施例提供的基于人工智能的多媒体处理方法。
参见图3A,图3A是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图,将结合图3A示出的步骤进行说明。
在步骤101中,响应于针对多媒体文件的编辑操作,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板。
这里,多媒体文件可以是预先存储于电子设备本地的,也可以是电子设备从外界(如互联网)中获取到的,还可以是电子设备实时采集的,例如通过电子设备的摄像头和/或麦克风实时采集到的。电子设备可以在图形界面呈现针对多媒体文件的编辑选项,当检测到该编辑选项被触发时,确定接收到针对多媒体文件的编辑操作,其中,本申请实施例对触发操作的形式不做限定,例如可以是点击操作或长按操作等。
电子设备响应于针对多媒体文件的编辑操作,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板,其中,多媒体文件中所包括的素材的类型可以是直接获取到的,例如由用户输入,也可以是对多媒体文件进行素材识别处理得到的。举例来说,预先设定人脸类型对应的素材编辑模式包括人脸识别能力(如通过人脸识别模型来实现人脸识别能力),对应的互动模板包括人脸特效,例如对人脸中的五官进行装饰的特效;天空类型对应的素材编辑模式包括天空识别能力,对应的互动模板包括用于替换天空的图片。如此,能够将素材编辑模式及互动模板进行组件化,降低两者之间的耦合度,对于素材编辑模式及互动模板的创建过程来说,也可以提升其自由度。
值得说明的是,多媒体文件中所包括的素材的类型可能包括多种,例如在一张图片中同时包括人脸和天空,故在步骤101中可能获取到多个素材编辑模式及多个互动模板。另外,获取到的素材编辑模式及互动模板可以是预先存储至电子设备本地的,也可以是电子设备根据多媒体文件中所包括的素材的类型,从外界(如数据库、分布式文件系统或区块链等)查询得到的,后一种方式能够减少电子设备的存储资源占用。
在一些实施例中,可以通过这样的方式来实现上述的获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板:在与多个类型分别对应的候选素材编辑模式中,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式,并获取与素材编辑模式对应的至少一个互动模板。
在本申请实施例中,针对素材的多个类型,可以分别设定对应的素材编辑模式,并设定与每一个素材编辑模式对应的至少一个互动模板。例如,设定人脸类型对应包括人脸识别能力的素材编辑模式,该素材编辑模式对应互动模板A和互动模板B,互动模板A和B中包括不同样式的人脸特效;设定天空类型对应包括天空识别能力的素材编辑模式,该素材编辑模式对应互动模板C和互动模板D,其中,互动模板C包括用于替换天空的星空图片,互动模板D包括用于替换天空的瀑布图片。如此,在得到多媒体文件中所包括的素材的类型后,在多个素材编辑模式中获取与该类型对应的素材编辑模式,并进一步获取与该素材编辑模式对应的至少一个互动模板。通过上述方式,能够提升获取操作的有序化,便于建立对应关系。
在步骤102中,根据素材编辑模式在多媒体文件中识别素材,并对所识别的素材应用互动模板。
这里,根据获取到的素材编辑模式,在多媒体文件中识别素材,并对所识别的素材应用获取到的互动模板。例如,在所识别的素材的基础上,添加互动模板中的特效;又例如,将所识别的素材替换为互动模板中的图片,互动模板的应用方式并不限于此,可根据实际应用场景进行设定。
在一些实施例中,根据素材编辑模式在多媒体文件中识别素材之后,还包括:呈现与所识别的素材对应的确认提示;其中,确认提示包括所识别的素材的类型、在多媒体文件中的位置信息、以及应用互动模板后得到的预览结果中的至少一种;可以通过这样的方式来实现上述的对所识别的素材应用互动模板:响应于针对确认提示的确认操作,对所识别的素材应用互动模板。
在识别出多媒体文件中的素材后,可以在电子设备的图形界面中呈现与所识别的素材对应的确认提示。在本申请实施例中,确认提示可以包括所识别的素材的类型、素材在多媒体文件中的位置信息、以及应用互动模板后得到的预览结果中的至少一种,根据实际应用场景的不同,确认提示可以包括更多或更少的内容。
其中,素材在多媒体文件中的位置信息可以是时间位置信息,也可以是素材在一个视频帧或一张图片中的区域位置信息,以多媒体文件为视频、素材的类型为人脸的情况进行举例,则位置信息可以是视频中包括人脸的视频帧所在的时间戳,也可以是在包括人脸的视频帧中,人脸所占的具体区域。另外,应用互动模板后得到的预览结果,可以是对多媒体文件中所识别的部分素材应用互动模板得到的,例如,对视频中包括人脸的任意一个视频帧(如第一个视频帧)应用互动模板,得到预览结果。
用户可以通过确认提示,快速、准确地判断是否应用互动模板。电子设备在接收到针对确认提示的确认操作时,对所识别的素材应用互动模板;在接收到针对确认提示的否认操作时,中止对多媒体文件的编辑。如此,通过人机交互的手段确定是否应用互动模板,能够减少计算资源的浪费。
当然,确认提示的作用并不限于此,例如,当获取的素材编辑模式包括违规内容识别能力时,可以呈现与所识别的素材对应的确认提示,该确认提示包括所识别的素材的类型(即违规内容)以及在多媒体文件中的位置信息,以用于提示多媒体文件中存在违规内容,其中,违规内容如水印。用户可以根据确认提示,手动地修改多媒体文件中的内容,或者,电子设备也可以在接收到针对确认提示的确认操作时,对所识别的素材应用互动模板,该互动模板用于屏蔽违规内容,例如包括用于覆盖违规内容的马赛克。
在一些实施例中,互动模板包括互动效果及互动效果的持续时长;可以通过这样的方式来实现上述的对所识别的素材应用互动模板:对所识别的素材应用互动模板中的互动效果,并保持应用的互动效果直至达到持续时长。
例如,多媒体文件为总长10秒的视频,视频中所包括的素材的类型为人脸,人脸在视频中的时间位置信息包括第3秒、第3.5秒、第4秒、第7秒、第7.5秒及第8秒,获取到的互动模板包括人脸特效的互动效果和1秒的持续时长,则在视频的第一个出现人脸的视频帧(第3秒的视频帧)中添加互动模板中的人脸特效,并保持添加的人脸特效不变直至时长达到1秒,在达到1秒后,再在下一个出现人脸的视频帧(第7秒的视频帧)中添加人脸特效,以此类推。如此,能够对应用的互动效果进行复用,节省频繁应用互动效果所带来的处理资源消耗。
又例如,多媒体文件为一张图片,图片中所包括的素材的类型为人脸,获取到的互动模板包括人脸特效的互动效果和5秒的持续时长,则在图片包括的人脸的基础上添加互动模板中的人脸特效,并保持添加的人脸特效不变直至时长达到5秒,以生成视频,该视频中的每一个视频帧均为添加有人脸特效的图片。如此,实现了互动效果的另一种复用。
值得说明的是,由于互动模板包括的互动效果本身支持组件化,故在创建互动模板时,能够复用已有的互动效果,提升创建互动模板的自由度和效率。
在一些实施例中,根据素材编辑模式在多媒体文件中识别素材之后,还包括:根据所识别的素材在多媒体文件中的位置信息,对多媒体文件进行裁剪处理。
同样地,这里的位置信息可以是时间位置信息,也可以是素材在一个视频帧或一张图片中的区域位置信息。若位置信息为时间位置信息,则可以根据素材的时间位置信息中第一个时间戳(即最早的时间戳)和最后一个时间戳(即最晚的时间戳),对多媒体文件进行裁剪处理,例如多媒体文件为总长30秒的视频,所识别的素材在多媒体文件中的时间位置信息包括第5秒、第7秒和第10秒,则裁剪出多媒体文件中第5秒至第10秒的部分。若位置信息为区域位置信息,则可以根据区域位置信息对多媒体文件直接进行裁剪处理,例如多媒体文件为一张图片,所识别的素材在该图片中的区域位置信息为左半部分,则裁剪出该图片的左半部分。
在裁剪完成后,可以对裁剪后的多媒体文件中所识别的素材,应用互动模板。通过上述方式,能够根据所识别的素材,裁剪出多媒体文件中最重要的部分,提升多媒体编辑的智能程度,适用于制作卡点视频等场景。
在步骤103中,呈现应用互动模板后的多媒体文件。
这里,可以在图形界面中呈现应用互动模板后的多媒体文件,例如,呈现应用互动模板后的图片,或者播放应用互动模板后的视频或音频。在此基础上,还可呈现手动编辑的选项,以便用户对应用互动模板后的多媒体文件进行手动编辑,例如对多媒体文件进行手动裁剪,又例如手动添加效果,如文字、贴纸、特效或音乐等。
如图3A所示,本申请实施例通过获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板,能够降低多媒体文件的选择门槛,提升多媒体编辑的成功率,提升计算资源的利用率。
在一些实施例中,参见图3B,图3B是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图,图3A示出的步骤102可以通过步骤201至步骤202实现,将结合各步骤进行说明。
在步骤201中,根据素材编辑模式在多媒体文件中识别素材。
在步骤202中,当所识别的素材满足素材编辑模式对应的素材互动条件时,对所识别的素材应用互动模板中的第一效果。
在本申请实施例中,互动模板用于形成基于素材的互动效果,互动效果包括第一效果和区别于第一效果的第二效果,第一效果包括增强现实效果和虚拟现实效果中的至少一个,或者,可以将直接应用于素材的效果作为第一效果,将第一效果之外的效果作为第二效果,无论其表现形式如何。在本申请实施例中,对互动模板中包括的第一效果及第二效果的数量不做限定。
根据获取到的素材编辑模式,在多媒体文件中识别素材之后,将所识别的素材与素材编辑模式对应的素材互动条件进行对比,其中,素材编辑模式对应的素材互动条件可以预先设定,例如,多媒体文件为图片,素材互动条件包括素材的面积占比阈值,则当素材在图片中的面积占比大于面积占比阈值时,确定素材满足素材互动条件。
当所识别的素材满足素材互动条件时,对所识别的素材应用第一效果。例如,当第一效果为人脸的动漫化特效时,将所识别的素材(即人脸)通过动漫化特效进行转换,得到动漫化人脸,以形成虚拟现实的感官效果;又例如,当第一效果为地摊特效时,可以在所识别的素材(例如地面)的区域,叠加呈现该地摊特效,以形成在真实世界中摆地摊的增强现实的感官效果。
在图3B中,在步骤201之后,还可以在步骤203中,当所识别的素材未满足素材互动条件时,获取互动模板中的第二效果对应的设定位置,并在多媒体文件中的设定位置,应用第二效果。
当所识别的素材未满足素材互动条件,例如素材的面积占比小于或等于面积占比阈值时,所识别的素材并不适于直接应用效果,故获取第二效果对应的设定位置,并在多媒体文件中的设定位置,应用互动模板中的第二效果。本申请实施例对设定位置不做限定,可根据实际应用场景进行具体设定。另外,第二效果的设定位置可包含于互动模板中,当然也可存储于其他位置。
举例来说,多媒体文件为图片,图片中所包括的素材的类型为人脸,获取到的互动模板包括的第二效果为“人脸即将出现”的文本,包括的设定位置为图片正中央,则当所识别的素材未满足素材互动条件时,在图片的正中央显示“人脸即将出现”的文本。
值得说明的是,当多媒体文件为视频时,可以以视频帧为单位,判断所识别的素材是否满足素材互动条件。当某个视频帧中所识别的素材满足素材互动条件时,对该视频帧中所识别的素材应用第一效果;当某个视频帧中所识别的素材未满足素材互动条件时,在该视频帧中的设定位置应用第二效果。
在一些实施例中,可以通过这样的方式来实现上述的根据素材编辑模式在多媒体文件中识别素材:当编辑场景为非实时场景时,根据素材编辑模式在待编辑的多媒体文件中识别素材,得到素材与多媒体文件的匹配程度,并当匹配程度大于素材编辑模式对应的第一素材互动条件中的匹配程度阈值时,确定所识别的素材满足第一素材互动条件;当编辑场景为实时场景时,对多媒体文件进行压缩处理,根据素材编辑模式在压缩后的多媒体文件中识别素材,得到素材与压缩后的多媒体文件的匹配程度,并当匹配程度大于素材编辑模式对应的第二素材互动条件中的匹配程度阈值时,确定所识别的素材满足第二素材互动条件;其中,第一素材互动条件中的匹配程度阈值大于第二素材互动条件中的匹配程度阈值。
在本申请实施例中,可将编辑场景区分为对实时性要求较低的非实时场景、以及对实时性要求较高的实时场景,例如,将多媒体文件为图片的场景确定为非实时场景,将多媒体文件为视频的场景确定为实时场景;又例如,将多媒体文件预先存储在电子设备本地的场景确定为非实时场景,将多媒体文件是实时采集或者实时从外界获取到的场景确定为实时场景。另外,针对每一个素材编辑模型,可以预先设定素材编辑模式适用于非实时场景的第一素材互动条件、以及适用于实时场景的第二素材互动条件,
当编辑场景为非实时场景时,根据获取到的素材编辑模式在待编辑的多媒体文件,即原始的多媒体文件中识别素材,得到素材与多媒体文件的匹配程度。然后,将得到的匹配程度、与素材编辑模式对应的第一素材互动条件中的匹配程度阈值进行对比,当匹配程度大于匹配程度阈值时,确定所识别的素材满足第一素材互动条件。例如,素材与多媒体文件的匹配程度,可以是素材在多媒体文件中的面积占比,匹配程度阈值可以是面积占比阈值。
当编辑场景为实时场景时,由于对编辑的实时性要求较高,故对多媒体文件进行压缩处理,根据素材编辑模式在压缩后的多媒体文件中识别素材,得到素材与压缩后的多媒体文件的匹配程度。其中,对多媒体文件进行压缩处理,可以是将多媒体文件的尺寸缩小至设定尺寸,设定尺寸可根据素材编辑模式的处理耗时和识别准确度进行权衡设置,不同素材编辑模式对应的设定尺寸可以不同。当得到的匹配程度、大于素材编辑模式对应的第二素材互动条件中的匹配程度阈值时,确定所识别的素材满足第二素材互动条件,其中,第一素材互动条件中的匹配程度阈值大于第二素材互动条件中的匹配程度阈值。通过压缩处理的方式,能够提升根据素材编辑模式识别素材的效率,满足实时性要求;同时,考虑到进行压缩处理后,识别素材时可能会出现准确度变低的情况,故设定第二素材互动条件中的匹配程度阈值小于第一素材互动条件中的匹配程度阈值,以符合压缩处理的特点。
如图3B所示,本申请实施例根据所识别的素材是否满足相应的素材互动条件,来应用不同的效果,提升了对不同识别情况的适用性。在多媒体文件为视频时,能够保证应用效果的连贯性和完整性。
在一些实施例中,参见图3C,图3C是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图,基于图3A,在步骤101之后,还可以在步骤301中,针对每个素材编辑模式,根据素材编辑模式在多媒体文件中识别得到候选素材,并当候选素材满足素材编辑模式对应的素材互动条件时,将素材编辑模式作为待应用的素材编辑模式。
当获取到的素材编辑模式的数量为多个时,可以对多个素材编辑模式进行筛选。例如,针对每个素材编辑模式,根据素材编辑模式在多媒体文件中识别,为了便于区分,将这里所识别的素材命名为候选素材。当根据某个素材编辑模式得到的候选素材,满足该素材编辑模式对应的素材互动条件时,将该素材编辑模式作为待应用的素材编辑模式。如此,能够实现素材编辑模式的智能选取,使得待应用的素材编辑模式能够与多媒体文件中的素材更为符合。
在图3C中,在步骤101之后,还可以在步骤302中,呈现多个素材编辑模式的预览识别过程,并响应于针对素材编辑模式的选择操作,将被选择的素材编辑模式作为待应用的素材编辑模式。
本申请实施例还提供了对多个素材编辑模式进行筛选的另一种方式,即在图形界面中呈现多个素材编辑模式的预览识别过程,并响应于针对素材编辑模式的选择操作,将被选择的素材编辑模式作为待应用的素材编辑模式。其中,可以呈现根据素材编辑模式对样本多媒体文件进行识别的预览识别过程,也可以呈现根据素材编辑模式对待编辑的多媒体文件进行识别的预览识别过程,对于样本多媒体文件或多媒体文件为视频的情况,可以呈现对其中的某个或某几个视频帧进行识别的预览识别过程。
预览识别过程可以包括识别前后的结果,以素材编辑模式包括人脸识别能力、且样本多媒体文件为样本图片的情况进行举例,则示出的预览识别过程可以包括原始的样本图片,以及包括有识别得到的人脸位置(例如以虚线的形式来突出人脸位置)的样本图片。除了呈现预览识别过程之外,在本申请实施例中,还可以示出与素材编辑模式相关的其他信息,例如呈现素材编辑模式的名称,如人脸识别模式及天空识别模式等。如此,通过人机交互的方式来筛选素材编辑模式,使得待应用的素材编辑模式能够更加符合用户的实际需求。根据实际应用场景的不同,可以应用步骤301及步骤302中的任意一个步骤,以筛选素材编辑模式。
除了上述两种方式外,还可以将多个素材编辑模式中的任意一个素材编辑模式(例如第一个素材编辑模式),作为待应用的素材编辑模式。在确定了待应用的素材编辑模式之后,还可以在图形界面中呈现其他的素材编辑模式,以供用户切换。
在图3C中,图3A示出的步骤102可更新为步骤303,在步骤303中,根据待应用的素材编辑模式,在多媒体文件中识别素材,并对所识别的素材应用互动模板。
在一些实施例中,可以通过这样的方式来实现上述的根据素材编辑模式在多媒体文件中识别得到候选素材:当多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,得到候选视频帧;根据素材编辑模式在候选视频帧中识别得到候选素材;可以通过这样的方式来实现上述的根据待应用的素材编辑模式,在多媒体文件中识别素材:根据待应用的素材编辑模式,在多媒体文件的每个视频帧中识别素材。
这里,当多媒体文件为视频时,可以对多媒体文件进行周期性的抽帧处理,例如抽帧频率为2秒1次,最终得到多个候选视频帧。然后,根据素材编辑模式在候选视频帧中识别得到候选素材,如此,可以在筛选素材编辑模式时减轻处理压力,提升实时性。在此基础上,在当得到的多个候选视频帧所占的存储空间大于存储空间阈值时,可以对多个候选视频帧进行压缩处理,再根据素材编辑模式在压缩后的候选视频帧中进行识别,从而进一步提升实时性。
值得说明的是,在得到候选素材后,可以设定当所有候选视频帧中的候选素材均满足素材编辑模式对应的素材互动条件时,将该素材编辑模式作为待应用的素材编辑模式;也可以设定当设定数量或设定比例的候选视频帧中的候选素材满足素材编辑模式对应的素材互动条件时,将该素材编辑模式作为待应用的素材编辑模式。
筛选出待应用的素材编辑模式后,由于多媒体文件为视频,故根据待应用的素材编辑模式,在多媒体文件的每个视频帧中识别素材。同样地,这里也可以对多媒体文件的每个视频帧进行压缩处理,再在压缩后的每个视频帧中识别素材,以满足实时性要求。通过上述方式,在多媒体文件为视频时,能够降低筛选素材编辑模式时的处理压力,从而能够快速地确定出待应用的素材编辑模式。
如图3C所示,在获取到的素材编辑模式的数量为多个的情况下,本申请实施例提供了智能选取和人机交互选取的两种筛选方式,提升了筛选的灵活性和准确性。
在一些实施例中,参见图3D,图3D是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图,图3A示出的步骤102可通过步骤401至步骤404实现。
在步骤401中,根据素材编辑模式在多媒体文件中识别素材。
在步骤402中,当所识别的素材满足任一互动模板对应的素材互动条件时,将满足的素材互动条件对应的互动模板,作为待应用的互动模板。
这里,当获取到的互动模板的数量为多个时,可以对多个互动模板进行筛选。例如,获取每一个互动模板对应的素材互动条件,当根据素材编辑模式识别出的素材满足任一互动模板对应的素材互动条件时,将满足的素材互动条件对应的互动模板,作为待应用的互动模板。
举例来说,某一个素材的类型对应的互动模板包括第一互动模板和第二互动模板,第一互动模板同时包括有第一效果和第二效果,第二互动模板仅包括有第二效果,且第一互动模板和第二互动模板对应的素材互动条件不同。若多媒体文件中所识别的素材满足第一互动模板对应的素材互动条件,则将第一互动模板作为待应用的互动模板。在此基础上,若第一互动模板的数量为多个,且多个第一互动模板对应相同的素材互动条件,则可以得到多个待应用的互动模板,针对该情况,可以应用多个第一互动模板中的任意一个,并在图形界面中呈现其他的第一互动模板,以供用户切换。该方式同样适用于其他的待应用的互动模板的数量为多个的情况。
值得说明的是,当多媒体文件为视频时,步骤402中用于与素材互动条件进行对比的素材,可以是多媒体文件的候选视频帧(通过周期性的抽帧处理得到)中所识别的素材,如此,能够提升筛选互动模板的效率。
在步骤403中,呈现多个互动模板的预览应用过程,并响应于针对互动模板的选择操作,将被选择的互动模板作为待应用的互动模板。
除了步骤402示出的方式外,在本申请实施例中,还可以呈现多个互动模板的预览应用过程,并响应于针对互动模板的选择操作,将被选择的互动模板作为待应用的互动模板。其中,可以呈现在样本多媒体文件中应用互动模板的预览应用过程,也可以呈现在待编辑的多媒体文件中应用互动模板的预览应用过程,对于样本多媒体文件或多媒体文件为视频的情况,可以呈现对其中的某个或某几个视频帧的预览应用过程。预览应用过程可以包括应用前后的结果,以互动模板包括星空图片、且样本多媒体文件为包括人脸和背景的样本图片的情况进行举例,则示出的预览应用过程可以包括原始的样本图片,以及将背景替换为星空图片的样本图片。除了呈现预览应用过程之外,在本申请实施例中,还可以示出与互动模板相关的其他信息,例如呈现互动模板的名称,如星空背景模板及人脸特效模板等。根据实际应用场景的不同,可以应用步骤402及步骤403中的任意一个步骤,以筛选互动模板。
除了上述两种方式外,还可以直接将多个互动模板中的任意一个互动模板(例如第一个互动模板),作为待应用的互动模板。在确定了待应用的互动模板之后,可以在图形界面中呈现其他的互动模板,以供用户切换。
在步骤404中,将待应用的互动模板,应用至所识别的素材。
如图3D所示,在获取到的互动模板的数量为多个的情况下,本申请实施例同样提供了智能选取和人机交互选取的两种筛选方式,提升了筛选的灵活性和准确性。
在一些实施例中,参见图3E,图3E是本申请实施例提供的基于人工智能的多媒体处理方法的一个可选的流程示意图,图3A示出的步骤101可通过步骤501至步骤503实现,将结合各个步骤进行说明。
在步骤501中,响应于针对多媒体文件的编辑操作,当多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,得到候选视频帧。
这里,当待编辑的多媒体文件为视频时,为了保证多媒体编辑的实时性,根据设定的抽帧频率对多媒体文件进行抽帧处理,得到多个候选视频帧。
在步骤502中,对候选视频帧进行素材识别处理,得到多媒体文件中所包括的素材的类型。
这里,对候选视频帧进行素材识别处理,即进行多分类处理,得到多媒体文件中所包括的素材的类型。
在一些实施例中,步骤502之前,还包括:当多个候选视频帧所占的存储空间大于存储空间阈值时,对多个候选视频帧进行压缩处理;可以通过这样的方式实现上述的对候选视频帧进行素材识别处理,得到多媒体文件中所包括的素材的类型:对压缩后的多个候选视频帧分别进行素材识别处理,得到每个候选视频帧所包括的素材的类型,并将多个候选视频帧中占比最大的素材的类型,作为多媒体文件中所包括的、用于获取对应的素材编辑模式的素材的类型;其中,占比包括素材的面积占比及数量占比中的任意一种。
在抽帧得到多个候选视频帧后,若多个候选视频帧所占的存储空间大于设定的存储空间阈值,则为了保证实时性,可以对多个候选视频帧进行压缩处理,压缩处理时的设定尺寸可以根据实际应用场景进行具体设定。然后,对压缩后的多个候选视频帧分别进行素材识别处理,得到每个候选视频帧所包括的素材的类型,若多个候选视频帧中包括不同的类型,则可以筛选出一个类型,以作为获取对应的素材编辑模式的类型。
本申请实施例提供了筛选类型的两种方式,第一种方式是,筛选出多个候选视频帧中面积占比最大的素材的类型,例如抽帧处理得到的候选视频帧包括视频帧1、视频帧2和视频帧3,视频帧1中人脸和天空的面积占比各是80%和20%,视频帧2中人脸和天空的面积占比各是70%和30%,视频帧3中人脸和天空的面积占比各是75%和25%,则可以计算出人脸的平均面积占比为75%,天空的平均面积占比为25%,则将平均面积占比更大的人脸,作为筛选出的类型。该方式同样适用于多媒体文件为图片的情况。
第二种方式是,筛选出多个候选视频帧中数量占比最大的素材的类型,例如抽帧处理得到的候选视频帧包括视频帧1、视频帧2和视频帧3,视频帧1和视频帧2中均仅包括人脸,视频帧3中同时包括人脸和天空,则可得到人脸在多个候选视频帧中的数量占比为100%,天空的数量占比为1/3,故将数量占比更大的人脸,作为筛选出的类型。通过上述方式对素材的类型进行了有效筛选。
在本申请实施例中,也可以不进行类型筛选,直接根据每个候选视频帧所包括的素材的类型,获取对应的素材编辑模式及互动模板。若获取到的素材编辑模式或者互动模板的数量为多个,则再进行筛选。
在一些实施例中,步骤502之前,还包括:获取多个样本多媒体文件;通过人工智能模型,对样本多媒体文件进行素材识别处理,得到样本多媒体文件所包括的素材的类型;根据素材识别处理得到的类型与实际类型之间的差异,更新人工智能模型的权重参数;其中,更新后的人工智能模型用于对候选视频帧进行素材识别处理。
在本申请实施例中,可以通过人工智能模型来实现素材识别处理,该人工智能模型为多分类模型。首先,对人工智能模型进行训练,例如,获取多个样本多媒体文件、以及每个样本多媒体文件中所包括的素材的实际类型,并通过人工智能模型,对样本多媒体文件进行素材识别处理,得到样本多媒体文件所包括的素材的类型。其中,若样本多媒体文件为图片,则通过人工智能模型,直接对样本多媒体文件进行素材识别处理;若样本多媒体文件为视频,则通过人工智能模型,对样本多媒体文件中的视频帧(如通过周期性的抽帧处理得到)进行素材识别处理。
然后,根据人工智能模型的损失函数,确定素材识别处理得到的类型与实际类型之间的差异,该差异即为损失值。根据确定出的差异在人工智能模型中进行反向传播,并在反向传播的过程中,沿梯度下降方向更新人工智能模型的权重参数。在完成对人工智能模型的权重参数的更新后,即可将更新后的人工智能模型用于步骤502,以对多媒体文件中的候选视频帧进行素材识别处理。此外,当待编辑的多媒体文件为图片时,同样可以根据更新后的人工智能模型进行素材识别处理。通过上述的模型训练的方式,能够提升素材识别处理的精度。
在步骤503中,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板。
如图3E所示,本申请实施例在多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,并对抽出的视频帧进行素材识别处理,能够快速、准确地得到多媒体文件中所包括素材的类型。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。本申请实施例提供的基于人工智能的多媒体处理方法可以由终端设备和服务器协同实现,例如,终端设备中安装有用于进行多媒体编辑的软件客户端,通过与服务器交互从而实现智能编辑。这里,可以将AI/AR能力(对应上文的素材编辑能力)及能力之上的创意玩法模板(对应上文的互动模板)进行组件化,根据用户在客户端中所选取的多媒体文件中所包括的素材的类型,云端智能匹配合适的AI/AR能力,再将该AI/AR能力对应的创意玩法模板应用于多媒体文件中,实现对多媒体文件的智能编辑。
本申请实施例提供了如图4所示的创建创意玩法模板的示意图,在图4中,针对每个AI/AR能力,根据其对应的处理结果(对应上文的匹配程度)和匹配因子阈值(对应上文的匹配程度阈值),创建至少一个创意玩法模板,例如,针对人脸识别能力来说,其对应的处理结果为识别出的人脸的面积占比,匹配因子阈值为人脸的面积占比阈值,如为50%。在本申请实施例中,创意玩法模板支持组件化的效果,因此在创建创意玩法模板时,可以复用已有的效果,从而提升创建创意玩法模板的自由度和效率。另外,针对匹配程度小于或等于匹配因子阈值、或者AI/AR能力处理异常的情况,在创建创意玩法模板时,可以在其中多预埋一路异常处理效果,保证应用创意玩法模板时,创意表达的连贯性和完整性。为了便于说明,将根据AI/AR能力的处理结果进行应用的效果命名为AI/AR效果(对应上文的第一效果),将异常处理效果命名为非AI/AR效果(对应上文的第二效果),举例来说,AI效果可以为魔法挂件、人脸特效、用于替换背景的图片或音乐卡点组件等,AR效果可以为摆地摊效果或虚拟动画人物效果等。
本申请实施例提供了如图5所示的选择多媒体文件的示意图,在图5中,示出了存储于客户端本地的多个多媒体文件,例如示出的多媒体文件51,多媒体文件的形式包括但不限于视频和图片。用户可通过触发图5中的编辑选项52,来选择多媒体文件进行智能编辑,或者,也可通过触发拍摄选项53,从而进行实时拍摄得到待编辑的多媒体文件。
本申请实施例提供了如图6所示的应用创意玩法模板后的多媒体文件的示意图,在图6中,应用的AI/AR能力是背景识别能力,对应的创意玩法模板包括如背景612所示的AI/AR效果,在应用该创意玩法模板时,将多媒体文件61中除人体611之外的背景(如天空),替换为创意玩法模板中的背景612。在呈现替换背景后的多媒体文件61时,还可呈现手动编辑选项62,用户可通过触发手动编辑选项62,对多媒体文件61进行手动编辑,例如切换应用的创意玩法模板、添加或切换背景音乐、进行手动剪辑、添加额外的效果(如文字、贴纸或特效)等。用户在对多媒体文件61满意时,可通过触发完成选项63,来完成编辑,客户端可以将完成编辑的多媒体文件61存储至本地,或者发送至社交网络以进行分享,本申请实施例对此不做限定。
本申请实施例还提供了如图7所示的应用创意玩法模板后的多媒体文件的示意图,在图7中,多媒体文件71为实时拍摄得到的,其中的背景为工位,应用的AR能力是对工位进行识别的AR能力,应用的创意玩法模板包括效果711,如此,实现了在工位上摆地摊的增强现实的感官效果。此外,还呈现了对多媒体文件71的手动编辑选项72,具体包括翻转、滤镜及美颜等选项,还提供了添加魔法效果和添加音乐的选项。
本申请实施例还提供了如图8所示的确认提示的示意图,在图8中,用户在发布多媒体文件81,例如将多媒体文件81分享至社交网络时,客户端根据用于检测水印的AI/AR能力,识别出多媒体文件81中存在“@账号xx”的水印,并输出确认提示82以提醒用户。在此基础上,还可以将包括屏蔽水印的效果的创意玩法模板应用至多媒体文件81,以屏蔽多媒体文件81中的水印。在图6、图7及图8中,仅示出了集成单个AI/AR效果的创意玩法模板,但在实际应用场景中,一个创意玩法模板中也可包括多个AI/AR效果,本申请实施例对此不做限定。
本申请实施例对AI/AR能力的类型不做限定,如图9所示,示出了多种AI/AR能力,例如智能剪辑(图9中的能力91)、智能滤镜、风格化滤镜及人脸融合等。当然,这并不构成对本申请实施例的限定,根据实际应用场景的不同,可以应用更多的AI/AR能力,如性别转换及人脸颜值预测等。
对于智能编辑的底层实现,本申请实施例提供了如图10所示的流程示意图,为了便于理解,以三个阶段进行说明。
1)第一阶段:云端能力智能匹配。
客户端在获取到待编辑的多媒体文件后,若多媒体文件为图片,则直接将其发送至服务器(即云端);若多媒体文件为视频,则按照设定的抽帧频率进行抽帧处理,将得到的多个候选视频帧发送至服务器进行能力匹配,其中,为了性能和质量的权衡,可以根据得到的多个候选视频帧的数据量(对应上文的所占的存储空间)大小,判断是否进行压缩处理。
服务器在接收到客户端发送的多个候选视频帧后,通过部署在云端的多个AI/AR能力进行并发匹配,根据匹配结果下发合适的AI/AR能力、以及对应的创意玩法模板至客户端。例如,这里可以通过人工智能模型,识别出多个候选视频帧中所包括素材的类型,若识别出人脸,则下发人脸识别的AI/AR能力以及对应的创意玩法模板;若识别出天空,则下发天空识别(一键换天)的AI/AR能力以及对应的创意玩法模板。值得说明的是,多个AI/AR能力以及每个AI/AR能力对应的创意玩法模板,可以同步部署在客户端本地,在该情况下,服务器下发AI/AR能力及创意玩法模板的标识或编号即可,如此,能够减少通信资源的消耗。另外,在未匹配到合适的AI/AR能力时,可以直接结束编辑。
2)第二阶段:应用场景差异化处理。这里,将多媒体文件为图片的场景确定为非实时场景,将多媒体文件为视频的场景确定为实时场景。
针对非实时场景,由于实时性没有要求或者要求较低,故可以根据AI/AR能力对原始的图片进行处理,以达到更高的能力处理准确度。此外,由于图片内容是静态不变的,即使业务上在图片中添加了时间属性或其他属性,也可以对应用的创意玩法模板进行复用。例如,若需要根据图片生成视频、且已在图片中应用了创意玩法模板,则持续应用该创意玩法模板,直至达到设定的持续时长(如10秒)即可。
针对实时场景,为了达到较高的实时性要求,可以对原始的视频进行压缩处理,即是将视频画面的同比例缩小至设定尺寸,该设定尺寸可以综合AI/AR能力自身的处理耗时和处理结果的准确度进行设置。
3)第三阶段:本地二次匹配及模板渲染。客户端在获取到服务器下发的AI/AR能力后,根据该AI/AR能力对多媒体文件进行识别处理,得到处理结果,其中,当多媒体文件为视频时,这里可以对多个候选视频帧进行识别处理。然后,将得到的处理结果与AI/AR能力对应的匹配因子阈值进行对比,并根据对比结果确定最终应用的创意玩法模板。其中,由于在实时场景下对视频帧进行了压缩处理,故对于同一AI/AR能力来说,在实时场景下设定的匹配因子阈值可以小于在非实时场景下设定的匹配因子阈值。
举例来说,多媒体文件为图片,服务器下发了天空识别的能力、以及与该能力对应的AI/AR模板和非AI/AR模板,其中,非AI/AR模板仅包括非AI/AR效果,AI/AR模板可以仅包括AI/AR效果,也可同时包括AI/AR效果和非AI/AR效果。以天空识别的能力对应的匹配因子阈值,在非实时场景下为70%举例,客户端根据天空识别的能力对图片进行识别处理后,若得到图片中天空的面积占比大于匹配因子阈值,如面积占比为80%,则应用AI/AR模板中的AI/AR效果;若得到图片中天空的面积占比小于或等于匹配因子阈值,如面积占比为40%,则应用非AI/AR模板中的非AI/AR效果。
以上述例子为基础,并以多媒体文件为视频、且天空识别的能力对应的匹配因子阈值在实时场景下为60%进行举例。客户端根据天空识别的能力对视频中的多个候选视频帧进行识别处理后,若得到多个候选视频帧中天空的平均面积占比大于匹配因子阈值,如平均面积占比为80%,则应用AI/AR模板;若得到多个候选视频帧中天空的平均面积占比小于或等于匹配因子阈值,如平均面积占比为40%,则应用非AI/AR模板中的非AI/AR效果。
值得说明的是,服务器下发的、与天空识别的能力对应的AI/AR模板的数量可能为多个(多个AI/AR模板可以对应同一个匹配因子阈值),在该情况下,若确定出应用AI/AR模板,则可以默认应用下发的第一个AI/AR模板,或者,呈现多个AI/AR模板以供用户选择应用。在已应用某个AI/AR模板的基础上,可以呈现其他的AI/AR模板,以供用户切换。
若应用的AI/AR模板同时包括AI/AR效果和非AI/AR效果,则在应用该AI/AR模板的过程中,还可以进行实时判定,即针对视频中的每个视频帧,若视频帧中天空的面积占比小于或等于匹配因子阈值,则应用该AI/AR模板中的非AI/AR效果;若视频帧中天空的面积占比大于匹配因子阈值,则应用该AI/AR模板中的AI/AR效果。
在确定了最终应用的效果之后,可以通过模板渲染引擎,来渲染相应的效果。例如,最终应用的效果为用于替换视频帧中天空背景的星空图片,则通过模板渲染引擎渲染该效果,以将视频帧中的背景更新为星空图片。
通过本申请实施例,能够实现以下技术效果:1)将能力本身与能力之上的玩法进行分离,解决了设计侧在玩法创作上的局限性,提升创意玩法模板产出的自由度和效率;2)通过智能匹配,得到符合多媒体文件的能力,降低了选择多媒体文件的门槛,提升了编辑的成功率;3)能够覆盖实时场景和非实时场景,让用户能够体验更多的AI/AR能力之上的创意玩法;4)能力和玩法组件化,实现了效果的自由组合,极大地缩短创意玩法模板上线的周期,同时做到了创意玩法模板迭代和客户端版本迭代的分离。
下面继续说明本申请实施例提供的基于人工智能的多媒体处理装置455实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器450的基于人工智能的多媒体处理装置455中的软件模块可以包括:获取模块4551,用于响应于针对多媒体文件的编辑操作,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板;应用模块4552,用于根据素材编辑模式在多媒体文件中识别素材,并对所识别的素材应用互动模板;应用完成模块4553,用于呈现应用互动模板后的多媒体文件。
在一些实施例中,互动模板用于形成基于素材的互动效果;互动效果包括第一效果和区别于第一效果的第二效果,第一效果包括增强现实效果和虚拟现实效果中的至少一个;应用模块4552,还用于:当所识别的素材满足素材编辑模式对应的素材互动条件时,对所识别的素材应用互动模板中的第一效果;基于人工智能的多媒体处理装置455还包括:设定位置应用模块,用于当所识别的素材未满足素材互动条件时,获取互动模板中的第二效果对应的设定位置,并在多媒体文件中的设定位置,应用第二效果。
在一些实施例中,应用模块4552,还用于:当编辑场景为非实时场景时,根据素材编辑模式在待编辑的多媒体文件中识别素材,得到素材与多媒体文件的匹配程度,并当匹配程度大于素材编辑模式对应的第一素材互动条件中的匹配程度阈值时,确定所识别的素材满足第一素材互动条件;当编辑场景为实时场景时,对多媒体文件进行压缩处理,根据素材编辑模式在压缩后的多媒体文件中识别素材,得到素材与压缩后的多媒体文件的匹配程度,并当匹配程度大于素材编辑模式对应的第二素材互动条件中的匹配程度阈值时,确定所识别的素材满足第二素材互动条件;其中,第一素材互动条件中的匹配程度阈值大于第二素材互动条件中的匹配程度阈值。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:模式筛选模块,用于当素材编辑模式的数量为多个时,执行以下任意一种处理:针对每个素材编辑模式,根据素材编辑模式在多媒体文件中识别得到候选素材,并当候选素材满足素材编辑模式对应的素材互动条件时,将素材编辑模式作为待应用的素材编辑模式;呈现多个素材编辑模式的预览识别过程,并响应于针对素材编辑模式的选择操作,将被选择的素材编辑模式作为待应用的素材编辑模式;其中,待应用的素材编辑模式用于在多媒体文件中识别素材。
在一些实施例中,模式筛选模块还用于:当多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,得到候选视频帧;根据素材编辑模式在候选视频帧中识别得到候选素材;应用模块4552,还用于:根据待应用的素材编辑模式,在多媒体文件的每个视频帧中识别素材。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:模板筛选模块,用于当互动模板的数量为多个时,执行以下任意一种处理:当所识别的素材满足任一互动模板对应的素材互动条件时,将满足的素材互动条件对应的互动模板,作为待应用的互动模板;呈现多个互动模板的预览应用过程,并响应于针对互动模板的选择操作,将被选择的互动模板作为待应用的互动模板。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:抽帧模块,用于当多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,得到候选视频帧;素材识别模块,用于对候选视频帧进行素材识别处理,得到多媒体文件中所包括的素材的类型。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:压缩模块,用于当多个候选视频帧所占的存储空间大于存储空间阈值时,对多个候选视频帧进行压缩处理;素材识别模块,还用于:对压缩后的多个候选视频帧分别进行素材识别处理,得到每个候选视频帧所包括的素材的类型,并将多个候选视频帧中占比最大的素材的类型,作为多媒体文件中所包括的、用于获取对应的素材编辑模式的素材的类型;其中,占比包括素材的面积占比及数量占比中的任意一种。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:样本获取模块,用于获取多个样本多媒体文件;样本识别模块,用于通过人工智能模型,对样本多媒体文件进行素材识别处理,得到样本多媒体文件所包括的素材的类型;更新模块,用于根据素材识别处理得到的类型与实际类型之间的差异,更新人工智能模型的权重参数;其中,更新后的人工智能模型用于对候选视频帧进行素材识别处理。
在一些实施例中,获取模块4551,还用于:在与多个类型分别对应的候选素材编辑模式中,获取与多媒体文件中所包括的素材的类型对应的素材编辑模式,并获取与素材编辑模式对应的至少一个互动模板。
在一些实施例中,基于人工智能的多媒体处理装置455还包括:提示呈现模块,用于呈现与所识别的素材对应的确认提示;其中,确认提示包括所识别的素材的类型、在多媒体文件中的位置信息、以及应用互动模板后得到的预览结果中的至少一种;应用模块4552,还用于:响应于针对确认提示的确认操作,对所识别的素材应用互动模板。
在一些实施例中,互动模板包括互动效果及互动效果的持续时长;应用模块4552,还用于:对所识别的素材应用互动模板中的互动效果,并保持应用的互动效果直至达到持续时长。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的基于人工智能的多媒体处理方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图3A、图3B、图3C、图3D或图3E示出的基于人工智能的多媒体处理方法。值得说明的是,计算机包括终端设备和服务器在内的各种计算设备。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上所述,通过本申请实施例能够实现以下技术效果:
1)针对待编辑的多媒体文件,获取与该多媒体文件中所包括的素材的类型对应的素材编辑模式、以及互动模板,能够提升多媒体编辑的成功率,并且提升计算资源的利用率。
2)在互动模板包括第一效果及第二效果时,根据所识别的素材来应用相应的效果,提升了对不同识别情况的适用性;在多媒体文件为视频时,能够保证应用效果的连贯性和完整性。
3)当编辑场景为实时场景时,对多媒体文件进行压缩处理,从而能够提升后续处理的效率,满足实时性要求;同时,设定实时场景中的匹配程度阈值小于非实时场景中的匹配程度阈值,以符合压缩处理的特点。
4)在获取到的素材编辑模式或互动模板的数量为多个时,提供了智能选取和人机交互选取的两种筛选方式,提升了筛选的灵活性和准确性。
5)在多媒体文件为视频时,对多媒体文件进行周期性的抽帧处理,并对抽出的视频帧进行素材识别处理,能够快速地得到多媒体文件中所包括素材的类型,满足实时性要求。
6)将素材编辑模式与互动模板进行分离,解决了在创建互动模板时的局限性,提升创建互动模板的自由度和效率;在创建互动模板时可以对组件化的效果进行自由组合,极大地缩短互动模板上线的周期,同时实现了互动模板迭代和客户端版本迭代的分离,即无论客户端是什么版本,只需在客户端本地部署互动模板,即可实现多媒体文件的智能编辑。
以上,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (11)
1.一种基于人工智能的多媒体处理方法,其特征在于,包括:
响应于针对多媒体文件的编辑操作,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及与所述素材编辑模式对应的互动模板;
其中,所述素材编辑模式用于从所述多媒体文件中识别出所述类型的素材,所述互动模板用于基于所述类型的素材形成互动效果、以及指示所述互动效果的持续时长;
当编辑场景为非实时场景时,根据所述素材编辑模式在待编辑的所述多媒体文件中识别所述素材,得到所述素材在所述多媒体文件中的面积占比,并呈现与所识别的素材对应的确认提示;
若接收到针对确认提示的确认操作,且所述面积占比大于与所述非实时场景相对应的第一素材互动条件中的面积占比阈值,对所识别的所述素材应用所述互动模板中的第一效果,并基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;
若接收到针对确认提示的确认操作,且所述面积占比不大于与所述非实时场景相对应的第一素材互动条件中的面积占比阈值,获取所述互动模板中的第二效果对应的设定位置,并在所述多媒体文件中的所述设定位置,应用所述第二效果,以基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;
若接收到针对确认提示的否认操作时,中止对多媒体文件的编辑;
当编辑场景为实时场景时,对所述多媒体文件进行压缩处理,根据所述素材编辑模式在压缩后的所述多媒体文件中识别所述素材,得到所述素材在所述多媒体文件中的面积占比,并呈现与所识别的素材对应的确认提示;
若接收到针对确认提示的确认操作,且所述面积占比大于与所述实时场景相对应的第二素材互动条件中的面积占比阈值,对所识别的所述素材应用所述互动模板中的第一效果,并基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;
若接收到针对确认提示的确认操作,且所述面积占比不大于与所述实时场景相对应的第二素材互动条件中的面积占比阈值,获取所述互动模板中的第二效果对应的设定位置,对所识别的所述素材应用所述互动模板中的第二效果,并在所述多媒体文件中的所述设定位置,应用所述第二效果,以基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;
若接收到针对确认提示的否认操作,中止对所述多媒体文件的编辑;
其中,所述确认提示包括所识别素材的类型、在多媒体文件中的位置信息、以及应用互动模板后得到的预览结果中的至少之一,所述第一素材互动条件中的面积占比阈值大于所述第二素材互动条件中的面积占比阈值。
2.根据权利要求1所述的多媒体处理方法,其特征在于,还包括:
当所述素材编辑模式的数量为多个时,执行以下任意一种处理:
针对每个所述素材编辑模式,根据所述素材编辑模式在所述多媒体文件中识别得到候选素材,并
当所述候选素材满足所述素材编辑模式对应的素材互动条件时,将所述素材编辑模式作为待应用的素材编辑模式;
呈现多个所述素材编辑模式的预览识别过程,并
响应于针对素材编辑模式的选择操作,将被选择的素材编辑模式作为待应用的素材编辑模式;
其中,所述待应用的素材编辑模式用于在所述多媒体文件中识别出所述类型的素材。
3.根据权利要求2所述的多媒体处理方法,其特征在于,
所述根据所述素材编辑模式在所述多媒体文件中识别得到候选素材,包括:
当所述多媒体文件为视频时,对所述多媒体文件进行周期性的抽帧处理,得到候选视频帧;
根据所述素材编辑模式在所述候选视频帧中识别得到候选素材;
所述根据所述素材编辑模式在所述多媒体文件中识别所述素材,包括:
根据所述待应用的素材编辑模式,在所述多媒体文件的每个视频帧中识别出所述类型的素材。
4.根据权利要求1所述的多媒体处理方法,其特征在于,还包括:
当所述互动模板的数量为多个时,执行以下任意一种处理:
当所识别的所述素材满足任一所述互动模板对应的素材互动条件时,将满足的素材互动条件对应的互动模板,作为待应用的互动模板;
呈现多个所述互动模板的预览应用过程,并
响应于针对互动模板的选择操作,将被选择的互动模板作为待应用的互动模板。
5.根据权利要求1至4任一项所述的多媒体处理方法,其特征在于,还包括:
当所述多媒体文件为视频时,对所述多媒体文件进行周期性的抽帧处理,得到候选视频帧;
对所述候选视频帧进行素材识别处理,得到所述多媒体文件中所包括的素材的类型。
6.根据权利要求5所述的多媒体处理方法,其特征在于,
所述对所述候选视频帧进行素材识别处理之前,还包括:
当多个所述候选视频帧所占的存储空间大于存储空间阈值时,对多个所述候选视频帧进行压缩处理;
所述对所述候选视频帧进行素材识别处理,得到所述多媒体文件中所包括的素材的类型,包括:
对压缩后的多个所述候选视频帧分别进行素材识别处理,得到每个所述候选视频帧所包括的素材的类型,并
将多个所述候选视频帧中占比最大的素材的类型,作为所述多媒体文件中所包括的、用于获取对应的素材编辑模式的素材的类型;
其中,所述占比包括素材的面积占比及数量占比中的任意一种。
7.根据权利要求5所述的多媒体处理方法,其特征在于,还包括:
获取多个样本多媒体文件;
通过人工智能模型,对所述样本多媒体文件进行素材识别处理,得到所述样本多媒体文件所包括的素材的类型;
根据所述素材识别处理得到的类型与实际类型之间的差异,更新所述人工智能模型的权重参数;
其中,更新后的所述人工智能模型用于对所述候选视频帧进行素材识别处理。
8.根据权利要求1至4任一项所述的多媒体处理方法,其特征在于,所述获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及与所述素材编辑模式对应的互动模板,包括:
在与多个类型分别对应的候选素材编辑模式中,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式,并
获取与所述素材编辑模式对应的至少一个互动模板。
9.一种基于人工智能的多媒体处理装置,其特征在于,包括:
获取模块,用于响应于针对多媒体文件的编辑操作,获取与所述多媒体文件中所包括的素材的类型对应的素材编辑模式、以及与所述素材编辑模式对应的互动模板;其中,所述素材编辑模式用于从所述多媒体文件中识别出所述类型的素材,所述互动模板用于基于所述类型的素材形成互动效果、以及指示所述互动效果的持续时长;
应用模块,用于当编辑场景为非实时场景时,根据所述素材编辑模式在待编辑的所述多媒体文件中识别所述素材,得到所述素材在所述多媒体文件中的面积占比,并呈现与所识别的素材对应的确认提示;所述确认提示包括所识别素材的类型、在多媒体文件中的位置信息、以及应用互动模板后得到的预览结果中的至少之一;当编辑场景为实时场景时,对所述多媒体文件进行压缩处理,根据所述素材编辑模式在压缩后的所述多媒体文件中识别所述素材,得到所述素材在所述多媒体文件中的面积占比,并呈现与所识别的素材对应的确认提示;
应用完成模块,用于当编辑场景为非实时场景时,若接收到针对确认提示的确认操作,且所述面积占比大于与所述非实时场景相对应的第一素材互动条件中的面积占比阈值,对所识别的所述素材应用所述互动模板中的第一效果,并基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;若接收到针对确认提示的确认操作,且所述面积占比不大于与所述非实时场景相对应的第一素材互动条件中的面积占比阈值,获取所述互动模板中的第二效果对应的设定位置,并在所述多媒体文件中的所述设定位置,应用所述第二效果,以基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;若接收到针对确认提示的否认操作时,中止对多媒体文件的编辑;当编辑场景为实时场景时,若接收到针对确认提示的确认操作,且所述面积占比大于与所述实时场景相对应的第二素材互动条件中的面积占比阈值,对所识别的所述素材应用所述互动模板中的第一效果,并基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;若接收到针对确认提示的确认操作,且所述面积占比不大于与所述实时场景相对应的第二素材互动条件中的面积占比阈值,获取所述互动模板中的第二效果对应的设定位置,对所识别的所述素材应用所述互动模板中的第二效果,并在所述多媒体文件中的所述设定位置,应用所述第二效果,以基于所述持续时长呈现应用所述互动模板后的所述多媒体文件;若接收到针对确认提示的否认操作,中止对所述多媒体文件的编辑;其中,所述第一素材互动条件中的面积占比阈值大于所述第二素材互动条件中的面积占比阈值。
10.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至8任一项所述的基于人工智能的多媒体处理方法。
11.一种计算机可读存储介质,其特征在于,存储有可执行指令,用于被处理器执行时,实现权利要求1至8任一项所述的基于人工智能的多媒体处理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010837810.8A CN111914523B (zh) | 2020-08-19 | 2020-08-19 | 基于人工智能的多媒体处理方法、装置及电子设备 |
PCT/CN2021/102803 WO2022037260A1 (zh) | 2020-08-19 | 2021-06-28 | 基于人工智能的多媒体处理方法、装置及电子设备 |
US17/977,590 US20230057566A1 (en) | 2020-08-19 | 2022-10-31 | Multimedia processing method and apparatus based on artificial intelligence, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010837810.8A CN111914523B (zh) | 2020-08-19 | 2020-08-19 | 基于人工智能的多媒体处理方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914523A CN111914523A (zh) | 2020-11-10 |
CN111914523B true CN111914523B (zh) | 2021-12-14 |
Family
ID=73279395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010837810.8A Active CN111914523B (zh) | 2020-08-19 | 2020-08-19 | 基于人工智能的多媒体处理方法、装置及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230057566A1 (zh) |
CN (1) | CN111914523B (zh) |
WO (1) | WO2022037260A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914523B (zh) * | 2020-08-19 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体处理方法、装置及电子设备 |
CN112468741A (zh) * | 2020-11-13 | 2021-03-09 | 咪咕文化科技有限公司 | 视频生成的方法、电子设备及存储介质 |
CN112584061B (zh) * | 2020-12-24 | 2023-08-01 | 咪咕文化科技有限公司 | 多媒体通用模板生成方法、电子设备及存储介质 |
CN115269889A (zh) * | 2021-04-30 | 2022-11-01 | 北京字跳网络技术有限公司 | 剪辑模板搜索方法及装置 |
CN113794930B (zh) * | 2021-09-10 | 2023-11-24 | 中国联合网络通信集团有限公司 | 视频生成方法、装置、设备及存储介质 |
CN114782284B (zh) * | 2022-06-17 | 2022-09-23 | 广州三七极耀网络科技有限公司 | 动作数据修正方法、装置、设备及存储介质 |
CN117036203B (zh) * | 2023-10-08 | 2024-01-26 | 杭州黑岩网络科技有限公司 | 一种智能绘图方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105323634A (zh) * | 2014-06-27 | 2016-02-10 | Tcl集团股份有限公司 | 一种视频的缩略图生成方法及系统 |
CN106210808A (zh) * | 2016-08-08 | 2016-12-07 | 腾讯科技(深圳)有限公司 | 媒体信息投放方法、终端、服务器及系统 |
CN109191370A (zh) * | 2018-08-06 | 2019-01-11 | 光锐恒宇(北京)科技有限公司 | 图像处理方法、装置、智能终端和计算机可读存储介质 |
CN109492577A (zh) * | 2018-11-08 | 2019-03-19 | 北京奇艺世纪科技有限公司 | 一种手势识别方法、装置及电子设备 |
CN110784752A (zh) * | 2019-09-27 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种视频互动方法、装置、计算机设备和存储介质 |
CN111556363A (zh) * | 2020-05-21 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 视频特效处理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679800B (zh) * | 2013-11-21 | 2017-09-01 | 北京航空航天大学 | 一种视频图像虚拟场景生成系统及其框架构造方法 |
CN104571516B (zh) * | 2014-12-31 | 2018-01-05 | 武汉百景互动科技有限责任公司 | 互动广告系统 |
CN105931096A (zh) * | 2016-04-14 | 2016-09-07 | 杭州艺豆网络科技有限公司 | 一种商品详情页面的制作方法 |
CN106028217B (zh) * | 2016-06-20 | 2020-01-21 | 咻羞科技(深圳)有限公司 | 一种基于音频识别技术的智能设备互动系统及方法 |
US10261747B2 (en) * | 2016-09-09 | 2019-04-16 | The Boeing Company | Synchronized side-by-side display of live video and corresponding virtual environment images |
CN109309802A (zh) * | 2017-07-27 | 2019-02-05 | 中兴通讯股份有限公司 | 视频互动的管理方法、服务器及计算机可读存储介质 |
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
CN108833818B (zh) * | 2018-06-28 | 2021-03-26 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109474850B (zh) * | 2018-11-29 | 2021-07-20 | 北京字节跳动网络技术有限公司 | 运动像素视频特效添加方法、装置、终端设备及存储介质 |
CN110856039A (zh) * | 2019-12-02 | 2020-02-28 | 新华智云科技有限公司 | 视频处理方法及装置、存储介质 |
CN111178343A (zh) * | 2020-04-13 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体资源检测方法、装置、设备及介质 |
CN111914523B (zh) * | 2020-08-19 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体处理方法、装置及电子设备 |
-
2020
- 2020-08-19 CN CN202010837810.8A patent/CN111914523B/zh active Active
-
2021
- 2021-06-28 WO PCT/CN2021/102803 patent/WO2022037260A1/zh active Application Filing
-
2022
- 2022-10-31 US US17/977,590 patent/US20230057566A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105323634A (zh) * | 2014-06-27 | 2016-02-10 | Tcl集团股份有限公司 | 一种视频的缩略图生成方法及系统 |
CN106210808A (zh) * | 2016-08-08 | 2016-12-07 | 腾讯科技(深圳)有限公司 | 媒体信息投放方法、终端、服务器及系统 |
CN109191370A (zh) * | 2018-08-06 | 2019-01-11 | 光锐恒宇(北京)科技有限公司 | 图像处理方法、装置、智能终端和计算机可读存储介质 |
CN109492577A (zh) * | 2018-11-08 | 2019-03-19 | 北京奇艺世纪科技有限公司 | 一种手势识别方法、装置及电子设备 |
CN110784752A (zh) * | 2019-09-27 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种视频互动方法、装置、计算机设备和存储介质 |
CN111556363A (zh) * | 2020-05-21 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 视频特效处理方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111914523A (zh) | 2020-11-10 |
WO2022037260A1 (zh) | 2022-02-24 |
US20230057566A1 (en) | 2023-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914523B (zh) | 基于人工智能的多媒体处理方法、装置及电子设备 | |
CN109819313B (zh) | 视频处理方法、装置及存储介质 | |
CN110941954B (zh) | 文本播报方法、装置、电子设备及存储介质 | |
CN109688463B (zh) | 一种剪辑视频生成方法、装置、终端设备及存储介质 | |
CN111835986B (zh) | 视频编辑处理方法、装置及电子设备 | |
CN111930994A (zh) | 视频编辑的处理方法、装置、电子设备及存储介质 | |
US8819545B2 (en) | Digital comic editor, method and non-transitory computer-readable medium | |
CN107436921B (zh) | 视频数据处理方法、装置、设备及存储介质 | |
CN110832583A (zh) | 用于从多个图像帧生成概要故事板的系统和方法 | |
US20180143741A1 (en) | Intelligent graphical feature generation for user content | |
CN113806306B (zh) | 媒体文件处理方法、装置、设备、可读存储介质及产品 | |
CN112118397B (zh) | 一种视频合成的方法、相关装置、设备以及存储介质 | |
CN112188228A (zh) | 直播方法及装置、计算机可读存储介质和电子设备 | |
CN110489039A (zh) | 信息处理方法、装置、存储介质及电子设备 | |
CN114466222B (zh) | 一种视频合成方法、装置、电子设备及存储介质 | |
CN114007064B (zh) | 特效同步评估方法、装置、设备及存储介质 | |
CN113453027A (zh) | 直播视频、虚拟上妆的图像处理方法、装置及电子设备 | |
CN112567761A (zh) | 信息处理设备、信息处理系统、信息处理方法和程序 | |
CN112199534A (zh) | 贴纸推荐方法、装置、电子设备及存储介质 | |
CN113709575B (zh) | 视频编辑处理方法、装置、电子设备及存储介质 | |
KR20190099110A (ko) | 클라우드 기반의 증강현실 콘텐츠 서비스 제공 방법 | |
CN115426520A (zh) | 一种对直播间的直播场景进行布置的方法、装置及设备 | |
CN114344920A (zh) | 基于虚拟场景的数据录制方法、装置、设备及存储介质 | |
CN113806570A (zh) | 图像生成方法和生成装置、电子设备和存储介质 | |
CN113824982A (zh) | 一种直播方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |