CN114025105B - 视频处理方法、装置、电子设备、存储介质 - Google Patents
视频处理方法、装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN114025105B CN114025105B CN202111532351.3A CN202111532351A CN114025105B CN 114025105 B CN114025105 B CN 114025105B CN 202111532351 A CN202111532351 A CN 202111532351A CN 114025105 B CN114025105 B CN 114025105B
- Authority
- CN
- China
- Prior art keywords
- special effect
- effect processing
- frame
- point information
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 230000000694 effects Effects 0.000 claims abstract description 630
- 238000012545 processing Methods 0.000 claims abstract description 596
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 11
- 239000002131 composite material Substances 0.000 claims description 52
- 230000014509 gene expression Effects 0.000 claims description 33
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 abstract description 11
- 230000004927 fusion Effects 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Circuits (AREA)
- Image Processing (AREA)
Abstract
本公开关于一种视频处理方法、装置、电子设备、存储介质和计算机程序产品,所述方法包括:确定待进行特效处理的原始视频;从原始视频中间隔选取关键帧,通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧;对于原始视频中位于模型特效处理帧之间的中间视频帧,获取原始视频中中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧;基于模型特效处理帧以及合成特效处理帧得到原始视频对应的特效处理视频。采用本公开无需利用特效处理模型针对每一帧进行处理,通过模型特效处理帧融合得到关键帧之间的中间帧,提高了视频的特效处理效率。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种视频处理方法、装置、电子设备、存储介质和计算机程序产品。
背景技术
目前,针对基于深度学习模型的短视频特效拍摄,如基于GAN技术(GenerativeAdversarial Networks,生成式对抗网络)的人脸生成,由于该类型技术对设备计算能力要求高,受限于移动端设备的处理性能,通常采用将用户在移动端拍摄的完整视频上传至服务端进行处理,进而再下发至移动端让用户预览发布的方式,但采用上述传统方法无法让用户体验到实时拍摄的效果,也无法及时调整拍摄画面。
因此,相关技术中存在对视频进行特效处理的效率低的问题。
发明内容
本公开提供一种视频处理方法、装置、电子设备、存储介质和计算机程序产品,以至少解决相关技术中存在难以实时预览特效视频拍摄效果的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种视频处理方法,包括:
确定待进行特效处理的原始视频;
从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧;
对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧;
基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。
在一种可能实现方式中,所述基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧,包括:
获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;
获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息;
基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息;
基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息,包括:
基于所述前向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述前向对象关键点信息对应的前向权重系数,所述前向权重系数与对应的帧间距成负相关关系;
基于所述后向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述后向对象关键点信息对应的后向权重系数,所述后向权重系数与对应的帧间距成负相关关系;
根据所述前向权重系数和所述后向权重系数,对所述前向对象关键点信息和所述后向对象关键点信息进行加权,得到所述合成对象关键点信息。
在一种可能实现方式中,所述基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧,包括:
根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像;
根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像;
基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像,包括:
根据所述合成对象关键点信息和所述前向对象关键点信息,对所述前向模型特征处理帧进行图像形变处理,得到所述第一特效图像;
所述根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像,包括:
根据所述合成对象关键点信息和所述后向对象关键点信息,对所述后向模型特征处理帧进行图像形变处理,得到所述第二特效图像。
在一种可能实现方式中,所述从所述原始视频中间隔选取关键帧,包括:
基于当前终端对应的特效处理性能,确定间隔选取长度;
根据所述间隔选取长度,从所述原始视频中间隔选取所述关键帧。
在一种可能实现方式中,所述基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧,包括:
获取所述前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;
获取所述后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;
对所述前向特效处理区域以及所述后向特效处理区域进行图像合成,得到合成特效处理区域;
确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
在一种可能实现方式中,所述通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧,包括:
所述特效处理模型对所述关键帧中对象的第一表情区域进行特效处理,得到所述模型特效处理帧;
所述确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧,包括:
确定所述中间视频帧中所述对象的第二表情区域,从所述中间视频帧抠除所述第二表情区域,得到所述中间视频帧对应的背景图像区域;
确定所述第二对象表情区域与所述背景图像区域的位置对应关系,基于所述位置对应关系将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
根据本公开实施例的第二方面,提供一种视频处理装置,包括:
原始视频确定单元,被配置为执行确定待进行特效处理的原始视频;
模型特效处理帧得到单元,被配置为执行从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧;
中间视频帧处理单元,被配置为执行对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
合成特效处理帧得到单元,被配置为执行基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧;
特效处理视频得到单元,被配置为执行基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体被配置为执行获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息;基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息;基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体还被配置为执行基于所述前向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述前向对象关键点信息对应的前向权重系数,所述前向权重系数与对应的帧间距成负相关关系;基于所述后向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述后向对象关键点信息对应的后向权重系数,所述后向权重系数与对应的帧间距成负相关关系;根据所述前向权重系数和所述后向权重系数,对所述前向对象关键点信息和所述后向对象关键点信息进行加权,得到所述合成对象关键点信息。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体还被配置为执行根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像;根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像;基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体还被配置为执行根据所述合成对象关键点信息和所述前向对象关键点信息,对所述前向模型特征处理帧进行图像形变处理,得到所述第一特效图像;所述根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像,包括:根据所述合成对象关键点信息和所述后向对象关键点信息,对所述后向模型特征处理帧进行图像形变处理,得到所述第二特效图像。
在一种可能实现方式中,所述模型特效处理帧得到单元,具体被配置为执行基于当前终端对应的特效处理性能,确定间隔选取长度;根据所述间隔选取长度,从所述原始视频中间隔选取所述关键帧。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体被配置为执行获取所述前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;获取所述后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;对所述前向特效处理区域以及所述后向特效处理区域进行图像合成,得到合成特效处理区域;确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元,具体还被配置为执行所述特效处理模型对所述关键帧中对象的第一表情区域进行特效处理,得到所述模型特效处理帧,所述确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧,包括:确定所述中间视频帧中所述对象的第二表情区域,从所述中间视频帧抠除所述第二表情区域,得到所述中间视频帧对应的背景图像区域;确定所述第二对象表情区域与所述背景图像区域的位置对应关系,基于所述位置对应关系将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
根据本公开实施例的第三方面,提供一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如第一方面或第一方面的任一种可能实现方式所述的视频处理方法。
根据本公开实施例的第四方面,提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面或第一方面的任一种可能实现方式所述的视频处理方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,设备的至少一个处理器从所述可读存储介质读取并执行所述计算机程序,使得设备执行第一方面的任一项实施例中所述的视频处理方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
本公开的方案,通过确定待进行特效处理的原始视频,从原始视频中间隔选取关键帧,通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧,然后对于原始视频中位于模型特效处理帧之间的中间视频帧,获取原始视频中中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧,基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧,进而基于模型特效处理帧以及合成特效处理帧得到原始视频对应的特效处理视频。如此,既可以通过特效处理模型对关键帧进行特效处理,保证特效处理的效果,且无需利用特效处理模型针对每一帧进行处理,通过模型特效处理帧融合得到关键帧之间的中间帧,提高了视频的特效处理效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种视频处理方法的流程图。
图2是根据一示例性实施例示出的一种特效处理流程的示意图。
图3是根据一示例性实施例示出的一种合成特效处理帧得到步骤的流程图。
图4是根据一示例性实施例示出的另一种视频处理方法的流程图。
图5是根据一示例性实施例示出的一种视频处理装置的框图。
图6是根据一示例性实施例示出的一种电子设备的内部结构图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。
还需要说明的是,本公开所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
图1是根据一示例性实施例示出的一种视频处理方法的流程图,如图1所示,该方法可以用于终端等计算机设备中,包括以下步骤。
在步骤S110中,确定待进行特效处理的原始视频;
作为一示例,原始视频可以为终端进行实时特效拍摄时采集到的视频或预先获取的视频,如用户采用移动端进行实时特效拍摄时采集到的视频,或预先获取的完整视频。
在实际应用中,可以响应于视频特效处理操作,获取采用移动端进行实时特效拍摄时采集到的视频或预先获取的完整视频,作为待进行特效处理的原始视频,以对该原始视频进行相关特效处理,如添加魔法表情等人脸生成特效的处理。
在步骤S120中,从原始视频中间隔选取关键帧,通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧;
其中,关键帧可以为采用特效处理模型进行图像特效处理的视频帧,如采用AI模块进行图像特效处理;模型特效处理帧可以为基于关键帧生成的特效处理后视频帧,如通过GAN技术,根据关键帧对应的原始图像可以生成人脸特效图像,以作为特效处理后的关键帧。
在得到原始视频后,可以根据预设的间隔选取长度,从原始视频中通过间隔选取得到关键帧,进而可以通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧。
具体地,可以基于当前特效处理端对应的特效处理性能,获取间隔选取长度,例如,针对移动端的特效处理性能,可以预设间隔选取长度为间隔1帧,也可以选取其它间隔帧数,在本实施例中不作具体限制,进而可以将原始视频中的起始视频帧作为第一帧,通过间隔1帧的间隔选取方式得到多个关键帧,并可以采用特效处理模型处理多个关键帧,得到各关键帧对应的模型特效处理帧。
在一示例中,模型特效处理帧对应的图像可以为基于原始图像中的特效处理区域得到的区域特效处理图像,如针对原始图像中的人脸区域可以得到人脸裁剪框,进而对人脸裁剪框特效处理后可以得到人脸特效图像;也可以为基于原始图像得到的特效处理完整图像,如对原始图像中的人脸区域进行特效处理后,与原始图像中的背景区域拼接得到的完整图像。
在步骤S130中,对于原始视频中位于模型特效处理帧之间的中间视频帧,获取原始视频中中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
其中,中间视频帧可以为不采用特效处理模型进行图像特效处理的视频帧,如缺少AI模块的图像特效处理。
在具体实现中,可以将原始视频中位于模型特效处理帧之间的视频帧作为中间视频帧,进而可以针对该中间视频帧,获取原始视频中对应的前向模型特效处理帧以及后向模型特效处理帧。
在一示例中,可以将中间视频帧作为非关键帧,针对每个非关键帧,可以将该非关键帧的前一个关键帧对应的模型特效处理帧,作为前向模型特效处理帧,将该非关键帧的后一个关键帧对应的模型特效处理帧,作为后向模型特效处理帧。
在步骤S140中,基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧;
在实际应用中,可以针对每个中间视频帧,基于前向模型特效处理帧以及后向模型特效处理帧合成该中间视频帧对应的合成特效处理帧,如通过前向模型特效处理帧以及后向模型特效处理帧,可以基于该两个模型特效处理帧得到特效处理后的中间视频帧,即合成特效处理帧。
在步骤S150中,基于模型特效处理帧以及合成特效处理帧得到原始视频对应的特效处理视频。
在得到合成特效处理帧后,可以将模型特效处理帧以及合成特效处理帧按照帧时间顺序进行排列,进而可以得到原始视频对应的特效处理视频,从而基于关键帧特效处理得到的前向模型特效处理帧以及后向模型特效处理帧,可以合成中间视频帧对应的合成特效处理帧,通过隔帧插值的处理方法,无需AI模块对每一帧的原始图像进行处理,解决了移动端在性能不足以使用复杂AI特效的情况下,能够让用户实时预览特效拍摄的效果,便于用户及时调整拍摄画面,提升了用户体验感。
在一示例中,如图2所示,针对待进行特效处理的原始视频,可以从原始视频中间隔选取关键帧,并将该关键帧对应的原始图像通过AI模块进行特效处理,得到生成图像(即模型特效处理帧),对于原始视频中的非关键帧(即中间视频帧),可以基于图像处理装置,通过隔帧插值的处理方法,根据非关键帧的前一个关键帧特效处理得到的生成图像(即前向模型特效处理帧)以及后一个关键帧特效处理得到的生成图像(即后向模型特效处理帧),得到该非关键帧特效处理后的生成图像(即合成特效处理帧),进而可以对特效处理得到的图像进行融合,得到原始视频对应的特效处理视频,如可以得到将生成图像融合到原始图像中的视频效果。
上述视频处理方法中,通过确定待进行特效处理的原始视频,从原始视频中间隔选取关键帧,通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧,然后对于原始视频中位于模型特效处理帧之间的中间视频帧,获取原始视频中中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧,基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧,进而基于模型特效处理帧以及合成特效处理帧得到原始视频对应的特效处理视频。如此,既可以通过特效处理模型对关键帧进行特效处理,保证特效处理的效果,且无需利用特效处理模型针对每一帧进行处理,通过模型特效处理帧融合得到关键帧之间的中间帧,提高了视频的特效处理效率。
在一示例性实施例中,如图3所示,基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧,可以包括如下步骤:
在步骤S310中,获取前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;
作为一示例,对象的关键点信息可以包括多个人脸关键点,如在魔法表情特效处理时,针对图像中的人脸面部区域,可以将人脸面部区域中的人脸特征点作为人脸关键点,进而可以定位出人脸面部中的关键区域位置,包括眉毛、眼睛、鼻子、嘴、脸部轮廓等。
在得到前向模型特效处理帧后,可以将该前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息,例如,在人脸图像特效处理的场景下,可以获取前向模型特效处理帧中对象的多个人脸关键点,作为前向对象关键点信息。
在步骤S320中,获取后向模型特效处理帧中对象的关键点信息,作为后向对象关键点信息;
在得到后向模型特效处理帧后,可以将该后向模型特效处理帧对象的关键点信息,作为后向对象关键点信息,例如,在人脸图像特效处理的场景下,可以获取后向模型特效处理帧中对象的多个人脸关键点,作为后向对象关键点信息。
在步骤S330中,基于前向对象关键点信息以及后向对象关键点信息,得到中间视频帧对应的合成特性处理帧的合成对象关键点信息;
在实际应用中,通过对前向对象关键点信息以及后向对象关键点信息进行加权,可以计算出中间视频帧对应的合成特性处理帧的合成对象关键点信息,例如,在人脸图像特效处理的场景下,可以计算得到中间视频帧中对象的多个人脸关键点,作为合成对象关键点信息。
具体地,以人脸图像特效处理为例,为了实现非关键帧(即中间视频帧)的插值融合,可以获取该非关键帧的前后两个关键帧的特效处理数据(即前向模型特效处理帧和后向模型特效处理帧),通过向内插值的方式插值融合得到非关键帧的特效处理结果(即合成特效处理帧)。
例如,以插值融合第t帧(即中间视频帧)为例,可以采用如下方式内插得到第t帧的生成图像对应的关键点(即合成对象关键点信息):
Dt=Dt-1*(1.0-weight)+Dt+1*weight
其中,Dt为第t帧的生成图像对应的关键点,Dt-1为第t-1帧的生成图像对应的关键点Dt-1(即前向对象关键点信息),Dt+1为第t+1帧的生成图像对应的关键点Dt+1(即后向对象关键点信息),weight为权重系数,如采用间隔1帧进行插值时,可以预设权重系数为0.5。
在一个可选实施例中,当进行实时特效拍摄时,可以通过延迟渲染的方式,获取非关键帧的前后两个关键帧的特效处理数据,以使得用户能够实时预览特效拍摄的效果。
在步骤S340中,基于合成对象关键点信息生成中间视频帧对应的合成特效处理帧。
在得到合成对象关键点信息后,可以基于合成对象关键点信息,对前向模型特效处理帧和后向模型特效处理帧进行图像变形,进而可以生成中间视频帧对应的合成特效处理帧,例如,可以基于人脸特征点的图像变形算法,通过对第t-1帧的生成图像It-1(即前向模型特效处理帧)进行图像变形,以及对第t+1帧的生成图像It+1(即后向模型特效处理帧)进行图像变形,进而可以合成得到第t帧的生成图像It(即合成特效处理帧)。
本实施例的技术方案,通过获取前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息,获取后向模型特效处理帧中对象的关键点信息,作为后向对象关键点信息,然后基于前向对象关键点信息以及后向对象关键点信息,得到中间视频帧对应的合成特性处理帧的合成对象关键点信息,进而基于合成对象关键点信息生成中间视频帧对应的合成特效处理帧,可以基于关键帧的模型特效处理帧插值得到非关键帧中对象的关键点,为后续生成合成特效处理帧提供了数据支持,有助于准确得到非关键帧的合成特效处理帧。
在一示例性实施例中,基于前向对象关键点信息以及后向对象关键点信息,得到中间视频帧对应的合成特性处理帧的合成对象关键点信息,包括:基于前向模型特效处理帧与中间视频帧之间的帧间距,确定前向对象关键点信息对应的前向权重系数,前向权重系数与对应的帧间距成负相关关系;基于后向模型特效处理帧与中间视频帧之间的帧间距,确定后向对象关键点信息对应的后向权重系数,后向权重系数与对应的帧间距成负相关关系;根据前向权重系数和后向权重系数,对前向对象关键点信息和后向对象关键点信息进行加权,得到合成对象关键点信息。
在具体实现中,由于权重系数与对应的帧间距成负相关关系,如帧间距越近,可以预设权重系数越大,针对前向模型特效处理帧,可以根据该前向模型特效处理帧与中间视频帧之间的帧间距,确定前向对象关键点信息对应的前向权重系数,针对后向模型特效处理帧,可以根据该后向模型特效处理帧与中间视频帧之间的帧间距,确定后向对象关键点信息对应的前向权重系数,进而可以采用前向权重系数和后向权重系数对前向对象关键点信息和后向对象关键点信息进行加权,得到合成对象关键点信息。
本实施例的技术方案,通过基于前向模型特效处理帧与中间视频帧之间的帧间距,确定前向对象关键点信息对应的前向权重系数,然后基于后向模型特效处理帧与中间视频帧之间的帧间距,确定后向对象关键点信息对应的后向权重系数,进而根据前向权重系数和后向权重系数,对前向对象关键点信息和后向对象关键点信息进行加权,得到合成对象关键点信息,可以基于关键帧与中间视频帧之间的帧间距确定权重系数,能够准确插值得到合成对象关键点信息。
在一示例性实施例中,基于合成对象关键点信息生成中间视频帧对应的合成特效处理帧,包括:根据前向模型特效处理帧、前向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第一特效图像;根据后向模型特效处理帧、后向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第二特效图像;基于第一特效图像和第二特效图像进行图像合成,得到中间视频帧对应的合成特效处理帧。
在实际应用中,可以根据合成对象关键点信息和前向对象关键点信息,对前向模型特效处理帧进行图像变形,得到第一特效图像,并可以根据合成对象关键点信息和后向对象关键点信息,对后向模型特效处理帧进行图像变形,得到第二特效图像,进而可以将第一特效图像和第二特效图像进行加权,得到中间视频帧对应的合成特效处理帧。
在一示例中,以人脸图像特效处理为例,可以基于人脸关键点建立mesh映射,通过OpenGL(Open Graphics Library,开放式图形库)等图形渲染库进行仿射变换,进而可以实现人脸图像变形。
在又一示例中,针对得到的第一特效图像和第二特效图像,为了最终得到一个效果较好的生成图像(即合成特效处理帧),可以预设权重系数与对应的帧间距成负相关关系,如帧间距越近,可以预设权重系数越大,进而可以将第一特效图像和第二特效图像加权得到合成特效处理帧。
本实施例的技术方案,通过根据前向模型特效处理帧、前向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第一特效图像,然后根据后向模型特效处理帧、后向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第二特效图像,进而基于第一特效图像和第二特效图像进行图像合成,得到中间视频帧对应的合成特效处理帧,无需利用特效处理模型针对每一帧进行处理,通过模型特效处理帧融合得到关键帧之间的中间帧,提高了视频的特效处理效率。
在一示例性实施例中,根据前向模型特效处理帧、前向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第一特效图像,包括:根据合成对象关键点信息和前向对象关键点信息,对前向模型特征处理帧进行图像形变处理,得到第一特效图像;根据后向模型特效处理帧、后向对象关键点信息、合成对象关键点信息,得到中间视频帧对应的第二特效图像,包括:根据合成对象关键点信息和后向对象关键点信息,对后向模型特征处理帧进行图像形变处理,得到第二特效图像。
在实际应用中,可以将合成对象关键点信息所对应的位置作为参考位置,基于参考位置对前向对象关键点信息所对应的位置进行位置变换,以对前向模型特效处理帧进行图像变形处理,得到第一特效图像,还可以将合成对象关键点信息所对应的位置作为参考位置,基于参考位置对后向对象关键点信息所对应的位置进行位置变换,以对后向模型特效处理帧进行图像变形处理,得到第二特效图像。
在一示例中,以人脸图像特效处理为例,对非关键帧(如第t帧)进行特效处理,可以将第t帧的人脸关键点Dt(即合成对象关键点信息)所对应的位置作为参考位置,通过基于参考位置对第t-1帧的人脸关键点Dt-1(即前向对象关键点信息)位置变换,以对第t-1帧的生成图像It-1(即前向模型特效处理帧)进行图像变形处理,得到第t帧的的生成图像It(即第一特效图像)。
同时,还可以将第t帧的人脸关键点Dt(即合成对象关键点信息)所对应的位置作为参考位置,通过基于参考位置对第t+1帧的人脸关键点Dt+1(即后向对象关键点信息)位置变换,以对第t+1帧的生成图像It+1(即后向模型特效处理帧)进行图像变形处理,得到第t帧的的生成图像It(即第二特效图像),进而可以将两次得到的生成图像It进行加权。
本实施例的技术方案,通过根据合成对象关键点信息和前向对象关键点信息,对前向模型特征处理帧进行图像形变处理,得到第一特效图像,以及根据合成对象关键点信息和后向对象关键点信息,对后向模型特征处理帧进行图像形变处理,得到第二特效图像,能够将合成对象关键点信息所对应的位置与前向对象关键点信息所对应的位置进行匹配,或将合成对象关键点信息所对应的位置与后向对象关键点信息所对应的位置进行匹配,提升了合成特效处理帧的效果。
在一示例性实施例中,从原始视频中间隔选取关键帧,包括:基于当前终端对应的特效处理性能,确定间隔选取长度;根据间隔选取长度,从原始视频中间隔选取关键帧。
在一示例中,针对移动端(即当前终端)的特效处理性能,可以预设间隔选取长度为间隔1帧,进而可以将原始视频中的起始视频帧作为第一帧,通过间隔1帧的间隔选取方式得到多个关键帧。
例如,可以按照原始视频中时间以及处理顺序,获取该原始视频的每一帧对应的原始图像,可以将某一时刻作为起始,以将该时刻作为第1帧,则后续处理的图像帧为第2、3、4...帧,由于AI模块无需处理每一帧对应的原始图像,通过隔帧插值的方式,可以仅在第1、3、5...帧,即关键帧,采用AI模块处理得到生成图像,针对第2、4、6...帧,即非关键帧,可以通过插值融合处理得到生成图像,从而能够极大的提升移动端的特效处理整体性能。
本实施例的技术方案,通过基于当前终端对应的特效处理性能,确定间隔选取长度,进而根据间隔选取长度,从原始视频中间隔选取关键帧,能够降低拍摄门槛,提升了当前终端的特效处理性能。
在一示例性实施例中,基于前向模型特效处理帧以及后向模型特效处理帧合成中间视频帧对应的合成特效处理帧,包括:获取前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;获取后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;对前向特效处理区域以及后向特效处理区域进行图像合成,得到合成特效处理区域;确定中间视频帧对应的背景图像区域,将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧。
在一示例中,以人脸图像特效处理为例,可以将前向模型特效处理帧中的特效处理后人脸区域,作为前向特效处理区域,并可以将后向模型特效处理帧中的特效处理后人脸区域,作为后向特效处理区域,通过将前向特效处理区域以及后向特效处理区域进行图像合成,可以得到中间视频帧中的特效处理后人脸区域,作为合成特效处理区域,进而可以确定中间视频帧中除特效处理后人脸区域以外的背景图像区域,将合成特效处理区域以及背景图像区域进行拼接,可以得到合成特效处理帧。
本实施例的技术方案,通过获取前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域,获取后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域,然后对前向特效处理区域以及后向特效处理区域进行图像合成,得到合成特效处理区域,进而确定中间视频帧对应的背景图像区域,将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧,可以通过将合成特效处理区域与背景图像区域进行拼接,提升特效处理效率。
在一示例性实施例中,通过特效处理模型对关键帧进行特效处理,得到模型特效处理帧,包括:特效处理模型对关键帧中对象的第一表情区域进行特效处理,得到模型特效处理帧;确定中间视频帧对应的背景图像区域,将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧,包括:确定中间视频帧中对象的第二表情区域,从中间视频帧抠除第二表情区域,得到中间视频帧对应的背景图像区域;确定第二对象表情区域与背景图像区域的位置对应关系,基于位置对应关系将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧。
在一示例中,在基于人脸表情进行特效处理时,针对关键帧,可以通过特效处理模型对关键帧中的人脸区域(即第一表情区域)进行特效处理,得到模型特效处理帧,如基于人脸表情生成魔法表情。
在又一示例中,在基于人脸表情进行特效处理时,针对非关键帧(即中间视频帧),在得到合成特效处理区域后,可以通过将非关键帧中的人脸区域(即第二表情区域)从中间视频帧抠除,得到中间视频帧对应的背景图像区域,进而可以基于非关键帧中的人脸区域与背景图像区域的位置对应关系,将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧。
本实施例的技术方案,通过特效处理模型对关键帧中对象的第一表情区域进行特效处理,得到模型特效处理帧,以及确定中间视频帧中对象的第二表情区域,从中间视频帧抠除第二表情区域,得到中间视频帧对应的背景图像区域,进而确定第二对象表情区域与背景图像区域的位置对应关系,基于位置对应关系将合成特效处理区域以及背景图像区域进行拼接,得到合成特效处理帧,能够在基于人脸表情进行特效处理的情况下,仅针对人脸区域得到特效处理结果,提升了表情特效处理效率。
图4是根据一示例性实施例示出的另一种视频处理方法的流程图,如图4所示,该方法用于终端等计算机设备中,包括以下步骤。
在步骤S401中,确定待进行特效处理的原始视频。在步骤S402中,从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧。在步骤S403中,对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧。在步骤S404中,获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息。在步骤S405中,获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息。在步骤S406中,基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息。步骤S407中,根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像。步骤S408中,根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像。步骤S409中,基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。步骤S410中,基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。需要说明的是,上述步骤的具体限定可以参见上文对一种视频处理方法的具体限定,在此不再赘述。
应该理解的是,虽然图1、图3、图4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1、图3、图4中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
可以理解的是,本说明书中上述方法的各个实施例之间相同/相似的部分可互相参见,每个实施例重点说明的是与其他实施例的不同之处,相关之处参见其他方法实施例的说明即可。
图5是根据一示例性实施例示出的一种视频处理装置框图。参照图5,该装置包括:
原始视频确定单元501,被配置为执行确定待进行特效处理的原始视频;
模型特效处理帧得到单元502,被配置为执行从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧;
中间视频帧处理单元503,被配置为执行对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
合成特效处理帧得到单元504,被配置为执行基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧;
特效处理视频得到单元505,被配置为执行基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体被配置为执行获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息;基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息;基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体还被配置为执行基于所述前向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述前向对象关键点信息对应的前向权重系数,所述前向权重系数与对应的帧间距成负相关关系;基于所述后向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述后向对象关键点信息对应的后向权重系数,所述后向权重系数与对应的帧间距成负相关关系;根据所述前向权重系数和所述后向权重系数,对所述前向对象关键点信息和所述后向对象关键点信息进行加权,得到所述合成对象关键点信息。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体还被配置为执行根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像;根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像;基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体还被配置为执行根据所述合成对象关键点信息和所述前向对象关键点信息,对所述前向模型特征处理帧进行图像形变处理,得到所述第一特效图像;所述根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像,包括:根据所述合成对象关键点信息和所述后向对象关键点信息,对所述后向模型特征处理帧进行图像形变处理,得到所述第二特效图像。
在一种可能实现方式中,所述模型特效处理帧得到单元502,具体被配置为执行基于当前终端对应的特效处理性能,确定间隔选取长度;根据所述间隔选取长度,从所述原始视频中间隔选取所述关键帧。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体被配置为执行获取所述前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;获取所述后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;对所述前向特效处理区域以及所述后向特效处理区域进行图像合成,得到合成特效处理区域;确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
在一种可能实现方式中,所述合成特效处理帧得到单元504,具体还被配置为执行所述特效处理模型对所述关键帧中对象的第一表情区域进行特效处理,得到所述模型特效处理帧,所述确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧,包括:确定所述中间视频帧中所述对象的第二表情区域,从所述中间视频帧抠除所述第二表情区域,得到所述中间视频帧对应的背景图像区域;确定所述第二对象表情区域与所述背景图像区域的位置对应关系,基于所述位置对应关系将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6是根据一示例性实施例示出的一种用于视频处理的电子设备600的框图。例如,电子设备600可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设备、健身设备、个人数字助理等。
参照图6,电子设备600可以包括以下一个或多个组件:处理组件602、存储器604、电源组件606、多媒体组件608、音频组件610、输入/输出(I/O)的接口612、传感器组件614以及通信组件616。
处理组件602通常控制电子设备600的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件602可以包括一个或多个处理器620来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件602可以包括一个或多个模块,便于处理组件602和其他组件之间的交互。例如,处理组件602可以包括多媒体模块,以方便多媒体组件608和处理组件602之间的交互。
存储器604被配置为存储各种类型的数据以支持在电子设备600的操作。这些数据的示例包括用于在电子设备600上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器604可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘、光盘或石墨烯存储器。
电源组件606为电子设备600的各种组件提供电力。电源组件606可以包括电源管理系统,一个或多个电源,及其他与为电子设备600生成、管理和分配电力相关联的组件。
多媒体组件608包括在所述电子设备600和用户之间的提供输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件608包括前置摄像头和/或后置摄像头。当电子设备600处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件610被配置为输出和/或输入音频信号。例如,音频组件610包括麦克风(MIC),当电子设备600处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器604或经由通信组件616发送。在一些实施例中,音频组件610还包括扬声器,用于输出音频信号。
I/O接口612为处理组件602和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件614包括一个或多个传感器,用于为电子设备600提供各个方面的状态评估。例如,传感器组件614可以检测到电子设备600的打开/关闭状态,组件的相对定位,例如所述组件为电子设备600的显示器和小键盘,传感器组件614还可以检测电子设备600或电子设备600组件的位置改变,用户与电子设备600接触的存在或不存在,设备600方位或加速/减速和电子设备600的温度变化。传感器组件614可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件614还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件614还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件616被配置为便于电子设备600和其他设备之间有线或无线方式的通信。电子设备600可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件616经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件616还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备600可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器604,上述指令可由电子设备600的处理器620执行以完成上述方法。例如,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供一种计算机程序产品,所述计算机程序产品中包括指令,上述指令可由电子设备600的处理器620执行以完成上述方法。
需要说明的,上述的装置、电子设备、计算机可读存储介质、计算机程序产品等根据方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (18)
1.一种视频处理方法,其特征在于,所述方法包括:
确定待进行特效处理的原始视频;
从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧;
对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧;
基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。
2.根据权利要求1所述的方法,其特征在于,所述基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧,包括:
获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;
获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息;
基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息;
基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧。
3.根据权利要求2所述的方法,其特征在于,所述基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息,包括:
基于所述前向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述前向对象关键点信息对应的前向权重系数,所述前向权重系数与对应的帧间距成负相关关系;
基于所述后向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述后向对象关键点信息对应的后向权重系数,所述后向权重系数与对应的帧间距成负相关关系;
根据所述前向权重系数和所述后向权重系数,对所述前向对象关键点信息和所述后向对象关键点信息进行加权,得到所述合成对象关键点信息。
4.根据权利要求2所述的方法,其特征在于,所述基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧,包括:
根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像;
根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像;
基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。
5.根据权利要求4所述的方法,其特征在于,所述根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像,包括:
根据所述合成对象关键点信息和所述前向对象关键点信息,对所述前向模型特效处理帧进行图像形变处理,得到所述第一特效图像;
所述根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像,包括:
根据所述合成对象关键点信息和所述后向对象关键点信息,对所述后向模型特效处理帧进行图像形变处理,得到所述第二特效图像。
6.根据权利要求1所述的方法,其特征在于,所述从所述原始视频中间隔选取关键帧,包括:
基于当前终端对应的特效处理性能,确定间隔选取长度;
根据所述间隔选取长度,从所述原始视频中间隔选取所述关键帧。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧,包括:
获取所述前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;
获取所述后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;
对所述前向特效处理区域以及所述后向特效处理区域进行图像合成,得到合成特效处理区域;
确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
8.根据权利要求7所述的方法,其特征在于,所述通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧,包括:
所述特效处理模型对所述关键帧中对象的第一表情区域进行特效处理,得到所述模型特效处理帧;
所述确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧,包括:
确定所述中间视频帧中所述对象的第二表情区域,从所述中间视频帧抠除所述第二表情区域,得到所述中间视频帧对应的背景图像区域;
确定所述第二表情区域与所述背景图像区域的位置对应关系,基于所述位置对应关系将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
9.一种视频处理装置,其特征在于,包括:
原始视频确定单元,被配置为执行确定待进行特效处理的原始视频;
模型特效处理帧得到单元,被配置为执行从所述原始视频中间隔选取关键帧,通过特效处理模型对所述关键帧进行特效处理,得到模型特效处理帧;
中间视频帧处理单元,被配置为执行对于所述原始视频中位于所述模型特效处理帧之间的中间视频帧,获取所述原始视频中所述中间视频帧对应的前向模型特效处理帧以及后向模型特效处理帧;
合成特效处理帧得到单元,被配置为执行基于所述前向模型特效处理帧以及所述后向模型特效处理帧合成所述中间视频帧对应的合成特效处理帧;
特效处理视频得到单元,被配置为执行基于所述模型特效处理帧以及所述合成特效处理帧得到所述原始视频对应的特效处理视频。
10.根据权利要求9所述的装置,其特征在于,所述合成特效处理帧得到单元,具体被配置为执行获取所述前向模型特效处理帧中对象的关键点信息,作为前向对象关键点信息;获取所述后向模型特效处理帧中所述对象的关键点信息,作为后向对象关键点信息;基于所述前向对象关键点信息以及所述后向对象关键点信息,得到所述中间视频帧对应的合成特性处理帧的合成对象关键点信息;基于所述合成对象关键点信息生成所述中间视频帧对应的合成特效处理帧。
11.根据权利要求10所述的装置,其特征在于,所述合成特效处理帧得到单元,具体还被配置为执行基于所述前向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述前向对象关键点信息对应的前向权重系数,所述前向权重系数与对应的帧间距成负相关关系;基于所述后向模型特效处理帧与所述中间视频帧之间的帧间距,确定所述后向对象关键点信息对应的后向权重系数,所述后向权重系数与对应的帧间距成负相关关系;根据所述前向权重系数和所述后向权重系数,对所述前向对象关键点信息和所述后向对象关键点信息进行加权,得到所述合成对象关键点信息。
12.根据权利要求10所述的装置,其特征在于,所述合成特效处理帧得到单元,具体还被配置为执行根据所述前向模型特效处理帧、所述前向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第一特效图像;根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像;基于所述第一特效图像和所述第二特效图像进行图像合成,得到所述中间视频帧对应的合成特效处理帧。
13.根据权利要求12所述的装置,其特征在于,所述合成特效处理帧得到单元,具体还被配置为执行根据所述合成对象关键点信息和所述前向对象关键点信息,对所述前向模型特效处理帧进行图像形变处理,得到所述第一特效图像;所述根据所述后向模型特效处理帧、所述后向对象关键点信息、所述合成对象关键点信息,得到所述中间视频帧对应的第二特效图像,包括:根据所述合成对象关键点信息和所述后向对象关键点信息,对所述后向模型特效处理帧进行图像形变处理,得到所述第二特效图像。
14.根据权利要求9所述的装置,其特征在于,所述模型特效处理帧得到单元,具体被配置为执行基于当前终端对应的特效处理性能,确定间隔选取长度;根据所述间隔选取长度,从所述原始视频中间隔选取所述关键帧。
15.根据权利要求9至14任一项所述的装置,其特征在于,所述合成特效处理帧得到单元,具体被配置为执行获取所述前向模型特效处理帧对应的特效处理区域,作为前向特效处理区域;获取所述后向模型特效处理帧对应的特效处理区域,作为后向特效处理区域;对所述前向特效处理区域以及所述后向特效处理区域进行图像合成,得到合成特效处理区域;确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
16.根据权利要求15所述的装置,其特征在于,所述合成特效处理帧得到单元,具体还被配置为执行所述特效处理模型对所述关键帧中对象的第一表情区域进行特效处理,得到所述模型特效处理帧;所述确定所述中间视频帧对应的背景图像区域,将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧,包括:确定所述中间视频帧中所述对象的第二表情区域,从所述中间视频帧抠除所述第二表情区域,得到所述中间视频帧对应的背景图像区域;确定所述第二表情区域与所述背景图像区域的位置对应关系,基于所述位置对应关系将所述合成特效处理区域以及所述背景图像区域进行拼接,得到所述合成特效处理帧。
17.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至8中任一项所述的视频处理方法。
18.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至8中任一项所述的视频处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111532351.3A CN114025105B (zh) | 2021-12-15 | 2021-12-15 | 视频处理方法、装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111532351.3A CN114025105B (zh) | 2021-12-15 | 2021-12-15 | 视频处理方法、装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114025105A CN114025105A (zh) | 2022-02-08 |
CN114025105B true CN114025105B (zh) | 2023-11-28 |
Family
ID=80068734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111532351.3A Active CN114025105B (zh) | 2021-12-15 | 2021-12-15 | 视频处理方法、装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114025105B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114598919B (zh) * | 2022-03-01 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备和存储介质 |
CN114598902B (zh) * | 2022-03-09 | 2023-12-22 | 安徽文香科技股份有限公司 | 一种视频帧处理方法、装置及电子设备 |
CN116489331A (zh) * | 2023-04-21 | 2023-07-25 | 深圳市吉屋网络技术有限公司 | 一种视频特效处理方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046661A (zh) * | 2015-07-02 | 2015-11-11 | 广东欧珀移动通信有限公司 | 一种提升视频美颜效率的方法、装置及智能终端 |
CN107181744A (zh) * | 2017-05-16 | 2017-09-19 | 北京奇艺世纪科技有限公司 | 一种视频处理及编码方法、处理器与编码器 |
CN109089058A (zh) * | 2018-07-06 | 2018-12-25 | 广州华多网络科技有限公司 | 视频画面处理方法、电子终端及装置 |
CN111464834A (zh) * | 2020-04-07 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种视频帧处理方法、装置、计算设备及存储介质 |
CN111524166A (zh) * | 2020-04-22 | 2020-08-11 | 北京百度网讯科技有限公司 | 视频帧的处理方法和装置 |
CN111753784A (zh) * | 2020-06-30 | 2020-10-09 | 广州酷狗计算机科技有限公司 | 视频的特效处理方法、装置、终端及存储介质 |
CN112596843A (zh) * | 2020-12-29 | 2021-04-02 | 北京元心科技有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
WO2021102893A1 (zh) * | 2019-11-29 | 2021-06-03 | Oppo广东移动通信有限公司 | 视频防抖优化处理方法和装置、电子设备 |
CN113160244A (zh) * | 2021-03-24 | 2021-07-23 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN113177526A (zh) * | 2021-05-27 | 2021-07-27 | 中国平安人寿保险股份有限公司 | 基于人脸识别的图像处理方法、装置、设备及存储介质 |
-
2021
- 2021-12-15 CN CN202111532351.3A patent/CN114025105B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046661A (zh) * | 2015-07-02 | 2015-11-11 | 广东欧珀移动通信有限公司 | 一种提升视频美颜效率的方法、装置及智能终端 |
CN107181744A (zh) * | 2017-05-16 | 2017-09-19 | 北京奇艺世纪科技有限公司 | 一种视频处理及编码方法、处理器与编码器 |
CN109089058A (zh) * | 2018-07-06 | 2018-12-25 | 广州华多网络科技有限公司 | 视频画面处理方法、电子终端及装置 |
WO2021102893A1 (zh) * | 2019-11-29 | 2021-06-03 | Oppo广东移动通信有限公司 | 视频防抖优化处理方法和装置、电子设备 |
CN111464834A (zh) * | 2020-04-07 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种视频帧处理方法、装置、计算设备及存储介质 |
CN111524166A (zh) * | 2020-04-22 | 2020-08-11 | 北京百度网讯科技有限公司 | 视频帧的处理方法和装置 |
CN111753784A (zh) * | 2020-06-30 | 2020-10-09 | 广州酷狗计算机科技有限公司 | 视频的特效处理方法、装置、终端及存储介质 |
CN112596843A (zh) * | 2020-12-29 | 2021-04-02 | 北京元心科技有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113160244A (zh) * | 2021-03-24 | 2021-07-23 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN113177526A (zh) * | 2021-05-27 | 2021-07-27 | 中国平安人寿保险股份有限公司 | 基于人脸识别的图像处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114025105A (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102194094B1 (ko) | 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체 | |
CN114025105B (zh) | 视频处理方法、装置、电子设备、存储介质 | |
EP3905203B1 (en) | Method and apparatus for processing video, and storage medium | |
CN112153400B (zh) | 直播互动方法、装置、电子设备及存储介质 | |
WO2020007241A1 (zh) | 图像处理方法和装置、电子设备以及计算机可读存储介质 | |
CN112348933B (zh) | 动画生成方法、装置、电子设备及存储介质 | |
CN111314617B (zh) | 视频数据处理方法、装置、电子设备及存储介质 | |
CN107967459B (zh) | 卷积处理方法、装置及存储介质 | |
CN109325908B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
EP3945494A1 (en) | Video processing method, apparatus and storage medium | |
CN112188091B (zh) | 人脸信息识别方法、装置、电子设备及存储介质 | |
CN113099297A (zh) | 卡点视频的生成方法、装置、电子设备及存储介质 | |
CN111612876A (zh) | 表情生成方法、装置及存储介质 | |
CN112004020B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN107239758B (zh) | 人脸关键点定位的方法及装置 | |
WO2021189927A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113286073A (zh) | 拍摄方法、拍摄装置及存储介质 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN114430457B (zh) | 拍摄方法、装置、电子设备和存储介质 | |
CN113989424A (zh) | 三维虚拟形象的生成方法、装置及电子设备 | |
CN111862288A (zh) | 一种位姿渲染方法、装置及介质 | |
CN110312117B (zh) | 数据刷新方法及装置 | |
CN110502993B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114078280A (zh) | 动作捕捉方法、装置、电子设备及存储介质 | |
CN113747113A (zh) | 图像显示方法及装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |