CN113723385A - 视频处理方法及装置、神经网络的训练方法及装置 - Google Patents
视频处理方法及装置、神经网络的训练方法及装置 Download PDFInfo
- Publication number
- CN113723385A CN113723385A CN202111296799.XA CN202111296799A CN113723385A CN 113723385 A CN113723385 A CN 113723385A CN 202111296799 A CN202111296799 A CN 202111296799A CN 113723385 A CN113723385 A CN 113723385A
- Authority
- CN
- China
- Prior art keywords
- mouth
- training
- network
- feature
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种视频处理方法及装置、神经网络的训练方法及装置。该视频处理方法包括:获取至少一个帧图像和音频片段;对至少一个帧图像进行预处理,得到面部区域的嘴部特征信息;基于嘴部特征信息和音频片段,使用视频处理网络对至少一个帧图像进行处理,得到目标视频,其中,目标视频中的对象具有与音频片段同步的嘴型变化,嘴部特征信息至少用于向视频处理网络提供每个对象的面部区域和嘴部的基本轮廓,以及每个对象的面部区域和嘴部的位置关系。在该视频处理方法中,利用嘴部特征信息向视频处理网络提供脸部与嘴部的大致轮廓与位置,方便网络生成更加准确的嘴部区域,所得到的目标视频的嘴型部分匹配度更高,准确度也更高。
Description
技术领域
本公开的实施例涉及一种基于视频处理方法、视频处理装置、神经网络的训练方法、神经网络的训练装置、电子设备以及非瞬时性计算机可读存储介质。
背景技术
嘴型同步在游戏/动漫角色配音、数字虚拟人、音唇同步的语音翻译等场景下具有广泛的应用场景。例如,用户可以提供一段音频和给定人物形象或动画形象,就可以生成对应人物的讲话视频,对应人物在讲话视频中的嘴型跟随音频的变化而相应变化,人物嘴型与音频完全匹配。
发明内容
本公开至少一实施例提供一种视频处理方法,包括:获取至少一个帧图像和音频片段,其中,每个帧图像包括至少一个对象,每个对象包括面部区域;对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息;基于所述嘴部特征信息和所述音频片段,使用视频处理网络对所述至少一个帧图像进行处理,得到目标视频,其中,所述目标视频中的对象具有与所述音频片段同步的嘴型变化,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
例如,在本公开至少一实施例提供的视频处理方法中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,包括:利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,其中,所述嘴部特征信息包括所述至少一个帧图像分别对应的至少一个嘴部模糊图片。
例如,在本公开至少一实施例提供的视频处理方法中,利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,包括:对所述帧图像进行第一色彩空间转换,得到第一转换图像;提取所述第一转换图像中的嘴部区域,对所述嘴部区域进行第一滤波处理,得到所述帧图像对应的嘴部模糊图片。
例如,在本公开至少一实施例提供的视频处理方法中,利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,包括:对所述帧图像进行第一色彩空间转换,得到第一转换图像;提取所述第一转换图像中的嘴部区域,对所述嘴部区域进行第一滤波处理,得到第一中间模糊图像;对所述帧图像进行第二色彩空间转换,得到第二转换图像;提取所述第二转换图像中的皮肤区域,从所述皮肤区域中选择包括嘴部的预设区域;对所述预设区域进行第二滤波处理,得到第二中间模糊图像;对所述第一中间模糊图像和所述第二中间模糊图像进行合成处理,得到所述帧图像对应的嘴部模糊图片。
例如,在本公开至少一实施例提供的视频处理方法中,所述第一色彩空间为HSI色彩空间,所述第二色彩空间为YCbCr色彩空间。
例如,在本公开至少一实施例提供的视频处理方法中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,还包括:对所述至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,其中,所述嘴部特征信息还包括所述至少一个嘴部模糊图片分别对应的至少一个梯度特征图。
例如,在本公开至少一实施例提供的视频处理方法中,对所述至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,包括:获取所述每个嘴部模糊图片对应的灰度图;获取第一卷积核和第二卷积核,其中,所述第一卷积核的尺寸小于所述第二卷积核的尺寸,所述第一卷积核中的所有元素之和为0,所述第二卷积核中的所有元素之和为0;将所述灰度图与所述第一卷积核和所述第二卷积核进行卷积处理,得到所述每个嘴部模糊图片对应的梯度图。
例如,在本公开至少一实施例提供的视频处理方法中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,还包括:利用面部关键点检测模型对所述每个帧图像进行处理,得到多个面部关键点;提取所述多个面部关键点中与嘴部相关的多个嘴部关键点,其中,所述嘴部特征信息还包括所述多个嘴部关键点。
例如,在本公开至少一实施例提供的视频处理方法中,所述视频处理网络包括特征提取子网络和解码生成子网络,基于所述嘴部特征信息和所述音频片段,使用所述视频处理网络对所述至少一个帧图像进行处理,包括:对所述音频片段进行频谱转换处理,得到特征频谱;利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,其中,所述M个视觉特征向量与所述音频片段相匹配,M为正整数且小于等于所述至少一个嘴部模糊图片的数量;利用所述解码生成子网络对所述M个视觉特征向量进行处理,得到M个目标帧,其中,所述M个目标帧与所述音频片段中M个时点一一对应,且所述M个目标帧中每个目标帧具有与所述音频片段中对应时点对应的嘴型;根据所述M个目标帧得到所述目标视频。
例如,在本公开至少一实施例提供的视频处理方法中,利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,包括:将所述至少一个嘴部模糊图片依序分成M组,利用所述特征提取网络提取每组对应的视觉特征向量,以得到所述M个视觉特征向量。
例如,在本公开至少一实施例提供的视频处理方法中,所述嘴部特征信息还包括所述至少一个嘴部模糊图片分别对应的至少一个梯度特征图,利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,包括:利用所述特征提取子网络对所述至少一个嘴部模糊图片、所述至少一个梯度特征图和所述特征频谱进行特征提取处理,得到M个视觉特征向量,其中,所述至少一个梯度特征图用于为所述特征提取子网络提供对应的嘴部模糊图片中模糊区域和非模糊区域的范围。
例如,在本公开至少一实施例提供的视频处理方法中,所述嘴部特征信息还包括多个嘴部关键点,利用所述解码生成子网络对所述M个视觉特征向量进行处理,得到M个目标帧,包括:利用所述解码生成子网络对每个视觉特征向量进行处理,生成带有嘴部区域的中间帧;利用所述多个嘴部关键点对所述中间帧的嘴部区域的位置和图像信息进行修正,得到所述视觉特征向量对应的目标帧。
本公开至少一实施例提供一种神经网络的训练方法,其中,所述神经网络包括视频处理网络,所述训练方法包括:获取训练视频和与所述训练视频匹配的训练音频片段,其中,所述训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域;对所述训练视频进行预处理,得到所述训练视频对应的嘴部特征信息;基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练。
例如,在本公开至少一实施例提供的神经网络的训练方法中,所述视频处理网络包括特征提取子网络,基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,包括:对所述训练音频片段进行频谱转换处理,得到训练特征频谱;利用所述训练特征频谱和所述嘴部特征信息,对待训练的特征提取子网络进行训练,以得到训练好的所述特征提取子网络。
例如,在本公开至少一实施例提供的神经网络的训练方法中,所述嘴部特征信息包括至少一个嘴部模糊图片,利用所述训练特征频谱和所述嘴部特征信息对待训练的所述特征提取子网络进行训练,以得到训练好的所述特征提取子网络,包括:利用所述待训练的特征提取子网络对所述训练特征频谱和所述至少一个嘴部模糊图片进行处理,得到训练视觉特征向量和训练音频特征向量;根据所述训练视觉特征向量和所述训练音频特征向量,通过所述特征提取子网络对应的损失函数计算所述特征提取子网络的损失值;基于所述损失值对所述待训练的特征提取子网络的参数进行修正;以及在所述待训练的特征提取子网络对应的损失值不满足预定准确率条件时,继续输入所述训练特征频谱和所述至少一个嘴部模糊图片以重复执行上述训练过程。
例如,在本公开至少一实施例提供的神经网络的训练方法中,所述嘴部特征信息包括至少一个嘴部模糊图片,所述视频处理网络还包括解码生成子网络,基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,还包括:利用训练好的所述特征提取子网络对所述训练特征频谱和所述至少一个嘴部模糊图片进行处理,得到至少一个目标视觉特征向量;根据所述至少一个目标视觉特征向量以及所述训练视频,对所述解码生成子网络进行训练。
例如,在本公开至少一实施例提供的神经网络的训练方法中,所述嘴部特征信息还包括多个嘴部关键点,根据所述至少一个目标视觉特征向量以及所述训练视频,对所述解码生成子网络进行训练,包括:利用所述多个嘴部关键点提供的嘴部位置信息,结合所述至少一个目标视觉特征向量对所述解码生成子网络进行训练。
例如,在本公开至少一实施例提供的神经网络的训练方法中,所述神经网络还包括判别子网络,所述判别子网络和所述解码生成子网络构成生成式对抗网络,在对所述解码生成子网络训练的过程中,对所述生成式对抗网络进行交替迭代训练,以得到训练好的所述解码生成子网络。
本公开至少一实施例提供一种视频处理装置,包括:获取单元,配置为获取至少一个帧图像和音频片段,其中,每个帧图像包括至少一个对象,每个对象包括面部区域;预处理单元,配置为对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息;视频处理单元,配置为基于所述嘴部特征信息和所述音频片段,使用视频处理网络对所述至少一个帧图像进行处理,得到目标视频,其中,所述目标视频中的对象与所述音频片段具有同步的嘴型变化,其中,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
本公开至少一实施例提供一种神经网络的训练装置,包括:训练数据获取单元,配置为获取训练视频和与所述训练视频匹配的训练音频片段,其中,所述训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域;预处理单元,配置为对所述训练视频进行预处理,得到所述面部区域的嘴部特征信息;训练单元,配置为基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,其中,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
本公开至少一实施例提供一种电子设备,包括:存储器,非瞬时性地存储有计算机可执行指令;处理器,配置为运行所述计算机可执行指令,其中,所述计算机可执行指令被所述处理器运行时实现根据本公开任一实施例所述的视频处理方法或本公开任一实施例所述的训练方法。
本公开至少一实施例提供一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现根据本公开任一实施例所述的视频处理方法或本公开任一实施例所述的训练方法。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本公开的一些实施例,而非对本公开的限制。
图1为本公开一实施例提供的一种视频处理方法的流程图;
图2A为本公开至少一实施例提供的嘴部模糊处理的过程示意图;
图2B为本公开至少一实施例提供的帧图像的示意图;
图2C为本公开至少一实施例提供的嘴部模糊图片;
图3为本公开至少一实施例提供的视频处理方法的流程图;
图4为本公开至少一实施例提供的特征频谱的示意图;
图5为本公开一实施例提供的一种神经网络的训练方法的流程图;
图6为本公开一实施例提供的一种神经网络的结构示意图;
图7为本公开至少一实施例提供的一种视频处理装置的示意性框图;
图8为本公开至少一实施例提供的一种训练装置的示意性框图;
图9为本公开一实施例提供的一种电子设备的示意性框图;
图10为本公开至少一实施例提供的一种非瞬时性计算机可读存储介质的示意图;
图11为本公开至少一实施例提供的一种硬件环境的示意图。
具体实施方式
为了使得本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。为了保持本公开实施例的以下说明清楚且简明,本公开省略了部分已知功能和已知部件的详细说明。
目前,嘴型同步通常有两种实现方式。一种是人工方式进行重建,例如通过图像处理软件,例如photoshop等,对视频中的所有帧图像按照当前音频内容逐个修改嘴型状态,但实现这样的效果需要经历非常复杂的实现过程,耗时长且需要耗费巨大的人力物力。另一种方式是利用嘴型同步模型(例如Wav2Lip等嘴型生成模型)进行嘴型重建,输入模型的图像的嘴部区域被执行抠图处理,之后再进行嘴型重建,这种方式需要网络对嘴型进行从无到有的创造,由于在模型训练过程中,模型既要掌握脸部轮廓的区域,又要掌握嘴部的轮廓,那么模型需要掌握的范围过大,难以训练收敛。
本公开至少一实施例提供一种视频处理方法,包括:获取至少一个帧图像和音频片段,其中,每个帧图像包括至少一个对象,每个对象包括面部区域;对至少一个帧图像进行预处理,得到面部区域的嘴部特征信息;基于嘴部特征信息和音频片段,使用视频处理网络对至少一个帧图像进行处理,得到目标视频,其中,目标视频中的对象具有与音频片段同步的嘴型变化,嘴部特征信息至少用于向视频处理网络提供每个对象的面部区域和嘴部的基本轮廓,以及每个对象的面部区域和嘴部的位置关系。
在该实施例的视频处理方法中,利用嘴部特征信息辅助视频处理网络得到目标视频,目标视频具有对应于音频片段的同步嘴型变化,相比于传统方式直接利用网络去做从无到有的创造,该方法利用嘴部特征信息向视频处理网络提供每个对象的面部区域与嘴部的基本轮廓,以及每个对象的面部区域和嘴部的位置关系,方便网络生成更加准确的嘴部区域,所得到的目标视频的嘴型部分匹配度更高,准确度也更高。
本公开至少一实施例提供的视频处理方法可应用于本公开实施例提供的视频处理装置,该视频处理装置可被配置于电子设备上。该电子设备可以是个人计算机、移动终端等,该移动终端可以是手机、平板电脑、笔记本电脑等硬件设备。
下面结合附图对本公开的实施例进行详细说明,但是本公开并不限于这些具体的实施例。
图1为本公开一实施例提供的一种视频处理方法的流程图。
如图1所示,本公开至少一实施例提供的视频处理方法包括步骤S10至步骤S30。
在步骤S10,获取至少一个帧图像和音频片段。
在步骤S20,对至少一个帧图像进行预处理,得到面部区域的嘴部特征信息。
在步骤S30,基于嘴部特征信息和音频片段,使用视频处理网络对至少一个帧图像进行处理,得到目标视频。
例如,目标视频中的对象具有与音频片段同步的嘴型变化。
例如,嘴部特征信息至少用于向视频处理网络提供每个对象的面部区域和嘴部的基本轮廓,以及每个对象的面部区域和嘴部的位置关系。
例如,每个帧图像包括至少一个对象,每个对象包括面部区域。
例如,可以获取一张静态的带有对象的图像作为帧图像,之后,基于该帧图像和音频片段,生成目标视频,在目标视频中,对象具有与音频片段同步的嘴型变化。
例如,也可以获取一段预先录制、生成或制作的视频,该视频包括多个视频帧,视频帧中包括至少一个对象,将多个视频帧作为多个帧图像,之后,基于多个帧图像和音频片段,生成目标视频。
例如,对象可以包括真实人物、二维或三维动画人物、拟人化动物、仿生人等,这些对象均具有完整的面部区域,例如,面部区域包括嘴部、鼻子、眼睛、下巴等部位。
例如,音频片段为目标视频中对象讲话的内容,例如,在动画配音领域,音频片段可以是动画人物的配音内容。
例如,在一个实施例中,可以预先录制一段视频,例如,在视频中,主讲老师会先面对镜头说“××的小朋友大家好”,这里,××表示地区。此时,录制好的视频中包括的多个视频帧即为多个帧图像,主讲老师即为帧图像包括的对象。当视频播放的位置所获得的IP为A地区的IP时,例如,A地区为北京,则音频片段为“北京的小朋友大家好”;例如,A地区为天津,则音频片段为“天津的小朋友大家好”。
例如,在另一些实施例中,在预先录制的视频中,主讲老师会面对镜头说“×××同学获得第一名,×××同学获得第二名”。此时,录制好的视频中包括的多个视频帧即为多个帧图像,主讲老师即为帧图像包括的对象。根据获取的榜单结果,例如张三为第一名,李四为第二名,则音频片段为“张三同学获得第一名,李四同学获得第二名”。
例如,音频片段可以是由用户预先录制好的语音片段,也可以是由文字片段转换成的语音片段,本公开对音频片段的获取方式不作限制。
例如,帧图像可以是拍摄得到的原始图像,也可以是对原始图像进行图像处理后的处理后图像,本公开对此不作限制。
例如,嘴部特征信息包括至少一个嘴部模糊图片,例如,嘴部模糊图片用于向视频处理网络提供每个对象的面部区域和嘴部的基本轮廓,以及每个对象的面部区域和嘴部的位置关系。
例如,步骤S20可以包括:利用嘴部模糊模型对每个帧图像中的对象的嘴部进行模糊处理,得到每个帧图像对应的嘴部模糊图片。
例如,嘴部模糊图片通过对帧图像中对象的嘴部进行模糊处理得到,也即将帧图像中对象的嘴部区域模糊化,从而给视频处理网络提供面部区域与嘴部区域的基本轮廓,以及每个对象的面部区域和嘴部的位置关系,保留图片大部分结构,方便网络生成更准确的嘴部图像,并为视频处理网络在处理过程中增加嘴部位置回归,增强嘴型生成的鲁棒性。
例如,利用嘴部模糊模型对每个帧图像中的对象的嘴部进行模糊处理,得到每个帧图像对应的嘴部模糊图片,可以包括:对帧图像进行第一色彩空间转换,得到第一转换图像;提取第一转换图像中的嘴部区域,对嘴部区域进行第一滤波处理,得到帧图像对应的嘴部模糊图片。
例如,第一色彩空间为HSI色彩空间,这里,H表示色调(Hue)、S表示色饱和度(Saturation或Chroma),I表示亮度(Intensity或Brightness),HSI色彩空间利用H分量、S分量和I分量来描述色彩。
例如,将帧图像从RGB色彩空间转换为HSI色彩空间,也即将每个像素点的值由原先的R分量(红色分量)、G分量(绿色分量)和B分量(蓝色分量)转换为H分量、S分量和I分量,具体转换公式如下所示:
其中,I表示HSI色彩空间中的I分量,S表示HSI色彩空间中的S分量,H表示HSI色彩
空间中的H分量,R表示RGB色彩空间中的R分量,G表示RGB色彩空间中的G分量,B表示RGB色
彩空间中的B分量,min(*)表示最小值函数,表示角度参数。
经过HSI色彩空间转换后,由于嘴唇通常为红色,在HSI色彩空间中的H分量对红色区域更加敏感,因此,嘴部区域的H分量较大,可以将第一转换图像中H分量大于预设阈值的区域提取出来作为嘴部区域,对嘴部区域进行均值滤波处理,将滤波结果作为帧图像对应的嘴部模糊图片。
例如,为增加红色区域在H分量中的权重,本公开对角度参数的计算公式进行了修改,如下式所示:
例如,若帧图像中的对象为人物等具有皮肤区域的对象,则可以在上述过程的基础上,进一步提取皮肤区域,选择皮肤区域中包括嘴部的预设区域,对预设区域进行滤波处理,将两次滤波处理结果合成,获得嘴部模糊化的嘴部模糊图片,增强模糊效果。
例如,利用嘴部模糊模型对每个帧图像中的对象的嘴部进行模糊处理,得到每个帧图像对应的嘴部模糊图片,可以包括:对帧图像进行第一色彩空间转换,得到第一转换图像;提取第一转换图像中的嘴部区域,对嘴部区域进行第一滤波处理,得到第一中间模糊图像;对帧图像进行第二色彩空间转换,得到第二转换图像;提取第二转换图像中的皮肤区域,从皮肤区域中选择包括嘴部的预设区域;对预设区域进行第二滤波处理,得到第二中间模糊图像;对第一中间模糊图像和第二中间模糊图像进行合成处理,得到帧图像对应的嘴部模糊图片。
例如,第二色彩空间为YCbCr色彩空间。YCbCr颜色空间中的“Y”表示明亮度,也就是像素点的灰阶值;而“Cr”和“Cb”表示的则是色度,作用是描述影像色彩及饱和度,用于指定像素点的颜色,其中,“Cr”反映了RGB输入信号中的红色部分与RGB信号亮度值之间的差异,也即像素点的红色色度分量,而“Cb”反映的是RGB输入信号中的蓝色部分与RGB信号亮度值之间的差异,也即像素点的蓝色色度分量。RGB信号亮度值通过将RGB输入信号的特定部分叠加到一起得到。
目前,一般图像都是基于RGB(红绿蓝)颜色空间的,在RGB颜色空间里人体图像的肤色受亮度影响相当大,所以肤色点很难从非肤色点中分离出来,也就是说,在RGB颜色空间处理过的人脸图像,肤色点是离散的点,中间嵌有很多非肤色点,这为肤色区域标定(例如人脸标定、眼睛标定等)带来了难题。人脸检测中常常用到YCbCr色彩空间,因为把RGB颜色空间转为YCbCr色彩空间可以忽略亮度的影响,而且由于YCbCr色彩空间受亮度影响很小,肤色会产生很好的类聚,从而可以把三维的颜色空间映射为二维的CbCr平面,使得肤色点形成一定的形状,以达到根据肤色识别人体图像的目的。也就是说,YCbCr色彩空间就是一个单独把亮度分离开来的颜色模型,使用该颜色模型可以使得肤色点不会受到光线亮度影响而导致难以分离。
例如,将帧图像映射至YCbCr色彩空间,以得到映射后图像;接着,将映射后图像在CbCr平面进行投影,以得到肤色样本图像,该肤色样本图像包括对应于帧图像像素点的肤色样本点;最后,遍历该肤色样本图像,在遍历肤色样本图像过程中,若肤色样本点位于皮肤像素点椭圆边界及椭圆内,判断肤色样本点对应的帧图像中像素点属于皮肤区域,若肤色样本点不位于皮肤像素点椭圆边界及椭圆内,判断肤色样本点对应的帧图像中像素点不属于皮肤区域,由此,提取第二转换图像中的皮肤区域。
例如,在一些实施例中,可以利用面部关键点检测模型对帧图像进行处理,得到多个面部关键点,根据面部关键点的位置确定帧图像中对象的脸部是否是眼睛在帧图像的上侧,下巴在帧图像的下侧,若是,则说明对象的脸部方向正常,嘴部区域位于帧图像的下侧部分,此时,可以提取皮肤区域中的预设坐标区间,例如,提取对象的皮肤区域中的下半部分区域,作为包括嘴部的预设区域;若不是,则说明对象的脸部方向不正常,对帧图像进行旋转之后提取皮肤区域中的预设坐标区间,得到包括嘴部的预设区域。
例如,在一些实施例中,可以根据皮肤区域中的皮肤比例,确定包括嘴部的预设区域。例如,下巴部分只有嘴部,皮肤比例较高,而额头部分有头发等非皮肤区域,皮肤比例较低,由此,可以根据皮肤比例确定帧图像中对象的脸部是否是眼睛在上,下巴在下,例如,若皮肤比例高的部分位于帧图像的下侧部分,则说明对象的脸部方向正常,之后,参考如前所述的提取过程,提取皮肤区域中包括嘴部的预设区域,例如,若皮肤比例高的部分位于帧图像的上侧部分,则说明对象的脸部方向不正常,对帧图像进行旋转之后参考如前所述的提取过程,提取皮肤区域中包括嘴部的预设区域。
例如,在提取到预设区域后,对预设区域进行均值滤波,将滤波结果作为第二中间模糊图像。
例如,将帧图像由RGB色彩空间转换为HSI色彩空间,得到第一转换图像,将第一转换图像中H分量大于预设阈值的区域提取出来作为嘴部区域,对嘴部区域进行均值滤波处理,将滤波结果作为第一中间模糊图像。
例如,在得到第一中间模糊图像和第二中间模糊图像之后,对第一中间模糊图像和第二中间模糊图像进行合成处理,例如,将对应位置的像素点进行加和处理,得到帧图像对应的嘴部模糊图片。例如,加和处理可以采用等权重相加,以防止像素值过大,例如,可以设置一个0到1之间的小数作为权重值(例如0.5),将第一中间模糊图像和第二中间模糊图像对应位置的像素点分别乘以权重值之后再相加,以得到嘴部模糊图片中对应位置的像素点的像素值。
例如,当帧图像中包括多个对象时,分别对各个对象执行上述模糊处理过程,以使得各个对象的嘴部均被模糊化。
图2A为本公开至少一实施例提供的嘴部模糊处理的过程示意图。下面结合图2A,具体说明嘴部模糊处理的执行过程。
在获得帧图像之后,对帧图像进行第一色彩空间转换,也即将帧图像转换至HSI色彩空间,得到第一转换图像,具体过程如前所述,这里不再赘述。
之后,提取第一转换图像中的嘴部区域,例如,根据H分量提取嘴部区域,具体过程如前所述,这里不再赘述。
之后,对嘴部区域进行均值滤波,得到第一中间模糊图像。
同时,对帧图像进行第二色彩空间转换,也即将帧图像转换至YCbCr色彩空间,得到第二转换图像。
之后,提取第二转换图像中的皮肤区域,具体过程如前所述,这里不再赘述。
之后,提取包括嘴部的预设区域,具体过程如前所述,这里不再赘述。
之后,对预设区域进行均值滤波,得到第二中间模糊图像。
最后,将第一中间模糊图像和第二中间模糊图像进行合成处理,得到帧图像对应的嘴部模糊图片。
图2B为本公开至少一实施例提供的帧图像的示意图。如图2B所示,该帧图像中包括一个对象,该对象具有完整的面部区域。
图2C为本公开至少一实施例提供的嘴部模糊图片,该嘴部模糊图片为对图2B所示的帧图像中对象的嘴部进行模糊处理得到。如图2C所示,在嘴部模糊图片中,对象的脸部下半部分区域被模糊处理,但仍可以看出脸部与嘴巴的基本轮廓和位置,相比于传统方式将嘴部进行抠图处理来说,图片的大部分结构得到保留,从而方便网络基于相关信息生成更准确的嘴部图像。
需要说明的是,在图2B与图2C中对眼睛部分进行马赛克处理以保护隐私,实际处理不涉及这个过程。
由于输入视频处理网络的是对嘴部区域进行模糊处理的嘴部模糊图片,相比于其他方法,嘴部模糊图片提供了嘴部和面部的基本轮廓,可以帮助视频处理网络生成更加准确的嘴部图像。但是,视频处理网络不清楚哪个区域是模糊区域,哪个区域是清晰区域,而且每个帧图像中的嘴部位置可能都不同,这会使得模型的处理效果难以提升。
例如,在模糊区域中的物体的轮廓不明显,轮廓边缘灰度变化不强烈,从而导致层次感不强,而在清晰区域中的物体轮廓边缘灰度变化明显,层次感强。梯度表示某个像素点的方向倒数,通过梯度值的变化可以确定嘴部模糊图片中的轮廓边缘,从而确定嘴部模糊图片中的模糊区域(例如嘴部模糊图片中进行模糊处理的区域)和非模糊区域(例如嘴部模糊图片中未进行模糊处理的区域)的范围。
例如,嘴部特征信息还可以包括至少一个嘴部模糊图片分别对应的至少一个梯度特征图,梯度特征图用于向视频处理网络提供该梯度特征图对应的嘴部模糊图片中模糊区域和非模糊区域的范围,从而视频处理网络可以得到更加准确的嘴部位置范围,降低图像噪声带来的干扰,并且在训练阶段便于模型快速收敛。
例如,步骤S20还可以包括:对至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,其中,嘴部特征信息还包括至少一个嘴部模糊图片分别对应的至少一个梯度特征图。
例如,针对每个嘴部模糊图片,该嘴部模糊图片对应的梯度特征图由该嘴部模糊图片包括的各个像素点分别对应的梯度值组成。
例如,对至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,可以包括:获取每个嘴部模糊图片对应的灰度图;获取第一卷积核和第二卷积核,其中,第一卷积核的尺寸小于第二卷积核的尺寸,第一卷积核中的所有元素之和为0,第二卷积核中的所有元素之和为0;将灰度图与第一卷积核和第二卷积核进行卷积处理,得到每个嘴部模糊图片对应的梯度图。
例如,若嘴部模糊图片为彩色图片,则对嘴部模糊图片进行灰度处理,以得到嘴部模糊图片对应的灰度图。
例如,通常计算梯度图时,利用第一卷积核A1与灰度图进行卷积处理,第一卷积核
A1中的所有元素之和为0,第一卷积核A1的尺寸通常为33。本公开在此基础上,提供第二
卷积核A2参与梯度特征图的处理,第二卷积核A2中的所有元素之和也为0,第二卷积核A2的
尺寸大于第一卷积核A1的尺寸,例如,第二卷积核A2的尺寸为55或77,从而利用第二卷
积核A2将梯度特征提取的感受野扩大,降低噪声干扰的影响,减少嘴部模糊图片中的噪声,
降低噪声对后续特征提取子网络进行特征提取的影响。
例如,第一卷积核A1如下公式所示:
例如,第二卷积核A2如下公式所示:
例如,梯度特征图O的计算公式如下:
O=I⨂A1⨂A2 (公式5)
其中,I表示灰度图,表示卷积计算⨂。
需要说明的是,上述第一卷积核A1和第二卷积核A2仅为示意,例如,只要满足第一卷积核A1中所有元素之和为0,第二卷积核A2中所有元素之和为0,第一卷积核的尺寸小于第二卷积核的尺寸即可,本公开对此不做具体限制。
例如,嘴部特征信息还可以包括多个嘴部关键点。例如,多个嘴部关键点用于在生成目标视频中对象的嘴型过程中,辅助确定嘴部的精确位置。也就是说,在嘴部特征信息还多个嘴部关键点时,嘴部特征信息还用于向视频处理网络提供每个对象的嘴部的位置。
如果只用嘴部模糊图片辅助生成目标视频,则目标视频中嘴部位置可能定位不太准确,用嘴部关键点可以辅助提高嘴部位置精度。此外,嘴部关键点可以使得视频处理网络只关注嘴部和周围肌肉的信息,不用额外学习整体脸部轮廓、方向与构造等的信息,因此,利用嘴部模糊图片结合嘴部关键点能够有效地提高最终生成的目标视频中对象口型变化及位置的准确率。
例如,步骤S20还可以包括:利用面部关键点检测模型对每个帧图像进行处理,得到多个面部关键点;提取多个面部关键点中与嘴部相关的多个嘴部关键点。
例如,当帧图像中的对象为人物时,面部关键点检测模型可以采用人脸关键点检测模型,人脸关键点检测模型对帧图像中的人脸进行处理,得到每个帧图像分别对应的多个面部关键点,这些面部关键点可以包括眼睛、鼻子、嘴巴等部位相关的多个关键点。之后,从多个面部关键点中提取与嘴部相关的多个嘴部关键点,并获取多个嘴部关键点的位置坐标。例如,这里的多个嘴部关键点包括所有帧图像分别对应的多个嘴部关键点,例如,每个帧图像可以得到25个嘴部关键点,帧图像一共有10帧,则共有250个嘴部关键点输入解码生成子网络作为辅助以确定嘴部的精确位置。
例如,视频处理网络包括特征提取子网络和解码生成子网络。
例如,步骤S30可以包括:对音频片段进行频谱转换处理,得到特征频谱;利用特征提取子网络对至少一个嘴部模糊图片和特征频谱进行特征提取处理,得到M个视觉特征向量,其中,M个视觉特征向量与音频片段相匹配,M为正整数且小于等于至少一个嘴部模糊图片的数量;利用解码生成子网络对M个视觉特征向量进行处理,得到M个目标帧,其中,M个目标帧与音频片段中M个时点一一对应,且M个目标帧中每个目标帧具有与音频片段中对应时点对应的嘴型;根据M个目标帧得到目标视频。
例如,对音频片段进行频谱转换处理时,可以提取音频片段的梅尔倒谱系数(Mel-scale Frequency Cepstral Coefficients,简称MFCC)作为特征频谱。在语音识别领域,MFCC是将语音物理信息(例如频谱包络和细节)进行编码运算得到的一组特征向量,这组特征向量可以理解为包括m1个n1维特征向量,这里,音频片段包括m1个音频帧,每个音频帧转换为n1维特征向量,由此,得到n1*m1的矩阵向量作为特征频谱。
图3为本公开至少一实施例提供的特征频谱的示意图。如图3所示,该特征频谱的横坐标表示时间,也即表示音频片段包括40个音频帧,纵坐标表示MFCC特征向量,位于同一列的表示一组特征向量,不同灰度表示不同的强度。
当然,也可以采用其他提取频谱特征的方式对音频片段进行处理,以得到特征频谱,本公开对此不作限制。
需要说明的是,在本公开中,视频与音频片段匹配是指,视频包括的帧图像中对象的嘴型应当是与该帧图像对应同一时点的音频中的内容的形状。例如,音频片段内容为“生日快乐”,则视频中的嘴型变化应当与对象说出“生日快乐”时的嘴型相匹配。
例如,M个视觉特征向量与音频片段相匹配,表示M个视觉特征向量与音频片段同步。由于在训练阶段会使得特征提取子网络输出的音频特征向量(表示音频片段的特征信息,具体参见后文描述)和视觉特征向量一致,因此,特征频谱和所有帧图像对应的所有嘴部模糊图片输入特征提取子网络后,所输出的M个视觉特征向量与音频特征向量是基本相同的向量,从而实现与音频片段相匹配。
例如,利用特征提取子网络对至少一个嘴部模糊图片和特征频谱进行特征提取处理,得到M个视觉特征向量,可以包括;将至少一个嘴部模糊图片依序分成M组,利用特征提取网络提取每组对应的视觉特征向量,以得到M个视觉特征向量。
例如,帧图像的数量为y个,对y个帧图像进行模糊处理后得到y个嘴部模糊图片。之后,将y个嘴部模糊图片按照显示时点顺序,每x个嘴部模糊图片构成一组,共得到M=y/x组嘴部模糊图片,这里,x和y均为正整数。之后,将M组嘴部模糊图片依次输入特征提取子网络,得到每组嘴部模糊图片对应的视觉特征向量,从而得到M个视觉特征向量。
在帧图像的数量比较多的情况下,如果不进行上述分组处理,可能使得视频处理网络训练难度增加,且网络不易收敛。考虑对象在讲话过程中嘴型不会迅速发生变化,每个发音会持续一段时间,因此可以对帧图像进行分组处理,在不影响最终效果的前提下,降低网络训练过程中的难度,更易得到收敛的网络。
例如,在嘴部特征信息还包括至少一个嘴部模糊图片分别对应的至少一个梯度特征图时,利用特征提取子网络对至少一个嘴部模糊图片和特征频谱进行特征提取处理,得到M个视觉特征向量,可以包括:利用特征提取子网络对至少一个嘴部模糊图片、至少一个梯度特征图和特征频谱进行特征提取处理,得到M个视觉特征向量,其中,至少一个梯度特征图用于为特征提取子网络提供对应的嘴部模糊图片中模糊区域和非模糊区域的范围。
例如,嘴部模糊图片为彩色图像,则每个像素点的像素值包括一组RGB像素值,因而特征提取子网络的输入通道数至少为3,分别对应R通道、G通道以及B通道。例如,对应R通道、G通道以及B通道增加一个输入通道,在得到嘴部模糊图片对应的梯度特征图后,将梯度特征图由该增加的输入通道输入特征提取子网络,也即特征提取子网络的输入大小为M*N*4,其中,M表示嘴部模糊图片的宽度,N表示嘴部模糊图片的高度,4表示4个输入通道。
例如,若依序对多个嘴部模糊图片进行分组,则对梯度特征图也进行相同的分组,嘴部模糊图片和与其对应的梯度特征图一起输入特征提取子网络进行处理。
例如,在嘴部特征信息还包括多个嘴部关键点时,利用解码生成子网络对M个视觉特征向量进行处理,得到M个目标帧,可以包括:利用解码生成子网络对每个视觉特征向量进行处理,生成带有嘴部区域的中间帧;利用多个嘴部关键点对中间帧的嘴部区域的位置和图像信息进行修正,得到视觉特征向量对应的目标帧。
若嘴部特征信息仅包括嘴部模糊图片,则生成的视觉特征向量中的嘴部仍然是模糊状态,而解码生成子网络不能够直接像人类的认知一样懂得脸部的构造与大致形状,经过解码生成子网络生成的带有嘴部区域的图片中嘴部位置可能不太准确,因此,可以利用多个嘴部关键点辅助提高嘴部位置的精度,辅助网络生成更逼真的图片。
例如,图像信息包括嘴部区域周围的肌肉等图像信息。例如,利用嘴部关键点可以定位嘴部在帧图像中的位置,从而利用嘴部关键点可以辅助解码生成子网络只关注嘴部及其周围肌肉等图像信息,不需要再额外学习整体脸部轮廓、方向与构造等信息,因此,嘴部关键点结合嘴部模糊图片可以有效提高目标帧中生成的嘴部区域的准确率。
例如,特征提取子网络和解码生成子网络可以采用卷积神经网络等,本公开对特征提取子网络和解码生成子网络的结构不作限制。
图4为本公开至少一实施例提供的视频处理方法的流程图。下面结合图4,具体说明本公开一实施例提供的视频处理方法的执行过程。
如图4所示,首先获取音频片段和帧图像,关于音频片段和帧图像的相关内容可以参考步骤S10的描述,这里不再赘述。
对每个帧图像包括的所有对象的嘴部进行模糊处理,得到每个帧图像对应的嘴部模糊图片,对每个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,并且对每个帧图像利用面部关键点检测模型进行处理,得到多个嘴部关键点,关于嘴部模糊图片、梯度特征图和嘴部关键点的生成过程可以参考步骤S20的相关描述,重复之处不再赘述。
之后,将特征频谱和依序划分成M组的嘴部模糊图片和梯度特征图输入特征提取子网络,得到M个视觉特征向量。
之后,将M个视觉特征向量和多个嘴部关键点输入解码生成子网络进行处理,得到M个目标帧,M个目标帧中每个目标帧具有与音频片段中对应时点相对应的嘴型,例如,音频片段为“生日快乐”,则M个目标帧中对象的嘴型跟随音频片段依次显示为“生日快乐”的嘴型。
之后,将M个目标帧按照显示时点顺序依次排列,得到目标视频。
本公开至少一实施例还提供一种神经网络的训练方法。图5为本公开一实施例提供的一种神经网络的训练方法的流程图。
如图5所示,本公开至少一实施例提供的神经网络的训练方法包括步骤S40至步骤S60。例如,神经网络包括视频处理网络。
步骤S40,获取训练视频和与训练视频匹配的训练音频片段。
例如,训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域。
步骤S50,对训练视频进行预处理,得到训练视频对应的嘴部特征信息。
步骤S60,基于嘴部特征信息和训练音频片段,对视频处理网络进行训练。
例如,训练视频可以是带有嘴型变化的视频,并且,训练视频中的嘴型变化即为训练音频片段的内容。例如,训练视频可以是讲话人对着镜头说“生日快乐”,训练帧图像中的对象即为讲话人,训练帧图像包括讲话人的面部区域,训练音频片段为“生日快乐”。
例如,关于训练帧图像、对象、面部区域的具体概念可以参考前述步骤S10中关于帧图像、对象、面部区域的描述,重复之处不再赘述。
例如,嘴部特征信息可以包括与各个训练帧图像分别对应的嘴部模糊图片,关于获得嘴部模糊图片的过程可以参考步骤S20的相关描述,这里不再赘述。
例如,嘴部特征信息可以包括与各个嘴部模糊图片分别对应的梯度特征图,关于获得梯度特征图的过程可以参考步骤S20的相关描述,这里不再赘述。
例如,嘴部特征信息还可以包括多个嘴部关键点,关于获得多个嘴部关键点的过程可以参考步骤S20的相关描述,这里不再赘述。
如前所述,嘴部特征信息用于提供面部和嘴部的大致轮廓,以及面部和嘴部之间的位置关系,由于嘴部模糊图片仍然保留了图片的整体轮廓,网络不需要再去做从无到有的创造,方便网络快速收敛,加快网络训练进程,降低训练难度和时间开销。
例如,如前所述,梯度特征图用于提供梯度特征图对应的嘴部模糊图片中模糊区域和非模糊区域的范围,为视频处理网络提供更多的限定参数,便于特征提取子网络确定准确的嘴部位置,降低图像噪声干扰,方便网络快速收敛,加快网络训练进程,降低训练难度和时间开销。
此外,如前所述,嘴部关键点用于提供嘴部位置信息,使得网络在训练过程中主要考虑嘴部及其周围的肌肉等图像信息,不需要再学习整体面部轮廓、方向与构造等信息,有效提高训练效率,并可以得到准确率更高的视频处理网络。
例如,视频处理网络包括特征提取子网络和解码生成子网络。例如,在训练视频处理网络时,先对特征提取子网络进行训练,在特征提取子网络训练完成后,再结合训练好的特征提取子网络对解码生成子网络进行训练,也即在解码生成子网络的训练过程中,特征提取子网络中的权重参数不发生变化,只更新解码生成子网络的参数。
例如,步骤S60可以包括:对训练音频片段进行频谱转换处理,得到训练特征频谱;利用训练特征频谱和嘴部特征信息,对待训练的特征提取子网络进行训练,以得到训练好的特征提取子网络。
例如,可以提取训练音频片段的梅尔倒谱系数作为训练特征频谱。
例如,利用训练特征频谱和嘴部特征信息,对待训练的特征提取子网络进行训练,以得到训练好的特征提取子网络,可以包括:利用待训练的特征提取子网络对训练特征频谱和至少一个嘴部模糊图片进行处理,得到训练视觉特征向量和训练音频片段特征向量;根据训练视觉特征向量和训练音频特征向量,通过特征提取子网络对应的损失函数计算特征提取子网络的损失值;基于损失值对待训练的特征提取子网络的参数进行修正;以及在待训练的特征提取子网络对应的损失值不满足预定准确率条件时,继续输入训练特征频谱和至少一个嘴部模糊图片以重复执行上述训练过程。
例如,在训练特征子网络的过程中,还可以输入每个嘴部模糊图片对应的梯度特征图,具体输入过程参考视频处理方法中的相关介绍,这里不再赘述。
特征提取子网络的训练目标是输出的视觉特征向量与音频特征向量相匹配,关于匹配的概念参考如前所述的内容。例如,视觉特征向量中的第i个特征元素和音频特征向量中的第i个特征元素应当是匹配的,体现在特征值上就是视觉特征向量和音频特征向量特征值很接近或一致。因此,在训练时,利用训练视觉特征向量和训练音频特征计算损失值,基于损失值对特征提取子网络的参数进行修正,从而使得训练好的特征提取子网络输出的视觉特征向量与音频特征向量一致。
在特征提取子网络训练完成后,步骤S60还可以包括:利用训练好的特征提取子网络对训练特征频谱和至少一个嘴部模糊图片进行处理,得到至少一个目标视觉特征向量;根据至少一个目标视觉特征向量以及训练视频,对解码生成子网络进行训练。
例如,根据至少一个目标视觉特征向量以及训练视频,对解码生成子网络进行训练,可以包括:利用多个嘴部关键点提供的嘴部位置信息,结合至少一个目标视觉特征向量对解码生成子网络进行训练。例如,在这个过程中,利用嘴部关键点辅助训练,使得嘴型位置更加准确。关于嘴部关键点的具体技术效果参考如前所述的内容,这里不再赘述。
例如,神经网络还包括判别子网络,判别子网络和解码生成子网络构成生成式对抗网络(Generative Adversarial Networks,简称GAN),在对解码生成子网络训练的过程中,对生成式对抗网络进行交替迭代训练,以得到训练好的解码生成子网络。
例如,解码生成子网络充当生成式对抗网络中生成器(Generator)的角色,生成图像以“骗过”判别器,判别子网络充当生成式对抗网络中判别器(Discriminator)的角色,判断解码生成子网络生成的图像的真实性。例如,在训练过程中,首先让生成器不断生成图像数据由判别器判断,这个过程判别器的参数不作调整,只对生成器进行训练和参数调整,直到判别器无法判断生成器生成图像的真实性;之后,固定生成器的参数,继续训练判别器,直到判别器可以准确判断生成器生成图像的真实性;之后,不断循环上述过程,直到生成器和判别器的生成、判别能力越来越强,从而得到一个生成效果最优的生成器。
图6为本公开一实施例提供的一种神经网络的结构示意图。
如图6所示,本公开至少一实施例提供的神经网络100包括视频处理网络101和判别子网络102,视频处理网络101包括特征提取子网络1011和解码生成子网络1012,并且,解码生成子网络1012和判别子网络102构成生成式对抗网络。
下面结合图6,具体说明视频处理网络101的训练过程。
首先,先对特征提取子网络1011进行训练。例如,参考步骤S50的描述得到多个训练帧图像分别对应的多个嘴部模糊图片,以及多个嘴部模糊图片分别对应的多个梯度特征图,对训练音频片段进行频谱转换处理,得到训练特征频谱,将多个嘴部模糊图片、多个梯度特征图和特征频谱一起输入特征提取子网络1011进行处理,得到视觉特征向量和音频特征向量。之后,根据视觉特征向量和音频特征向量进行损失值计算,根据损失值调整特征提取子网络的参数,直到特征提取子网络对应的损失值满足预定准确率条件,得到训练好的特征提取子网络1011。
此时,训练好的特征提取子网络1011输出的视觉特征向量和音频特征向量保持一致。
之后,结合训练好的特征提取子网络1011对解码生成子网络1012进行训练。
例如,将多个嘴部模糊图片输入特征提取子网络1011后得到多个目标视觉特征向量,此时,目标视觉特征向量和特征提取子网络1011输出的音频特征向量是一致的。
将多个目标视觉特征向量和多个嘴部关键点输入解码生成子网络1012进行处理,得到输出帧,输出帧中对象的嘴型存在变化,但该变化可能与对应相同显示时点的训练帧图像的嘴型存在差异。
输出帧和训练帧图像输入判别子网络102,判别子网络102将训练帧图像中的嘴型作为标准,参考如前所述的过程交替训练解码生成子网络1012和判别子网络102,并且,基于二分类交叉熵损失函数计算损失值,交替对判别子网络102和解码生成子网络1012的参数进行修正,直到得到训练好的解码生成子网络1012。
在上述实施例中,由于嘴部模糊图片仍然保留了图片的整体轮廓,网络不需要再去做从无到有的创造,方便网络快速收敛,加快特征提取子网络的训练进程,降低训练难度和时间开销。梯度特征图用于提供嘴部模糊图片中的模糊区域和非模糊区域的范围,从而便于网络快速定位嘴部区域,方便网络快速收敛。此外,嘴部关键点用于提供嘴部位置信息,使得解码生成子网络在训练过程中主要考虑嘴部及其周围的肌肉等图像信息,不需要再学习整体面部轮廓、方向与构造等信息,有效提高训练效率,并可以得到准确率更高的视频处理网络。
本公开至少一实施例还提供一种视频处理装置,图7为本公开至少一实施例提供的一种视频处理装置的示意性框图。
如图7所示,视频处理装置200可以包括获取单元201、预处理单元202和视频处理单元203。这些组件通过总线系统和/或其它形式的连接机构(未示出)互连。应当注意,图7所示的视频处理装置200的组件和结构只是示例性的,而非限制性的,根据需要,视频处理装置200也可以具有其他组件和结构。
例如,这些模块可以通过硬件(例如电路)模块、软件模块或二者的任意组合等实现,以下实施例与此相同,不再赘述。例如,可以通过中央处理单元(CPU)、视频处理器(GPU)、张量处理器(TPU)、现场可编程逻辑门阵列(FPGA)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元以及相应计算机指令来实现这些单元。
例如,获取单元201用于获取至少一个帧图像和音频片段,例如,每个帧图像包括至少一个对象,每个对象包括面部区域。
例如,获取单元201可以包括存储器,存储器存储有帧图像和音频片段。例如,获取单元201可以包括一个或多个摄像头,以拍摄或录制包括多个帧图像的视频或包括对象的静态的帧图像,此外,获取单元201还可以包括录音装置,以获得音频片段。例如,获取单元201可以为硬件、软件、固件以及它们的任意可行的组合。
例如,预处理单元202用于对至少一个帧图像进行预处理,得到面部区域的嘴部特征信息。
例如,视频处理单元203可以包括视频处理网络204。视频处理单元203基于嘴部特征信息和音频片段,使用视频处理网络204对至少一个帧图像进行处理,得到目标视频,其中,目标视频中的对象与音频片段具有同步的嘴型变化。
视频处理网络204包括特征提取子网络和解码生成子网络,需要说明的是,视频处理单元203中的视频处理网络204与上述视频处理方法的实施例中的视频处理网络204的结构和功能相同,在此不再赘述。
需要说明的是,获取单元201可以用于实现图1所示的步骤S10,预处理单元202可以用于实现图1所示的步骤S20,视频处理单元203可以用于实现图1所示的步骤S30。从而关于获取单元201、预处理单元202和视频处理单元203能够实现的功能的具体说明可以参考上述视频处理方法的实施例中的步骤S10至步骤S30的相关描述,重复之处不再赘述。此外,视频处理装置200可以实现与前述视频处理方法相似的技术效果,在此不再赘述。
本公开至少一实施例还提供一种神经网络的训练装置,图8为本公开至少一实施例提供的一种训练装置的示意性框图。
如图8示,训练装置300可以包括训练数据获取单元301、预处理单元302和训练单元303。这些组件通过总线系统和/或其它形式的连接机构(未示出)互连。应当注意,图8所示的训练装置300的组件和结构只是示例性的,而非限制性的,根据需要,训练装置300也可以具有其他组件和结构。
例如,训练数据获取单元301,配置为获取训练视频和与训练视频匹配的训练音频片段。例如,训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域。
例如,预处理单元302,配置为对训练视频进行预处理,得到面部区域的嘴部特征信息。
例如,训练单元303,配置为基于嘴部特征信息和训练音频片段,对视频处理网络进行训练。
例如,训练单元303包括神经网络304、损失函数(未示出),神经网络304包括视频处理网络,训练单元303用于对待训练的神经网络304进行训练,以得到训练好的视频处理网络。
例如,视频处理网络包括特征提取子网络和解码生成子网络,神经网络304还包括判别子网络,判别子网络和解码生成子网络构成生成式对抗网络。需要说明的是,训练单元303中的神经网络304与上述神经网络的训练方法的实施例中的神经网络100的结构和功能相同,在此不再赘述。
需要说明的是,训练数据获取单元301可以用于实现图5所示的步骤S40,预处理单元302可以用于实现图5所示的步骤S50,训练单元303可以用于实现图5所示的步骤S60。从而关于训练数据获取单元301、预处理单元302和训练单元303能够实现的功能的具体说明可以参考上述视频处理方法的实施例中的步骤S40至步骤S60的相关描述,重复之处不再赘述。此外,训练装置300可以实现与前述训练方法相似的技术效果,在此不再赘述。
图9为本公开一实施例提供的一种电子设备的示意性框图。如图9所示,该电子设备400例如适于用来实施本公开实施例提供的视频处理方法或训练方法。应当注意,图9所示的电子设备400的组件只是示例性的,而非限制性的,根据实际应用需要,该电子设备400还可以具有其他组件。
如图9所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在存储器中的非暂时性计算机可读指令执行各种适当的动作和处理,以实现各种功能。
例如,计算机可读指令被处理装置401运行时可以执行根据上述任一实施例所述的视频处理方法中的一个或多个步骤。需要说明的是,关于视频处理方法的处理过程的详细说明可以参考上述视频处理方法的实施例中的相关描述,重复之处不再赘述。
例如,计算机可读指令被处理装置401运行时可以执行根据上述任一实施例所述的神经网络的训练方法中的一个或多个步骤。需要说明的是,关于训练方法的处理过程的详细说明可以参考上述训练方法的实施例中的相关描述,重复之处不再赘述。
例如,存储器可以包括一个或多个计算机程序产品的任意组合,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)403和/或高速缓冲存储器(cache)等,例如,计算机可读指令可以从存储装置408加载到随机存取存储器(RAM)403中以运行计算机可读指令。非易失性存储器例如可以包括只读存储器(ROM)402、硬盘、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、闪存等。在计算机可读存储介质中还可以存储各种应用程序和各种数据,例如风格图像、以及应用程序使用和/或产生的各种数据等。
例如,处理装置401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘、闪存等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他电子设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备400,但应理解的是,并不要求实施或具备所有示出的装置,电子设备400可以替代地实施或具备更多或更少的装置。例如,处理器401可以控制电子设备400中的其它组件以执行期望的功能。处理器401可以是中央处理单元(CPU)、张量处理器(TPU)或者图形处理器GPU等具有数据处理能力和/或程序执行能力的器件。中央处理器(CPU)可以为X86或ARM架构等。GPU可以单独地直接集成到主板上,或者内置于主板的北桥芯片中。GPU也可以内置于中央处理器(CPU)上。
图10为本公开至少一实施例提供的一种非瞬时性计算机可读存储介质的示意图。例如,如图10所示,存储介质500可以为非瞬时性计算机可读存储介质,在存储介质500上可以非暂时性地存储一个或多个计算机可读指令501。例如,当计算机可读指令501由处理器执行时可以执行根据上文所述的视频处理方法或者训练方法中的一个或多个步骤。
例如,该存储介质500可以应用于上述电子设备中,例如,该存储介质500可以包括电子设备中的存储器。
例如,存储介质可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、闪存、或者上述存储介质的任意组合,也可以为其他适用的存储介质。
例如,关于存储介质500的说明可以参考电子设备的实施例中对于存储器的描述,重复之处不再赘述。
图11为本公开至少一实施例提供的一种硬件环境的示意图。本公开提供的电子设备可以应用在互联网系统。
利用图11中提供的计算机系统可以实现本公开中涉及的图像处理装置和/或电子设备的功能。这类计算机系统可以包括个人电脑、笔记本电脑、平板电脑、手机、个人数码助理、智能眼镜、智能手表、智能指环、智能头盔及任何智能便携设备或可穿戴设备。本实施例中的特定系统利用功能框图解释了一个包含用户界面的硬件平台。这种计算机设备可以是一个通用目的的计算机设备,或一个有特定目的的计算机设备。两种计算机设备都可以被用于实现本实施例中的图像处理装置和/或电子设备。计算机系统可以包括实施当前描述的实现图像处理所需要的信息的任何组件。例如,计算机系统能够被计算机设备通过其硬件设备、软件程序、固件以及它们的组合所实现。为了方便起见,图11中只绘制了一台计算机设备,但是本实施例所描述的实现图像处理所需要的信息的相关计算机功能是可以以分布的方式、由一组相似的平台所实施的,分散计算机系统的处理负荷。
如图11所示,计算机系统可以包括通信端口250,与之相连的是实现数据通信的网络,例如,计算机系统可以通过通信端口250发送和接收信息及数据,即通信端口250可以实现计算机系统与其他电子设备进行无线或有线通信以交换数据。计算机系统还可以包括一个处理器组220(即上面描述的处理器),用于执行程序指令。处理器组220可以由至少一个处理器(例如,CPU)组成。计算机系统可以包括一个内部通信总线210。计算机系统可以包括不同形式的程序储存单元以及数据储存单元(即上面描述的存储器或存储介质),例如硬盘270、只读存储器(ROM)230、随机存取存储器(RAM)240,能够用于存储计算机处理和/或通信使用的各种数据文件,以及处理器组220所执行的可能的程序指令。计算机系统还可以包括一个输入/输出组件260,输入/输出组件260用于实现计算机系统与其他组件(例如,用户界面280等)之间的输入/输出数据流。
通常,以下装置可以连接输入/输出组件260:例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置;例如显示器(例如,LCD、OLED显示器等)、扬声器、振动器等的输出装置;包括例如磁带、硬盘等的存储装置;以及通信接口。
虽然图11示出了具有各种装置的计算机系统,但应理解的是,并不要求计算机系统具备所有示出的装置,可以替代地,计算机系统可以具备更多或更少的装置。
对于本公开,还有以下几点需要说明:
(1)本公开实施例附图只涉及到与本公开实施例涉及到的结构,其他结构可参考通常设计。
(2)为了清晰起见,在用于描述本发明的实施例的附图中,层或结构的厚度和尺寸被放大。可以理解,当诸如层、膜、区域或基板之类的元件被称作位于另一元件“上”或“下”时,该元件可以“直接”位于另一元件 “上”或“下”,或者可以存在中间元件。
(3)在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合以得到新的实施例。
以上所述仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (22)
1.一种视频处理方法,包括:
获取至少一个帧图像和音频片段,其中,每个帧图像包括至少一个对象,每个对象包括面部区域;
对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息;
基于所述嘴部特征信息和所述音频片段,使用视频处理网络对所述至少一个帧图像进行处理,得到目标视频,
其中,所述目标视频中的对象具有与所述音频片段同步的嘴型变化,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
2.根据权利要求1所述的视频处理方法,其中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,包括:
利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,
其中,所述嘴部特征信息包括所述至少一个帧图像分别对应的至少一个嘴部模糊图片。
3.根据权利要求2所述的视频处理方法,其中,利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,包括:
对所述帧图像进行第一色彩空间转换,得到第一转换图像;
提取所述第一转换图像中的嘴部区域,对所述嘴部区域进行第一滤波处理,得到所述帧图像对应的嘴部模糊图片。
4.根据权利要求2所述的视频处理方法,其中,利用嘴部模糊模型对所述每个帧图像中的对象的嘴部进行模糊处理,得到所述每个帧图像对应的嘴部模糊图片,包括:
对所述帧图像进行第一色彩空间转换,得到第一转换图像;
提取所述第一转换图像中的嘴部区域,对所述嘴部区域进行第一滤波处理,得到第一中间模糊图像;
对所述帧图像进行第二色彩空间转换,得到第二转换图像;
提取所述第二转换图像中的皮肤区域,从所述皮肤区域中选择包括嘴部的预设区域;
对所述预设区域进行第二滤波处理,得到第二中间模糊图像;
对所述第一中间模糊图像和所述第二中间模糊图像进行合成处理,得到所述帧图像对应的嘴部模糊图片。
5.根据权利要求4所述的视频处理方法,其中,所述第一色彩空间为HSI色彩空间,所述第二色彩空间为YCbCr色彩空间。
6.根据权利要求2所述的视频处理方法,其中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,还包括:
对所述至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,其中,所述嘴部特征信息还包括所述至少一个嘴部模糊图片分别对应的至少一个梯度特征图。
7.根据权利要求6所述的视频处理方法,其中,对所述至少一个嘴部模糊图片进行梯度特征提取,得到每个嘴部模糊图片对应的梯度特征图,包括:
获取所述每个嘴部模糊图片对应的灰度图;
获取第一卷积核和第二卷积核,其中,所述第一卷积核的尺寸小于所述第二卷积核的尺寸,所述第一卷积核中的所有元素之和为0,所述第二卷积核中的所有元素之和为0;
将所述灰度图与所述第一卷积核和所述第二卷积核进行卷积处理,得到所述每个嘴部模糊图片对应的梯度图。
8.根据权利要求2所述的视频处理方法,其中,对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息,还包括:
利用面部关键点检测模型对所述每个帧图像进行处理,得到多个面部关键点;
提取所述多个面部关键点中与嘴部相关的多个嘴部关键点,其中,所述嘴部特征信息还包括所述多个嘴部关键点。
9.根据权利要求2-8任一项所述的视频处理方法,其中,所述视频处理网络包括特征提取子网络和解码生成子网络,
基于所述嘴部特征信息和所述音频片段,使用所述视频处理网络对所述至少一个帧图像进行处理,包括:
对所述音频片段进行频谱转换处理,得到特征频谱;
利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,其中,所述M个视觉特征向量与所述音频片段相匹配,M为正整数且小于等于所述至少一个嘴部模糊图片的数量;
利用所述解码生成子网络对所述M个视觉特征向量进行处理,得到M个目标帧,其中,所述M个目标帧与所述音频片段中M个时点一一对应,且所述M个目标帧中每个目标帧具有与所述音频片段中对应时点对应的嘴型;
根据所述M个目标帧得到所述目标视频。
10.根据权利要求9所述的视频处理方法,其中,利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,包括:
将所述至少一个嘴部模糊图片依序分成M组,利用所述特征提取网络提取每组对应的视觉特征向量,以得到所述M个视觉特征向量。
11.根据权利要求9所述的视频处理方法,其中,所述嘴部特征信息还包括所述至少一个嘴部模糊图片分别对应的至少一个梯度特征图,
利用所述特征提取子网络对所述至少一个嘴部模糊图片和所述特征频谱进行特征提取处理,得到M个视觉特征向量,包括:
利用所述特征提取子网络对所述至少一个嘴部模糊图片、所述至少一个梯度特征图和所述特征频谱进行特征提取处理,得到M个视觉特征向量,其中,所述至少一个梯度特征图用于为所述特征提取子网络提供对应的嘴部模糊图片中模糊区域和非模糊区域的范围。
12.根据权利要求9所述的视频处理方法,其中,所述嘴部特征信息还包括多个嘴部关键点,
利用所述解码生成子网络对所述M个视觉特征向量进行处理,得到M个目标帧,包括:
利用所述解码生成子网络对每个视觉特征向量进行处理,生成带有嘴部区域的中间帧;
利用所述多个嘴部关键点对所述中间帧的嘴部区域的位置和图像信息进行修正,得到所述视觉特征向量对应的目标帧。
13.一种神经网络的训练方法,其中,所述神经网络包括视频处理网络,
所述训练方法包括:
获取训练视频和与所述训练视频匹配的训练音频片段,其中,所述训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域;
对所述训练视频进行预处理,得到所述训练视频对应的嘴部特征信息;
基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,
其中,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
14.根据权利要求13所述的训练方法,其中,所述视频处理网络包括特征提取子网络,
基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,包括:
对所述训练音频片段进行频谱转换处理,得到训练特征频谱;
利用所述训练特征频谱和所述嘴部特征信息,对待训练的特征提取子网络进行训练,以得到训练好的所述特征提取子网络。
15.根据权利要求14所述的训练方法,其中,所述嘴部特征信息包括至少一个嘴部模糊图片,
利用所述训练特征频谱和所述嘴部特征信息对待训练的所述特征提取子网络进行训练,以得到训练好的所述特征提取子网络,包括:
利用所述待训练的特征提取子网络对所述训练特征频谱和所述至少一个嘴部模糊图片进行处理,得到训练视觉特征向量和训练音频特征向量;
根据所述训练视觉特征向量和所述训练音频特征向量,通过所述特征提取子网络对应的损失函数计算所述特征提取子网络的损失值;
基于所述损失值对所述待训练的特征提取子网络的参数进行修正;以及
在所述待训练的特征提取子网络对应的损失值不满足预定准确率条件时,继续输入所述训练特征频谱和所述至少一个嘴部模糊图片以重复执行上述训练过程。
16.根据权利要求15所述的训练方法,其中,所述嘴部特征信息包括至少一个嘴部模糊图片,
所述视频处理网络还包括解码生成子网络,
基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,还包括:
利用训练好的所述特征提取子网络对所述训练特征频谱和所述至少一个嘴部模糊图片进行处理,得到至少一个目标视觉特征向量;
根据所述至少一个目标视觉特征向量以及所述训练视频,对所述解码生成子网络进行训练。
17.根据权利要求16所述的训练方法,其中,所述嘴部特征信息还包括多个嘴部关键点,
根据所述至少一个目标视觉特征向量以及所述训练视频,对所述解码生成子网络进行训练,包括:
利用所述多个嘴部关键点提供的嘴部位置信息,结合所述至少一个目标视觉特征向量对所述解码生成子网络进行训练。
18.根据权利要求16或17所述的训练方法,其中,所述神经网络还包括判别子网络,所述判别子网络和所述解码生成子网络构成生成式对抗网络,
在对所述解码生成子网络训练的过程中,对所述生成式对抗网络进行交替迭代训练,以得到训练好的所述解码生成子网络。
19.一种视频处理装置,包括:
获取单元,配置为获取至少一个帧图像和音频片段,其中,每个帧图像包括至少一个对象,每个对象包括面部区域;
预处理单元,配置为对所述至少一个帧图像进行预处理,得到所述面部区域的嘴部特征信息;
视频处理单元,配置为基于所述嘴部特征信息和所述音频片段,使用视频处理网络对所述至少一个帧图像进行处理,得到目标视频,其中,所述目标视频中的对象与所述音频片段具有同步的嘴型变化,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
20.一种神经网络的训练装置,包括:
训练数据获取单元,配置为获取训练视频和与所述训练视频匹配的训练音频片段,其中,所述训练视频包括至少一个训练帧图像,每个训练帧图像包括至少一个对象,每个对象包括面部区域;
预处理单元,配置为对所述训练视频进行预处理,得到所述面部区域的嘴部特征信息;
训练单元,配置为基于所述嘴部特征信息和所述训练音频片段,对所述视频处理网络进行训练,
其中,所述嘴部特征信息至少用于向所述视频处理网络提供所述每个对象的面部区域和嘴部的基本轮廓,以及所述每个对象的所述面部区域和所述嘴部的位置关系。
21.一种电子设备,包括:
存储器,非瞬时性地存储有计算机可执行指令;
处理器,配置为运行所述计算机可执行指令,
其中,所述计算机可执行指令被所述处理器运行时实现根据权利要求1-12任一项所述视频处理方法或权利要求13-18所述的神经网络的训练方法。
22.一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机可执行指令,
所述计算机可执行指令被处理器执行时实现根据权利要求1-12任一项所述视频处理方法或权利要求13-18所述的神经网络的训练方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111296799.XA CN113723385B (zh) | 2021-11-04 | 2021-11-04 | 视频处理方法及装置、神经网络的训练方法及装置 |
PCT/CN2022/088965 WO2023077742A1 (zh) | 2021-11-04 | 2022-04-25 | 视频处理方法及装置、神经网络的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111296799.XA CN113723385B (zh) | 2021-11-04 | 2021-11-04 | 视频处理方法及装置、神经网络的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113723385A true CN113723385A (zh) | 2021-11-30 |
CN113723385B CN113723385B (zh) | 2022-05-17 |
Family
ID=78686675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111296799.XA Active CN113723385B (zh) | 2021-11-04 | 2021-11-04 | 视频处理方法及装置、神经网络的训练方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113723385B (zh) |
WO (1) | WO2023077742A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419702A (zh) * | 2021-12-31 | 2022-04-29 | 南京硅基智能科技有限公司 | 数字人生成模型、模型的训练方法以及数字人生成方法 |
WO2023077742A1 (zh) * | 2021-11-04 | 2023-05-11 | 新东方教育科技集团有限公司 | 视频处理方法及装置、神经网络的训练方法及装置 |
CN116668611A (zh) * | 2023-07-27 | 2023-08-29 | 小哆智能科技(北京)有限公司 | 一种虚拟数字人唇形同步方法及系统 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557626B (zh) * | 2024-01-12 | 2024-04-05 | 泰安大陆医疗器械有限公司 | 一种气雾喷雾器喷头安装辅助定位方法 |
CN117994173B (zh) * | 2024-04-07 | 2024-06-11 | 腾讯科技(深圳)有限公司 | 修复网络训练方法、图像处理方法、装置及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102024156A (zh) * | 2010-11-16 | 2011-04-20 | 中国人民解放军国防科学技术大学 | 彩色人脸图像中的唇部区域定位方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及系统 |
US20160343389A1 (en) * | 2015-05-19 | 2016-11-24 | Bxb Electronics Co., Ltd. | Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium |
CN111212245A (zh) * | 2020-01-15 | 2020-05-29 | 北京猿力未来科技有限公司 | 一种合成视频的方法和装置 |
CN111783566A (zh) * | 2020-06-15 | 2020-10-16 | 神思电子技术股份有限公司 | 一种基于唇语同步和神态适配效果增强的视频合成方法 |
CN112562722A (zh) * | 2020-12-01 | 2021-03-26 | 新华智云科技有限公司 | 基于语义的音频驱动数字人生成方法及系统 |
US20210150793A1 (en) * | 2018-05-24 | 2021-05-20 | Warner Bros. Entertainment Inc. | Matching mouth shape and movement in digital video to alternative audio |
CN113378697A (zh) * | 2021-06-08 | 2021-09-10 | 安徽大学 | 一种基于卷积神经网络的说话人脸视频生成方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723385B (zh) * | 2021-11-04 | 2022-05-17 | 新东方教育科技集团有限公司 | 视频处理方法及装置、神经网络的训练方法及装置 |
-
2021
- 2021-11-04 CN CN202111296799.XA patent/CN113723385B/zh active Active
-
2022
- 2022-04-25 WO PCT/CN2022/088965 patent/WO2023077742A1/zh unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102024156A (zh) * | 2010-11-16 | 2011-04-20 | 中国人民解放军国防科学技术大学 | 彩色人脸图像中的唇部区域定位方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及系统 |
US20160343389A1 (en) * | 2015-05-19 | 2016-11-24 | Bxb Electronics Co., Ltd. | Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium |
US20210150793A1 (en) * | 2018-05-24 | 2021-05-20 | Warner Bros. Entertainment Inc. | Matching mouth shape and movement in digital video to alternative audio |
CN111212245A (zh) * | 2020-01-15 | 2020-05-29 | 北京猿力未来科技有限公司 | 一种合成视频的方法和装置 |
CN111783566A (zh) * | 2020-06-15 | 2020-10-16 | 神思电子技术股份有限公司 | 一种基于唇语同步和神态适配效果增强的视频合成方法 |
CN112562722A (zh) * | 2020-12-01 | 2021-03-26 | 新华智云科技有限公司 | 基于语义的音频驱动数字人生成方法及系统 |
CN113378697A (zh) * | 2021-06-08 | 2021-09-10 | 安徽大学 | 一种基于卷积神经网络的说话人脸视频生成方法及装置 |
Non-Patent Citations (2)
Title |
---|
年福东等: "基于关键点表示的语音驱动说话人脸视频生成", 《模式识别与人工智能》 * |
邱晓欣等: "基于肤色和唇色的自适应面部皮肤区域提取研究", 《微型电脑应用》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023077742A1 (zh) * | 2021-11-04 | 2023-05-11 | 新东方教育科技集团有限公司 | 视频处理方法及装置、神经网络的训练方法及装置 |
CN114419702A (zh) * | 2021-12-31 | 2022-04-29 | 南京硅基智能科技有限公司 | 数字人生成模型、模型的训练方法以及数字人生成方法 |
CN114419702B (zh) * | 2021-12-31 | 2023-12-01 | 南京硅基智能科技有限公司 | 数字人生成模型、模型的训练方法以及数字人生成方法 |
CN116668611A (zh) * | 2023-07-27 | 2023-08-29 | 小哆智能科技(北京)有限公司 | 一种虚拟数字人唇形同步方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023077742A1 (zh) | 2023-05-11 |
CN113723385B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113723385B (zh) | 视频处理方法及装置、神经网络的训练方法及装置 | |
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN108229278B (zh) | 人脸图像处理方法、装置和电子设备 | |
US9811894B2 (en) | Image processing method and apparatus | |
US7764828B2 (en) | Method, apparatus, and computer program for processing image | |
CN106056064B (zh) | 一种人脸识别方法及人脸识别装置 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
EP3992919B1 (en) | Three-dimensional facial model generation method and apparatus, device, and medium | |
JP2019504386A (ja) | 顔画像処理方法および装置、ならびに記憶媒体 | |
CN109754444B (zh) | 图像着色方法和装置 | |
US11308655B2 (en) | Image synthesis method and apparatus | |
WO2022151655A1 (zh) | 数据集生成、伪造检测方法、装置、设备、介质和程序 | |
CN108463823A (zh) | 一种用户头发模型的重建方法、装置及终端 | |
CN110348358B (zh) | 一种肤色检测系统、方法、介质和计算设备 | |
CN112995534B (zh) | 视频生成方法、装置、设备及可读存储介质 | |
WO2019142127A1 (en) | Method and system of creating multiple expression emoticons | |
KR20190116052A (ko) | 딥 러닝 기반 퍼스널 컬러 진단 및 가상 메이크업 방법 및 장치 | |
CN116634242A (zh) | 语音驱动的说话视频生成方法、系统、设备和存储介质 | |
CN113052783A (zh) | 一种基于人脸关键点的人脸图像融合方法 | |
CN113344837A (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
CN110730303B (zh) | 图像染发处理方法、装置、终端和存储介质 | |
CN110059739B (zh) | 图像合成方法、装置、电子设备和计算机可读存储介质 | |
CN117061882A (zh) | 视频图像处理方法、装置、设备、存储介质及程序产品 | |
CN116580445A (zh) | 一种大语言模型人脸特征分析方法、系统及电子设备 | |
WO2021155666A1 (zh) | 用于生成图像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40063359 Country of ref document: HK |