CN110446066B - 用于生成视频的方法和装置 - Google Patents
用于生成视频的方法和装置 Download PDFInfo
- Publication number
- CN110446066B CN110446066B CN201910802155.XA CN201910802155A CN110446066B CN 110446066 B CN110446066 B CN 110446066B CN 201910802155 A CN201910802155 A CN 201910802155A CN 110446066 B CN110446066 B CN 110446066B
- Authority
- CN
- China
- Prior art keywords
- image
- mouth
- bottom plate
- phoneme
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000005516 engineering process Methods 0.000 claims description 13
- 238000000926 separation method Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004064 recycling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开的实施例公开了用于生成视频的方法和装置。该方法的一具体实施方式包括:获取上一帧图像和用于生成当前帧图像的底板;确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,其中,嘴形库包括从视频的连续图像中得到的多张底板和与底板对应的不同音素的嘴形图像;从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。该实施方式通过将相邻帧图像的嘴形相匹配,从而保证了相邻帧图像的中人像嘴形的连贯性,提高了生成的视频的质量。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成视频的方法和装置。
背景技术
视频中人像嘴形同步技术,旨在对给定的语音输入,利用计算机技术,为视频中的人像合成与语音同步的高度逼真的嘴形。
相关技术中,视频中的人像嘴形同步技术仅关心视频中人像的嘴形与语音的同步对应,并不能保证视频播放中人像嘴形的连贯性。
发明内容
本公开的实施例提出了用于生成视频的方法和装置。
第一方面,本公开的实施例提供了一种用于生成视频的装置,该方法包括:获取上一帧图像和用于生成当前帧图像的底板,其中,上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,底板为嘴部区域镂空的图像;确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,其中,嘴形库包括从视频的连续图像中得到的多张底板和与底板对应的不同音素的嘴形图像;从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。
在一些实施例中,确定与待输出语音信息对应的当前音素,包括:采用语音识别技术识别出语音的文本信息,将文本信息中的文字拆分成音素序列;从音素序列中确定与待输出语音信息对应的当前音素。
在一些实施例中,嘴形库通过如下步骤建立:获取用于生成底板的视频,将所获取的视频分割成连续的图像;针对连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板;针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点;基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
在一些实施例中,基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像,包括:将标注嘴部关键点的底板输入预先训练的图像生成模型,得到包含嘴形图像的完整图像,其中,图像生成模型用于表征标注嘴部关键点的底板与完整图像的对应关系;将所得到的完整图像中的嘴部区域进行图像分离,得到与该音素对应的嘴形图像。
在一些实施例中,图像生成模型通过如下步骤训练得到:获取预置的训练样本,训练样本包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;提取预先建立的生成式对抗网络,其中,生成式对抗网络包括生成网络和判别网络,生成网络用于在输入的已标注嘴部关键点的底板中生成嘴形图像并输出生成有嘴形图像的完整图像,判别网络用于确定所输入的图像是否为生成网络所输出的完整图像;基于机器学习方法,将已标注嘴部关键点的底板作为生成网络的输入,将生成网络输出的图像和嘴部区域未分离的完整图像作为判别网络的输入,对生成网络和判别网络进行训练,将训练后的生成网络确定为图像生成模型。
在一些实施例中,方法还包括:响应于确定出上一帧图像的底板为从视频的最后一帧图像中得到的底板,将从视频的第一帧图像中得到的底板确定为当前帧图像的底板。
第二方面,本公开的实施例提供了一种用于生成视频的装置,装置包括:获取单元,被配置成获取上一帧图像和用于生成当前帧图像的底板,其中,上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,底板为嘴部区域镂空的图像;当前音素确定单元,被配置成确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,其中,嘴形库包括从视频的连续图像中得到的多张底板和与底板对应的不同音素的嘴形图像;嘴形图像确定单元,被配置成从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;生成单元,被配置成将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。
在一些实施例中,当前音素确定单元进一步被配置成:采用语音识别技术识别出语音的文本信息,将文本信息中的文字拆分成音素序列;从音素序列中确定与待输出语音信息对应的当前音素。
在一些实施例中,嘴形库通过如下步骤建立:获取用于生成底板的视频,将所获取的视频分割成连续的图像;针对连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板;针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点;基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
在一些实施例中,嘴形库进一步通过如下步骤建立:将标注嘴部关键点的底板输入预先训练的图像生成模型,得到包含嘴形图像的完整图像,其中,图像生成模型用于表征标注嘴部关键点的底板与完整图像的对应关系;将所得到的完整图像中的嘴部区域进行图像分离,得到与该音素对应的嘴形图像。
在一些实施例中,图像生成模型通过如下步骤训练得到:获取预置的训练样本,训练样本包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;提取预先建立的生成式对抗网络,其中,生成式对抗网络包括生成网络和判别网络,生成网络用于在输入的已标注嘴部关键点的底板中生成嘴形图像并输出生成有嘴形图像的完整图像,判别网络用于确定所输入的图像是否为生成网络所输出的完整图像;基于机器学习方法,将已标注嘴部关键点的底板作为生成网络的输入,将生成网络输出的图像和嘴部区域未分离的完整图像作为判别网络的输入,对生成网络和判别网络进行训练,将训练后的生成网络确定为图像生成模型。
在一些实施例中,装置还包括:底板确定单元,被配置成响应于确定出上一帧图像的底板为从视频的最后一帧图像中得到的底板,将从视频的第一帧图像中得到的底板确定为当前帧图像的底板。
本公开的实施例提供的用于生成视频的方法和装置,可以获取上一帧图像和用于生成当前帧图像的底板,之后确定与待输出语音信息对应的当前音素,并基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,而后从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像,最后将所确定出的嘴形图像插入当前帧图像的底板,可以生成当前帧图像,从而实现了通过将相邻帧图像的嘴形相匹配,保证了相邻帧图像的中人像嘴形的连贯性,提高了生成的视频的质量。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于生成视频的方法的一个实施例的流程图;
图3是根据本实施例的用于生成视频的方法中嘴形库的结构示意图;
图4是根据本实施例的用于生成视频的方法中建立嘴形库的一个实现方式的流程图;
图5是根据本公开的用于生成视频的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成视频的方法或用于生成视频的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送视频图像等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像处理类应用、视频播放类应用、网页浏览器应用、搜索类应用、即时通信工具、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持视频播放的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的视频提供支持的后台服务器。后台服务器可以对用于合成图像的底板和当前音素等进行分析等处理,并将处理结果(例如生成的视频)反馈给终端设备。
需要说明的是,本公开的实施例所提供的用于生成视频的方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,用于生成视频的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在此不做具体限定。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的用于生成视频的方法的一个实施例的流程200。该用于生成视频的方法,包括以下步骤:
步骤201,获取上一帧图像和用于生成当前帧图像的底板。
在本实施例中,用于生成视频的方法的执行主体(例如图1所示的服务器)可以获取视频中已生成的上一帧图像和待生成的当前帧图像的底板。可以理解的是,用于生成视频各帧图像的底板可以预先存储在数据库中,以便于上述执行主体在生成当前帧图像时可以直接从数据库获取该当前帧图像的底板。需要说明的是,底板可以是嘴部区域镂空的生物体图像,且用于生成上一帧图像的底板和用于生成当前帧图像的底板可以是从同一视频中的相邻帧图像中得到的。该视频为用于生成底板的底板视频。
步骤202,确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像。
在本实施例中,预设的嘴形库可以预先生成后存储在数据库中。该预设的嘴形库中可以存储有从底板视频的连续图像中得到的多张底板和与各底板对应的不同音素的嘴形图像。需要说明的是,在预设的嘴型库中,对于任一底板,每个音素可以与多个嘴形图像对应。如图3所示,其示出了根据本实施例的用于生成视频的方法的嘴形库的结构示意图。上述嘴形库可以为包含“底板—音素—嘴形图像”对应关系的数据库。具体地,该嘴形库可以包括M(M为正整数)个底板,如底板1、底板2、……、底板M,如图3所示,每个底板可以与N(N为正整数)个音素对应,每个音素可以与多个嘴形图像对应。例如,底板1可以与音素1、音素2、……、音素N对应,音素1可以与k1个嘴形图像(如图3所示的嘴形1、……嘴形k1)对应,底板M可以与音素1、音素2、……、音素N对应,音素N可以与kn个嘴形图像(如图3所示的嘴形1、……嘴形kn)对应,其中,k1和kn均为大于或等于2的正整数。可以理解的是,对于任意一个音素,与该音素对应的每个嘴形图像中的嘴形与该音素的发音的嘴形相匹配,但是与该音素对应的多个嘴形图像中的嘴形往往存在例如嘴开合程度等方面的区别。
在本实施例中,上述执行主体(例如图1所示的服务器)可以首先确定出待输出语音信息对应的当前音素。而后,基于步骤201所获取的当前帧图像的底板,上述执行主体可以从预设的嘴形库中确定与当前帧图像的底板对应的各嘴形图像。最后,上述执行主体可以从与当前帧图像的底板对应的各嘴形图像中获取与当前音素对应的所有嘴形图像。
在本实施例的一些可选的实现方式中,上述执行主体可以采用语音识别技术识别出语音的文本信息,而后将识别出的文本信息中的文本信息拆分成音素序列。而后,上述执行主体可以从该音素序列中确定出与待输出语音信息对应的当前音素。可以理解的是,在人机交互的过程中,机器可以对用户提出的问题进行语音回答,在机器进行语音回答时,上述执行主体可以对语音进行实时识别,从而得到音素序列,并从中确定出当前音素。
在本实施例的一些可选的实现方式中,上述执行主体还可以直接接收用户输入的文本信息,并对接收到的文本信息中文字进行音节标注和拆分得到音素序列。而后,从音素序列中确定出当前音素。
步骤203,从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像。
在本实施例中,基于步骤202所获取的与当前音素对应的至少两个嘴形图像,上述执行主体可以将所获取的至少两个嘴形图像与上一帧图像中的嘴形图像进行匹配,并根据得到的匹配结果确定出用于生成当前帧图像的嘴形图像。作为示例,上述执行主体可以计算所获取的至少两个嘴形图像与上一帧图像中的嘴形图像的相似度,并从中确定出与上一帧图像中的嘴形图像相似度最大的嘴形图像,该所确定出的嘴形图像即为至少两个嘴形图像中与上一帧图像中的嘴形图像相配的嘴形图像。该方法可以保证所确定出的嘴形图像所指示的嘴形为当前音素发音的嘴形,并且上一帧图像的嘴形与所确定的嘴形匹配可以提高视频相邻帧图像中嘴形的连贯性,从而提高了生成的视频的质量。
可以理解的是,上一帧图像也可以是通过底板与嘴形图像合成的方式得到的,因此上述执行主体可以直接获取用于生成上一帧图像的嘴形图像,将该嘴形图像与当前音素对应的的各嘴形图像进行匹配,并从中确定出与上一帧图像的嘴形图像相匹配的嘴形图像。或者,上述执行主体还可以将所获取的、当前音素对应的至少两个嘴形图像中的各嘴形图像直接与上一帧图像中的嘴部区域对应的图像进行匹配,也可以从中确定出与上一帧图像的嘴形图像相匹配的嘴形图像。
步骤204,将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。
在本实施例中,基于步骤201所获取的用于生成当前帧图像的底板和基于步骤203所确定的嘴形图像,上述执行主体可以利用各种方式将所确定的嘴形图像插入当前帧图像的底板中,从而可以生成当前帧图像。作为示例,底板中镂空的嘴部区域和所确定出的嘴形图像的大小相匹配,采用现有的图像处理类工具可以直接将所确定的嘴形图像和当前帧图像的底板进行图像合成,从而生成当前帧图像。或者,还可以通过SIFT(Scale-invariantfeature transform,尺度不变特征变换)算法等适应性地调整所确定出的嘴形图像和当前帧图像的底板的尺寸、色调和亮度等,从而可以使得所确定出的嘴形图像和当前帧图像的底板在图像拼接后得到平滑的当前帧图像。可以理解的是,根据实际的需求还可以采用其它的方式将所确定出的嘴形图像插入当前帧图像的底板生成当前帧图像,这里没有唯一的限定。
在本实施例的一些可选的实现方式中,上述执行主体在生成当前帧图像之后,可以采用推流等方式向用户展示生成的当前帧图像。可选地,在将当前帧图像显示给用户的同时,还可以采用TTS(Text To Speech,语音合成)技术将当前音素转换成语音信息输出,从而可以实现了语音与视频中嘴形的同步。
在本实施例的一些可选的实现方式中,若上述执行主体确定出上一帧图像的底板是从视频的最后一帧图像中得到的底板,可以将从视频的第一帧图像中得到的底板确定为当前帧图像的底板。该方法可以实现对视频的连续图像生成的底板的循环使用,从而可以实现利用有限的底板生成长视频,避免了嘴形库过大,节省了存储资源。可以理解的是,若上述执行主体确定出上一帧图像的底板是从视频的最后一帧图像中得到的底板,还可以按照倒序的方式循环使用底板,将从视频的倒数第二帧图像中得到的底板确定为当前帧图像的底板。
本实施例提供的用于生成视频的方法,在生成视频的过程中,由于已经提前建立好了嘴形库,从而可以稳定地生成视频的当前帧图像。进一步地,由于预先建立的嘴形库中确定了底板到音素的对应关系和音素到嘴形图像的对应关系,从而可以提高生成视频的当前帧图像的速度,保证了视频的流畅性。
接下来请继续参考图4,其示出了根据本实施例的用于生成视频的方法中建立嘴形库的一个实现方式的流程图。本实现方式中的嘴形库可以通过如下步骤建立:
步骤401,获取用于生成底板的视频,将所获取的视频分割成连续的图像。
在本实现方式中,可以首先获取用于生成底板的视频,该视频可以是真人视频(例如,该真人视频可以是按照新闻联播的方式录制的真人正脸视频)。可以理解的是,利用真人视频制备底板可以保证图像中人像的真实性,还可以降低生成视频的成本。而后,可以对所获取额视频进行图像分割得到连续的图像。可以理解的是,用于生成底板的视频还可以为其它非真人视频(例如,动画视频),这里没有唯一的限定。
步骤402,针对连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板。
在本实现方式中,针对所得到的连续图像中的任一图像,可以采用图像分割技术将该图像中的嘴部区域进行图像分离,从而可以得到该图像的底板。因此,对连续图像中的每张图像进行嘴部区域分离可以得到视频中各图像的底板。
可选地,针对连续图像中的任一图像,可以采用边缘检测技术对该图像中的嘴部区域进行图像分割,得到该图像的底板。或者,针对连续图像中的任一图像,可以检测图像中各像素的颜色,从人像中分离出嘴唇对应的颜色的像素,从而可以在该图像中分离出嘴唇形状的区域,得到该图像的底板。或者,针对连续图像中的任一图像,还可以直接将该图像中的嘴部所在的矩形区域进行分割,得到该图像的底板。
步骤403,针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点。
在本实现方式中,针对多个音素中的任一音素,基于该音素发音的嘴形,可以在所得到的各底板中标注出嘴部关键点。如此,针对任一音素,对于所得到的每张底板均可以标注上不同嘴形的关键点。这里的多个音素可以是语言系统中的全部音素。
这里,可以利用嘴部关键点预先绘制与不同音素对应的嘴形(这里的嘴形可以用嘴部关键点代替),得到大量的嘴形(例如,得到6000个嘴形)。而后,在需要在底板中标注任一音素对应的嘴部关键点时,可以将所得到的该音素的嘴形关键点贴到底板中的对应位置即可。该方法提高了在底板标注嘴部关键点的效率。
步骤404,基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
在本实施例中,基于步骤403所标注的嘴部关键点,可以利用各种方式在所得到的底板中生成该音素的嘴形图像。因此,对于任一音素,可以在每个底板中进行多次标注,从而可以得到与该音素对应的多个嘴形图像。因此,对于每张底板可以得到不同音素的多个嘴形图像,利用得到的嘴形图像可以生成如图2所示的嘴形库。作为示例,对连续的360帧图像进行嘴部区域分离得到的360张底板,可以利用嘴部关键点预先绘制与不同音素对应的嘴形得到6000个嘴形,而后将6000个嘴形关键点贴到每张底板中,从而可以得到360×6000张生成有嘴形图像的完整图像,并可以从360×6000张完整图像中得到360×6000张嘴形图像,从而可以生成可以包含360×6000张嘴形图像的嘴形库。
可选地,可以将标注嘴部关键点的底板输入预先训练的图像生成模型,从而可以得到包含嘴部图像的完整图像。而后将所得到的完整图像的嘴部区域进行图像分离,从而可以得到与音素对应的嘴部图像。这里,图像生成模型可以用于表征已标注嘴部关键点的底板和完整图像的对应关系。可以理解的是,在嘴形库中存储的是与各音素对应的嘴部图像,而不是包含嘴部图像的完整图像,这样可以有效地节省内存资源。可以理解的是,还可以采用其它方式生成与音素对应的嘴形图像,例如采用图像处理的方式在已标注嘴部关键点的底板中生成与音素对应的嘴形图像,这里没有唯一的限制。
可选地,上述图像生成模型还可以是通过如下步骤训练得到:
第一步,获取预置的训练样本。这里,训练样本可以包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;
第二步,提取预先建立的生成式对抗网络(Generative Adversarial Nets,GAN)。例如,上述生成式对抗网络可以是深度卷积生成对抗网络(Deep ConvolutionalGenerative Adversarial Network,DCGAN)。其中,生成式对抗网络可以包括生成网络和判别网络,生成网络用于在输入的已标注嘴部关键点底板中生成嘴形图像并输出生成有嘴形图像的完整图像,判别网络用于确定所输入的图像是否为生成网络所输出的完整图像。需要说明的是,上述生成网络可以是用于进行图像处理的卷积神经网络(例如包含卷积层、池化层、反池化层、反卷积层的各种卷积神经网络结构,可以依次进行降采样和/或上采样);上述判别网络可以是卷积神经网络(例如包含全连接层的各种卷积神经网络结构,其中,上述全连接层可以实现分类功能)。此外,上述判别网络也可以是可以用于实现分类功能的其他模型结构,例如支持向量机(Support Vector Machine,SVM)。需要说明的是,将上述生成网络所输出的图像可以用RGB三通道的矩阵进行表达。此处,判别网络若判定输入的图像是上述生成网络所输出的图像(来自生成数据),则可以输出1;若判定输入的图像不是上述生成网络所输出的图像(来自真实数据,即上述第二图像),则可以输出0。需要说明的是,判别网络也可以基于预先设定是输出其他数值,不限于1和0。
第三步,基于机器学习方法,将已标注嘴部关键点的底板作为生成网络的输入,将生成网络输出的图像和嘴部区域未分离的完整图像作为判别网络的输入,对生成网络和判别网络进行训练,将训练后的生成网络确定为图像生成模型。具体地,可以首先固定生成网络和判别网络中的任一网络(可称为第一网络)的参数,对未固定参数的网络(可称为第二网络)进行优化;再固定第二网络的参数,对第一网络进行改进。不断进行上述迭代,使判别网络无法区分输入的图像是否是生成网络所生成的,直至最终收敛。
上述图像生成模型还可以采用其它的方式训练得到,这里没有唯一的限定。作为示例,上述图像生成模型可以是预先利用机器学习方法,基于训练样本对用于进行图像处理的模型(例如,卷积神经网络(Convolutional Neural Network,CNN))进行训练后所得到的模型。
本申请的上述实施例提供的用于生成视频的方法,可以首先获取上一帧图像和用于生成当前帧图像的底板,之后确定与待输出语音信息对应的当前音素,并基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,而后从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像,最后将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。从而实现了通过将相邻帧图像的嘴形相匹配,保证了相邻帧图像的中人像嘴形的连贯性,提高了生成视频的质量。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于生成视频的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成视频的装置500包括:获取单元501、当前音素确定单元502、嘴形图像确定单元503和生成单元504。其中,获取单元501被配置成获取上一帧图像和用于生成当前帧图像的底板,其中,上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,底板为嘴部区域镂空的图像;当前音素确定单元502被配置成确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,其中,嘴形库包括从视频的连续图像中得到的多张底板和与底板对应的不同音素的嘴形图像;嘴形图像确定单元503被配置成从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;生成单元504被配置成将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。
在本实施例的一些可选的实现方式中,当前音素确定单元502进一步被配置成:采用语音识别技术识别出语音的文本信息,将文本信息中的文字拆分成音素序列;从音素序列中确定与待输出语音信息对应的当前音素。
在本实施例的一些可选的实现方式中,嘴形库通过如下步骤建立:获取用于生成底板的视频,将所获取的视频分割成连续的图像;针对连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板;针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点;基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
在本实施例的一些可选的实现方式中,嘴形库进一步通过如下步骤建立:将标注嘴部关键点的底板输入预先训练的图像生成模型,得到包含嘴形图像的完整图像,其中,图像生成模型用于表征标注嘴部关键点的底板与完整图像的对应关系;将所得到的完整图像中的嘴部区域进行图像分离,得到与该音素对应的嘴形图像。
在本实施例的一些可选的实现方式中,图像生成模型通过如下步骤训练得到:获取预置的训练样本,训练样本包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;提取预先建立的生成式对抗网络,其中,生成式对抗网络包括生成网络和判别网络,生成网络用于在输入的已标注嘴部关键点的底板中生成嘴形图像并输出生成有嘴形图像的完整图像,判别网络用于确定所输入的图像是否为生成网络所输出的完整图像;基于机器学习方法,将已标注嘴部关键点的底板作为生成网络的输入,将生成网络输出的图像和嘴部区域未分离的完整图像作为判别网络的输入,对生成网络和判别网络进行训练,将训练后的生成网络确定为图像生成模型。
在本实施例的一些可选的实现方式中,装置还包括:底板确定单元,被配置成响应于确定出上一帧图像的底板为从视频的最后一帧图像中得到的底板,将从视频的第一帧图像中得到的底板确定为当前帧图像的底板。
装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取上一帧图像和用于生成当前帧图像的底板,其中,上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,底板为嘴部区域镂空的图像;确定与待输出语音信息对应的当前音素,基于当前帧图像的底板,从预设的嘴形库中获取与当前音素对应的至少两个嘴形图像,其中,嘴形库包括从视频的连续图像中得到的多张底板和与底板对应的不同音素的嘴形图像;从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;将所确定出的嘴形图像插入当前帧图像的底板,生成当前帧图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、当前音素确定单元、嘴形图像确定单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取上一帧图像和用于生成当前帧图像的底板的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于生成视频的方法,包括:
获取上一帧图像和用于生成当前帧图像的底板,其中,所述上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,所述底板为嘴部区域镂空的图像;
确定与待输出语音信息对应的当前音素,基于所述当前帧图像的底板,从预设的嘴形库中获取与所述当前音素对应的至少两个嘴形图像,其中,所述嘴形库包括从所述视频的连续图像中得到的多张底板和与所述底板对应的不同音素的嘴形图像;
从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;
将所确定出的嘴形图像插入所述当前帧图像的底板,生成所述当前帧图像。
2.根据权利要求1所述的方法,其中,所述确定与待输出语音信息对应的当前音素,包括:
采用语音识别技术识别出语音的文本信息,将所述文本信息中的文字拆分成音素序列;
从所述音素序列中确定与待输出语音信息对应的当前音素。
3.根据权利要求1所述的方法,其中,所述嘴形库通过如下步骤建立:
获取用于生成所述底板的视频,将所获取的视频分割成连续的图像;
针对所述连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板;
针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点;
基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
4.根据权利要求3所述的方法,其中,所述基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像,包括:
将标注嘴部关键点的底板输入预先训练的图像生成模型,得到包含嘴形图像的完整图像,其中,所述图像生成模型用于表征标注嘴部关键点的底板与所述完整图像的对应关系;
将所得到的完整图像中的嘴部区域进行图像分离,得到与该音素对应的嘴形图像。
5.根据权利要求4所述的方法,其中,所述图像生成模型通过如下步骤训练得到:
获取预置的训练样本,所述训练样本包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;
提取预先建立的生成式对抗网络,其中,所述生成式对抗网络包括生成网络和判别网络,所述生成网络用于在输入的已标注嘴部关键点的底板中生成嘴形图像并输出生成有嘴形图像的完整图像,所述判别网络用于确定所输入的图像是否为所述生成网络所输出的完整图像;
基于机器学习方法,将所述已标注嘴部关键点的底板作为所述生成网络的输入,将所述生成网络输出的图像和所述嘴部区域未分离的完整图像作为所述判别网络的输入,对所述生成网络和所述判别网络进行训练,将训练后的所述生成网络确定为所述图像生成模型。
6.根据权利要求1-5之一所述的方法,其中,所述方法还包括:
响应于确定出所述上一帧图像的底板为从所述视频的最后一帧图像中得到的底板,将从所述视频的第一帧图像中得到的底板确定为当前帧图像的底板。
7.一种用于生成视频的装置,包括:
获取单元,被配置成获取上一帧图像和用于生成当前帧图像的底板,其中,所述上一帧图像的底板和当前帧图像的底板是从同一视频的连续图像中得到的,所述底板为嘴部区域镂空的图像;
当前音素确定单元,被配置成确定与待输出语音信息对应的当前音素,基于所述当前帧图像的底板,从预设的嘴形库中获取与所述当前音素对应的至少两个嘴形图像,其中,所述嘴形库包括从所述视频的连续图像中得到的多张底板和与所述底板对应的不同音素的嘴形图像;
嘴形图像确定单元,被配置成从所获取的至少两个嘴形图像中确定出与上一帧图像中的嘴形图像相匹配的嘴形图像;
生成单元,被配置成将所确定出的嘴形图像插入所述当前帧图像的底板,生成所述当前帧图像。
8.根据权利要求7所述的装置,其中,所述当前音素确定单元进一步被配置成:
采用语音识别技术识别出语音的文本信息,将所述文本信息中的文字拆分成音素序列;
从所述音素序列中确定与待输出语音信息对应的当前音素。
9.根据权利要求7所述的装置,其中,所述嘴形库通过如下步骤建立:
获取用于生成所述底板的视频,将所获取的视频分割成连续的图像;
针对所述连续图像中的图像,将该图像中的嘴部区域进行图像分离,得到该图像的底板;
针对多个音素中的音素,基于该音素发音的嘴形,在所得到的底板中标注出嘴部关键点;
基于所标注的嘴部关键点,在所得到的底板中生成该音素的嘴形图像。
10.根据权利要求9所述的装置,其中,所述嘴形库进一步通过如下步骤建立:
将标注嘴部关键点的底板输入预先训练的图像生成模型,得到包含嘴形图像的完整图像,其中,所述图像生成模型用于表征标注嘴部关键点的底板与所述完整图像的对应关系;
将所得到的完整图像中的嘴部区域进行图像分离,得到与该音素对应的嘴形图像。
11.根据权利要求10所述的装置,其中,所述图像生成模型通过如下步骤训练得到:
获取预置的训练样本,所述训练样本包括已标注嘴部关键点的底板和嘴部区域未分离的完整图像;
提取预先建立的生成式对抗网络,其中,所述生成式对抗网络包括生成网络和判别网络,所述生成网络用于在输入的已标注嘴部关键点的底板中生成嘴形图像并输出生成有嘴形图像的完整图像,所述判别网络用于确定所输入的图像是否为所述生成网络所输出的完整图像;
基于机器学习方法,将所述已标注嘴部关键点的底板作为所述生成网络的输入,将所述生成网络输出的图像和所述嘴部区域未分离的完整图像作为所述判别网络的输入,对所述生成网络和所述判别网络进行训练,将训练后的所述生成网络确定为所述图像生成模型。
12.根据权利要求7-11之一所述的装置,其中,所述装置还包括:
底板确定单元,被配置成响应于确定出所述上一帧图像的底板为从所述视频的最后一帧图像中得到的底板,将从所述视频的第一帧图像中得到的底板确定为当前帧图像的底板。
13.一种电子设备/终端/服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910802155.XA CN110446066B (zh) | 2019-08-28 | 2019-08-28 | 用于生成视频的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910802155.XA CN110446066B (zh) | 2019-08-28 | 2019-08-28 | 用于生成视频的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110446066A CN110446066A (zh) | 2019-11-12 |
CN110446066B true CN110446066B (zh) | 2021-11-19 |
Family
ID=68438253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910802155.XA Active CN110446066B (zh) | 2019-08-28 | 2019-08-28 | 用于生成视频的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110446066B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111212245B (zh) * | 2020-01-15 | 2022-03-25 | 北京猿力未来科技有限公司 | 一种合成视频的方法和装置 |
CN111370020B (zh) * | 2020-02-04 | 2023-02-14 | 清华珠三角研究院 | 一种将语音转换成唇形的方法、系统、装置和存储介质 |
CN111432233B (zh) * | 2020-03-20 | 2022-07-19 | 北京字节跳动网络技术有限公司 | 用于生成视频的方法、装置、设备和介质 |
CN111741326B (zh) * | 2020-06-30 | 2023-08-18 | 腾讯科技(深圳)有限公司 | 视频合成方法、装置、设备及存储介质 |
CN112887789B (zh) * | 2021-01-22 | 2023-02-21 | 北京百度网讯科技有限公司 | 视频生成模型的构建和视频生成方法、装置、设备及介质 |
CN114267374B (zh) * | 2021-11-24 | 2022-10-18 | 北京百度网讯科技有限公司 | 音素检测方法及装置、训练方法及装置、设备和介质 |
CN114760534B (zh) * | 2022-03-28 | 2024-03-01 | 北京捷通华声科技股份有限公司 | 视频生成方法、装置、电子设备及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096912A (zh) * | 2009-12-14 | 2011-06-15 | 北京中星微电子有限公司 | 一种图像处理方法及装置 |
CN102542593A (zh) * | 2011-09-30 | 2012-07-04 | 中山大学 | 一种基于视频解译的交互式视频风格化渲染方法 |
CN104657974A (zh) * | 2013-11-25 | 2015-05-27 | 腾讯科技(上海)有限公司 | 一种图像处理方法及装置 |
CN106504304A (zh) * | 2016-09-14 | 2017-03-15 | 厦门幻世网络科技有限公司 | 一种动画合成的方法及装置 |
CN108305271A (zh) * | 2018-01-25 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种视频帧图像处理方法和装置 |
CN109068053A (zh) * | 2018-07-27 | 2018-12-21 | 乐蜜有限公司 | 图像特效展示方法、装置和电子设备 |
CN109151575A (zh) * | 2018-10-16 | 2019-01-04 | Oppo广东移动通信有限公司 | 多媒体数据处理方法及装置、计算机可读存储介质 |
CN110136698A (zh) * | 2019-04-11 | 2019-08-16 | 北京百度网讯科技有限公司 | 用于确定嘴型的方法、装置、设备和存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10299012B2 (en) * | 2014-10-28 | 2019-05-21 | Disney Enterprises, Inc. | Descriptive metadata extraction and linkage with editorial content |
CN104361620B (zh) * | 2014-11-27 | 2017-07-28 | 韩慧健 | 一种基于综合加权算法的口型动画合成方法 |
CN108234735A (zh) * | 2016-12-14 | 2018-06-29 | 中兴通讯股份有限公司 | 一种媒体显示方法及终端 |
CN107316020B (zh) * | 2017-06-26 | 2020-05-08 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
-
2019
- 2019-08-28 CN CN201910802155.XA patent/CN110446066B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096912A (zh) * | 2009-12-14 | 2011-06-15 | 北京中星微电子有限公司 | 一种图像处理方法及装置 |
CN102542593A (zh) * | 2011-09-30 | 2012-07-04 | 中山大学 | 一种基于视频解译的交互式视频风格化渲染方法 |
CN104657974A (zh) * | 2013-11-25 | 2015-05-27 | 腾讯科技(上海)有限公司 | 一种图像处理方法及装置 |
CN106504304A (zh) * | 2016-09-14 | 2017-03-15 | 厦门幻世网络科技有限公司 | 一种动画合成的方法及装置 |
CN108305271A (zh) * | 2018-01-25 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种视频帧图像处理方法和装置 |
CN109068053A (zh) * | 2018-07-27 | 2018-12-21 | 乐蜜有限公司 | 图像特效展示方法、装置和电子设备 |
CN109151575A (zh) * | 2018-10-16 | 2019-01-04 | Oppo广东移动通信有限公司 | 多媒体数据处理方法及装置、计算机可读存储介质 |
CN110136698A (zh) * | 2019-04-11 | 2019-08-16 | 北京百度网讯科技有限公司 | 用于确定嘴型的方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110446066A (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110446066B (zh) | 用于生成视频的方法和装置 | |
CN109688463B (zh) | 一种剪辑视频生成方法、装置、终端设备及存储介质 | |
CN107633218B (zh) | 用于生成图像的方法和装置 | |
CN110347867B (zh) | 用于生成嘴唇动作视频的方法和装置 | |
CN109726624B (zh) | 身份认证方法、终端设备和计算机可读存储介质 | |
CN107578017B (zh) | 用于生成图像的方法和装置 | |
CN110458918B (zh) | 用于输出信息的方法和装置 | |
CN108073910B (zh) | 用于生成人脸特征的方法和装置 | |
CN110503703B (zh) | 用于生成图像的方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
US11436863B2 (en) | Method and apparatus for outputting data | |
CN110162670B (zh) | 用于生成表情包的方法和装置 | |
WO2020211573A1 (zh) | 用于处理图像的方法和装置 | |
CN113505848B (zh) | 模型训练方法和装置 | |
CN110880198A (zh) | 动画生成方法和装置 | |
CN109754783A (zh) | 用于确定音频语句的边界的方法和装置 | |
CN112785670B (zh) | 一种形象合成方法、装置、设备及存储介质 | |
CN109934142A (zh) | 用于生成视频的特征向量的方法和装置 | |
CN110472558B (zh) | 图像处理方法和装置 | |
CN109829431B (zh) | 用于生成信息的方法和装置 | |
CN112785669B (zh) | 一种虚拟形象合成方法、装置、设备及存储介质 | |
CN112383721B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN112381926A (zh) | 用于生成视频的方法和装置 | |
CN109816670B (zh) | 用于生成图像分割模型的方法和装置 | |
CN112308950A (zh) | 视频生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |