CN114429767A - 视频生成方法、装置、电子设备以及存储介质 - Google Patents
视频生成方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN114429767A CN114429767A CN202210097018.2A CN202210097018A CN114429767A CN 114429767 A CN114429767 A CN 114429767A CN 202210097018 A CN202210097018 A CN 202210097018A CN 114429767 A CN114429767 A CN 114429767A
- Authority
- CN
- China
- Prior art keywords
- lip
- sequence
- template
- target
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 65
- 230000033001 locomotion Effects 0.000 claims abstract description 150
- 238000009877 rendering Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 29
- 230000014509 gene expression Effects 0.000 claims description 96
- 238000013507 mapping Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 4
- 238000012800 visualization Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种视频生成方法、装置、电子设备、存储介质以及程序产品,本公开涉及图像处理技术领域,尤其涉及人工智能、计算机视觉、虚拟/增强现实等技术领域。具体实现方案为:确定与语音特征序列对应的唇形特征序列,语音特征序列是从待生成视频的语音数据中提取的;基于唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,多个模板唇动参数是从包括真实唇动的视频中提取得到的;基于目标模板唇动参数序列,生成目标对象的初始形象序列;以及对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及人工智能、计算机视觉、虚拟/增强现实等技术领域。具体涉及视频生成方法、装置、电子设备、存储介质以及程序产品。
背景技术
随着生活数字化演进,虚拟形象已经逐步被大众所接受,成为智能交互的重要一环。在媒体、客服、教育、社交、游戏、医疗、影视等众多领域展现了应用潜力。在实际应用中,虚拟形象提高了人与机器的交互效果。
发明内容
本公开提供了一种视频生成方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种视频生成方法,可以包括:确定与语音特征序列对应的唇形特征序列,其中,所述语音特征序列是从待生成视频的语音数据中提取的;基于所述唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,所述多个模板唇动参数是从包括真实唇动的视频中提取得到的;基于所述目标模板唇动参数序列,生成目标对象的初始形象序列;以及对所述目标对象的初始形象序列进行时域渲染处理,得到所述目标对象的目标形象序列。
根据本公开的另一方面,提供了一种视频生成装置,可以包括:特征确定模块,用于确定与语音特征序列对应的唇形特征序列,其中,所述语音特征序列是从待生成视频的语音数据中提取的;唇动确定模块,用于基于所述唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,所述多个模板唇动参数是从包括真实唇动的视频中提取得到的;生成模块,用于基于所述目标模板唇动参数序列,生成目标对象的初始形象序列;以及时域渲染模块,用于对所述目标对象的初始形象序列进行时域渲染处理,得到所述目标对象的目标形象序列。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如本公开的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如本公开的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如本公开的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用视频生成方法及装置的示例性系统架构;
图2示意性示出了根据本公开实施例的视频生成方法的流程图;
图3示意性示出了根据本公开另一实施例的视频生成方法的流程图;
图4示意性示出了根据本公开实施例的视频生成装置的框图;以及
图5示意性示出了根据本公开实施例的适于实现视频生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供了一种视频生成方法、装置、电子设备、存储介质以及程序产品。
根据本公开的实施例,提供了一种视频生成方法,可以包括:确定与语音特征序列对应的唇形特征序列,其中,语音特征序列是从待生成视频的语音数据中提取的;基于唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,多个模板唇动参数是从包括真实唇动的视频中提取得到的;基于目标模板唇动参数序列,生成目标对象的初始形象序列;以及对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
图1示意性示出了根据本公开实施例的可以应用视频生成方法及装置的示例性系统架构。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。例如,在另一实施例中,可以应用视频生成方法及装置的示例性系统架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的视频生成方法及装置。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的内容提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的视频生成方法一般可以由终端设备101、102、或103执行。相应地,本公开实施例所提供的视频生成装置也可以设置于终端设备101、102、或103中。
或者,本公开实施例所提供的视频生成方法一般也可以由服务器105执行。相应地,本公开实施例所提供的视频生成装置一般可以设置于服务器105中。本公开实施例所提供的视频生成方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的视频生成装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
应注意,以下方法中各个操作的序号仅作为该操作的表示以便描述,而不应被看作表示该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
图2示意性示出了根据本公开实施例的视频生成方法的流程图。
如图2所示,该方法包括操作S210~S240。
在操作S210,确定与语音特征序列对应的唇形特征序列,其中,语音特征序列是从待生成视频的语音数据中提取的。
在操作S220,基于唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,多个模板唇动参数是从包括真实唇动的视频中提取得到的。
在操作S230,基于目标模板唇动参数序列,生成目标对象的初始形象序列。
在操作S240,对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。
根据本公开的实施例,可以将待生成视频的语音数据按照时间顺序进行切分,切分为多个单音节语音数据,然后从多个单音节语音数据的每个单音节语音数据中提取语音特征,生成多个按照时间顺序排列的语音特征,即语音特征序列。
根据本公开的实施例,可以利用神经网络模型根据语音特征序列来预测唇形特征序列,例如,利用RNN(Recurrent Neural Network,循环神经网络)模型根据语音特征序列来预测唇形特征序列。但是并不局限于此。还可以利用神经网络模型根据语音特征来预测唇形特征,由多个按照时间顺序划分的唇形特征形成唇形特征序列。
根据本公开的其他实施例,还可以预先建立匹配规则,根据匹配规则来确定与语音特征序列一一对应的唇形特征序列。匹配规则可以包括语音特征与唇形特征之间的映射规则。
根据本公开的实施例,语音特征序列中的至少一个语音特征可以包括语音后验概率(Phonetic Posterior Grams,PPG),但是并不局限于此,还可以包括音素特征、音节特征以及梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)等。
根据本公开的实施例,语音后验概率用于表示对于语音数据的每个特定时间帧的语音类别的后验概率。语音类别对应于因素状态。语音后验概率是使用与说话者无关的自动语音识别系统来提取得到的。利用语音后验概率作为语音特征,能够在预测唇形特征序列时,避免由与说话者有关的因素作为噪声而导致的唇形特征预测精度降低。
根据本公开的实施例,唇形特征序列中的至少一个唇形特征可以包括唇形缩略图,但是并不局限于此,唇形特征还可以包括回归唇形点、唇形混合变形参数(BlendShape)等。
根据本公开的实施例,唇形特征序列可以包括唇部的变化特征序列,用于表征说话过程中唇部按照时序发生的动作变化。
根据本公开的实施例,模板唇动参数序列中的至少一个模板唇动参数可以包括唇形缩略图,唇形缩略图也可以称为唇形微图。但是并不局限于此。模板唇动参数还可以包括回归唇形点、唇形混合变形参数(Blend Shape)等。
根据本公开的实施例,模板唇动参数序列可以包括唇部的变化参数序列,用于表征说话过程中唇部按照时序发生的动作变化。
根据本公开的实施例,可以基于唇形特征序列来从多个模板唇动参数中确定目标模板唇动参数序列,基于目标模板唇动参数序列来生成目标对象的初始形象序列,例如,对目标模板唇动参数序列与目标对象的形象参数信息相结合并进行渲染,生成目标对象的初始形象序列。但是并不局限于此。还可以利用唇形特征序列来生成目标对象的初始形象序列,例如,对唇形特征序列与目标对象的形象参数信息相结合并进行渲染,生成目标对象的初始形象序列。
根据本公开的实施例,模板唇动参数序列中的至少一个模板唇动参数可以是从包括真实唇动的视频中提取得到的。例如,从处于说话状态的目标对象的视频中提取得到的。因此,相比于利用唇形特征序列来生成目标对象的初始形象序列,基于唇形特征序列来从多个模板唇动参数中确定目标模板唇动参数序列,基于目标模板唇动参数序列来生成目标对象的初始形象序列,能够使得目标对象的初始形象的唇动更为真实、准确,避免在细节上发生缺失或者畸变等问题。
需要说明的是,在本公开的实施例中涉及的包括真实唇动的视频以及下文涉及的包括真实表情的视频的获取是经过了视频对应的用户授权的。
根据本公开的实施例,可以基于目标对象的初始形象序列来生成包括目标对象的唇动的视频。但是并不局限于此。还可以对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列,基于目标对象的目标形象序列来生成包括目标对象的唇动的视频。
根据本公开的实施例,对目标对象的初始形象序列进行时域渲染处理,可以利用初始形象序列中的时域的关联性对初始形象序列进行再次渲染。例如将当前初始形象再次渲染时,结合下一帧的初始形象和上一帧的初始形象在时序上的关联性,由此提高渲染后目标对象的目标形象序列的自然性和真实性。
根据本公开的实施例,在操作S240之后,视频生成方法还可以包括操作:基于目标对象的目标形象序列和待生成视频的语音数据,生成目标视频。
根据本公开的实施例,可以将目标视频在设备终端上进行播放,麦克风播放语音数据,显示屏显示正在说话且唇形动作与语音数据相匹配的目标对象。
利用本公开实施例提供的视频生成方法,可以利用目标模板唇动参数序列来生成目标对象的初始形象序列,使得与语音数据相匹配的唇形动作真实、生动,避免发生缺失或者畸变等问题,同时利用时序渲染处理初始形象序列,使得目标对象的目标形象更为自然、真实,由此,使得人与机器的交互更为智能、生动。
图3示意性示出了根据本公开另一实施例的视频生成方法的流程图。
如图3所示,该方法包括操作S310~S360。
在操作S310,确定目标模板唇动参数序列。
在操作S320,确定目标模板表情参数序列。
在操作S330,确定目标对象的形象参数信息。
在操作S340,对目标模板表情参数序列和目标模板唇动参数序列进行融合处理,得到表情融合的唇动参数序列。
在操作S350,基于表情融合的唇动参数序列和形象参数信息,生成目标对象的初始形象序列。
在操作S360,对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。
根据本公开的实施例,目标模板唇动参数序列可以包括与待生成视频的语音数据相匹配的唇部的变化参数序列。
根据本公开的实施例,针对操作S310,确定目标模板唇动参数序列,可以包括如下操作。
例如,从多个模板唇形特征中确定与唇形特征相匹配的目标模板唇形特征。基于目标模板唇形特征,从唇形映射关系中的多个模板唇动参数中确定目标模板唇动参数。唇形映射关系表征了多个模板唇动参数和多个模板唇形特征之间的映射关系。
根据本公开的实施例,从多个模板唇形特征中确定与唇形特征相匹配的目标模板唇形特征,可以将唇形特征与多个模板唇形特征各自一一匹配,计算唇形特征与多个模板唇形特征中的每个模板唇形特征之间的相似度,得到与多个模板唇形特征一一对应的多个相似度结果。对多个相似度结果按照由高到低的顺序进行排序,将排在首位的模板唇形特征作为目标模板唇形特征。相似度的计算方式不做限定,例如可以是欧式相似度或者余弦相似度等。
根据本公开的实施例,可以预先建立多个模板唇动参数与多个模板唇形特征彼此之间的唇形映射关系,以便基于目标模板唇形特征,利用唇形映射关系匹配得到目标模板唇动参数。
根据本公开的实施例,针对唇形特征序列中的每个唇形特征,可以通过如上方式确定与唇形特征相匹配的目标模板唇动参数。多个目标模板唇动参数按照时序排列,得到与唇形特征序列相匹配的目标模板唇动参数序列。
根据本公开的实施例,目标模板唇动参数相对于直接由语音特征预测得到的唇形特征,更贴近真实的唇形动态参数。可以利用索引的方式,基于唇动映射关系从预先生成的多个模板唇动参数中确定目标模板唇动参数。但是并不局限于此。还可以直接对唇形特征进行优化调整计算,得到贴近真实的目标唇动参数。
根据本公开的实施例,利用索引的方式确定目标模板唇动参数相比于利用优化调整计算方式得到目标唇动参数,更简单、便利且有效。
根据本公开的实施例,视频生成方法还可以包括例如生成多个模板唇动参数的操作。
例如,获取对象的唇动视频帧序列。基于对象的唇动视频帧序列,确定多个模板唇动参数。
根据本公开的实施例,对象可以是目标对象,但是并不局限于此,对象还可以是与目标对象同类的对象。
根据本公开的实施例,可以采集涉及对象例如针对一段语音数据进行表述的视频。对该视频进行拆帧处理,得到对象的唇动视频帧序列。可以基于对象的唇动视频帧序列,确定多个模板唇动参数。
根据本公开的实施例,利用真实对象的唇动视频帧序列来确定多个模板唇动参数,更为真实、有效,避免发生畸变的问题。
根据本公开的其他实施例,可以对唇动视频帧进行预处理,例如将视频帧中的对象进行转正处理,或者对多个视频帧中的对象进行对齐处理等。可以从经过预处理的唇动视频帧序列中的每个唇动视频帧中提取唇动参数,得到模板唇动参数。针对不同的多个语音数据,重复上述操作,可以确定多个模板唇动参数。
利用本公开实施例中的对唇动视频帧进行预处理操作,可以避免唇形在不同姿态中存在较大的变化的问题,使得模板唇动参数均在同一唇形姿态下获得,提高模板唇动参数的标准性。
根据本公开的实施例,目标模板表情参数序列可以包括与待生成视频的语音数据相匹配的除唇部以外的面部的变化参数序列。面部可以包括唇部以下例如下巴部位,但是并不局限于此,面部还可以包括唇部以上例如眉毛、眼睛或者脸颊等部位。目标模板表情参数序列可以用于表征说话过程中面部除唇部外的其他部位按照时序发生的动作变化。
根据本公开的实施例,可以通过以下方式来执行操作S320,确定目标模板表情参数序列。
例如,确定目标表情类型信息。基于目标表情类型信息,从表情映射关系中的多个模板表情参数中确定目标模板表情参数序列,其中,表情映射关系表征了多个模板表情参数和多个表情类型信息之间的映射关系,多个模板表情参数是从包括真实表情的视频中提取得到的。
根据本公开的实施例,目标表情类型信息可以包括例如张嘴、大笑、微笑、哭泣、悲伤、挑眉等牵动面部动作的表情标签。
根据本公开的实施例,目标表情类型信息可以基于待生成视频的语音数据来确定。例如,识别待生成视频的语音数据的语义信息,根据语义信息来确定目标表情类型信息。但是并不局限于此。目标表情类型信息还可以基于用户指定的表情类型信息来确定。
根据本公开的实施例,视频生成方法还可以包括如下操作。
例如,从对象的唇动视频帧序列中确定对象的表情视频帧序列。基于对象的表情视频帧序列,确定多个模板表情参数。
根据本公开的实施例,可以从对象的唇动视频帧序列中确定对象的表情视频帧序列,例如从唇动视频帧序列中筛选出发生表情变化的表情视频帧序列。但是并不局限于此。还可以从包括对象的真实表情的视频中提取表情视频帧序列。只要是能够提取得到表情视频帧序列即可。
根据本公开的实施例,从对象的唇动视频帧序列中确定对象的表情视频帧序列,该唇动视频帧序列可以是经过例如对对象进行转正或者对齐等预处理操作的唇动视频帧序列,由此可以提高模板表情参数的准确性和真实性。
根据本公开的实施例,表情融合的唇动参数序列可以用于表征说话过程中包括例如唇部、脸颊、眉毛、眼睛等面部的变化参数序列。例如,表情融合的唇动参数序列用于表征说话过程中发生的挑眉、眨眼、微笑等唇形和表情相结合的面部变化参数序列。
根据本公开的实施例,针对操作S340,将目标模板表情参数序列和目标模板唇动参数序列进行融合处理,得到表情融合的唇动参数序列,可以包括如下操作。
例如,根据目标模板表情参数序列的时长和初始发生时刻,将目标模板表情参数序列叠加至目标模板唇动参数序列中,例如对目标模板唇动参数序列进行插值、平滑等操作,最终得到表情融合的唇动参数序列。
根据本公开的其它实施例,在例如情绪稳定或者表情淡然的情况下,目标对象在说话过程中,仅发生唇形动态变化,没有表情动态变化,视频生成方法可以包括操作S310、S330、S350以及S360。可以根据实际情况自行确定。
根据本公开的实施例,结合目标模板表情参数序列来生成目标对象的目标形象,可以使得目标对象的目标形象在例如说话、唱歌等过程中更为生动、自然。
根据本公开的实施例,针对操作S350,基于表情融合的唇动参数序列和形象参数信息,生成目标对象的初始形象序列,可以包括如下操作。
例如,利用形象渲染网络模型处理表情融合的唇动参数序列和形象参数信息,生成目标对象的初始形象序列。
根据本公开的实施例,形象参数信息可以包括以下至少一项:头部姿态信息、脸部网格信息、脸部纹理信息以及光照参数信息等。
根据本公开的实施例,形象渲染网络模型的结构不做限定,例如可以是生成对抗网络模型,但是并不局限于此,还可以是深度学习网络模型。只要是能够基于表情融合的唇动参数序列和形象参数信息,生成目标对象的初始形象序列的网络模型即可。
根据本公开的实施例,目标对象的初始形象序列同时根据表情融合的唇动参数序列和形象参数信息,实现目标对象在说话过程中,对表情、唇形、姿态等进行控制,由此提高了目标对象的初始形象的自然度和可交互性。
根据本公开的实施例,针对操作S360,对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列,可以包括如下操作。
例如,可以利用时域渲染模型来对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。利用时域渲染模型能够结合初始形象序列中的时域的关联性、面部动作的连续性等特征,将初始形象序列,即将多个时间上连续的视频帧作为输入,利用多个视频帧各自之间的时序关联性,对初始形象序列进行再次渲染,得到更为真实自然的目标形象序列。
根据本公开的其他实施例,可以利用与形象渲染网络模型相同的第二渲染模型来对目标对象的多个初始形象,例如无时序关联的多个初始形象进行渲染处理,得到目标对象的多个目标形象。利用第二渲染模型,也可以对初始形象进行真实感的弥补,得到相较于初始形象序列真实的目标形象序列。但是相对于第二渲染模型,利用本公开实施例提供的时域渲染模型,以多个时序上关联的初始形象例如初始形象序列作为输入,来进行时域渲染处理,使得生成的目标形象序列更为真实、生动且自然。
根据本公开的实施例,时域渲染模型可以包括Unet网络,但是并不局限于此,还可以包括Unet-HD(High-Resolution)网络。只要是能够将多个时间上连续的视频帧例如初始形象序列作为输入,目标形象序列作为输出,且能够利用初始形象序列中的时域关联性的网络结构即可。
根据本公开的实施例,可以利用训练样本训练初始时域渲染模型,得到时域渲染模型。
根据本公开的实施例,训练样本可以包括真实对象例如真实人物作为目标对象录制的样本视频。可以提取样本视频中的样本语音数据和与样本语音数据相对应的样本视频帧序列。提取样本语音数据中的样本语音特征序列。确定与样本语音特征序列对应的样本唇形特征序列。基于样本唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列。基于目标模板唇动参数序列,生成目标对象的初始样本形象序列。将目标对象的初始样本形象序列,即多个例如8个时间上连续的样本图像,输入至初始时域渲染模型中,得到目标对象的预测样本形象序列。将样本视频帧序列和预测样本形象序列输入至损失函数中,得到损失值。调整初始时域渲染模型中的参数,直至损失值收敛。将损失值收敛时的模型作为时域渲染模型。
根据本公开的实施例,损失函数不做限定,例如可以利用交叉熵损失函数,但是并不局限于此,还可以根据初始时域渲染模型的网络结构来调整损失函数,只要是能够实现训练初始时域渲染模型即可。
根据本公开的实施例,利用具有时间连续性的训练样本来训练初始时域渲染模型,可以通过训练,使得时域渲染模型学习到多个时间连续的初始形象序列中的时域关联性,进而使得利用时域渲染模型对初始形象序列进行渲染处理,得到的目标对象的目标形象序列更贴近真实人物的形象。
图4示意性示出了根据本公开实施例的视频生成装置的框图。
如图4所示,视频生成装置400可以包括特征确定模块410、唇动确定模块420、生成模块430以及时域渲染模块440。
特征确定模块410,用于确定与语音特征序列对应的唇形特征序列,其中,语音特征序列是从待生成视频的语音数据中提取的。
唇动确定模块420,用于基于唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,多个模板唇动参数是从包括真实唇动的视频中提取得到的。
生成模块430,用于基于目标模板唇动参数序列,生成目标对象的初始形象序列。
时域渲染模块440,用于对目标对象的初始形象序列进行时域渲染处理,得到目标对象的目标形象序列。
根据本公开的实施例,视频生成装置还可以包括类型确定模块以及表情确定模块。
类型确定模块,用于基于待生成视频的语音数据,确定目标表情类型信息。
表情确定模块,用于基于目标表情类型信息,从表情映射关系中的多个模板表情参数中确定目标模板表情参数序列,其中,表情映射关系表征了多个模板表情参数和多个表情类型信息之间的映射关系,多个模板表情参数是从包括真实表情的视频中提取得到的。
根据本公开的实施例,生成模块可以包括形象确定单元、融合单元以及生成单元。
形象确定单元,用于确定目标对象的形象参数信息,其中,形象参数信息包括以下至少一项:头部姿态信息、脸部网格信息、脸部纹理信息、光照参数信息。
融合单元,用于对目标模板表情参数序列和目标模板唇动参数序列进行融合处理,得到表情融合的唇动参数序列。
生成单元,用于基于表情融合的唇动参数序列和形象参数信息,生成目标对象的初始形象序列。
根据本公开的实施例,唇动确定模块可以包括匹配单元以及唇形确定单元。
匹配单元,用于针对唇形特征序列中的每个唇形特征,从多个模板唇形特征中确定与唇形特征相匹配的目标模板唇形特征。
唇形确定单元,用于基于目标模板唇形特征,从唇形映射关系中的多个模板唇动参数中确定目标模板唇动参数序列,其中,唇形映射关系表征了多个模板唇动参数和多个模板唇形特征之间的映射关系。
根据本公开的实施例,视频生成装置还可以包括获取模块以及唇动提取模块。
获取模块,用于获取对象的唇动视频帧序列。
唇动提取模块,用于基于对象的唇动视频帧序列,确定多个模板唇动参数。
根据本公开的实施例,视频生成装置还可以包括抽帧模块以及表情提取模块。
抽帧模块,用于从对象的唇动视频帧序列中确定对象的表情视频帧序列。
表情提取模块,用于基于对象的表情视频帧序列,确定多个模板表情参数。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例的方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例的方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开实施例的方法。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如视频生成方法。例如,在一些实施例中,视频生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的视频生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行视频生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (15)
1.一种视频生成方法,包括:
确定与语音特征序列对应的唇形特征序列,其中,所述语音特征序列是从待生成视频的语音数据中提取的;
基于所述唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,所述多个模板唇动参数是从包括真实唇动的视频中提取得到的;
基于所述目标模板唇动参数序列,生成目标对象的初始形象序列;以及
对所述目标对象的初始形象序列进行时域渲染处理,得到所述目标对象的目标形象序列。
2.根据权利要求1所述的方法,还包括:
基于所述待生成视频的语音数据,确定目标表情类型信息;以及
基于所述目标表情类型信息,从表情映射关系中的多个模板表情参数中确定目标模板表情参数序列,其中,所述表情映射关系表征了所述多个模板表情参数和多个表情类型信息之间的映射关系,所述多个模板表情参数是从包括真实表情的视频中提取得到的。
3.根据权利要求2所述的方法,其中,所述基于所述目标模板唇动参数序列,生成目标对象的初始形象序列包括:
确定所述目标对象的形象参数信息,其中,所述形象参数信息包括以下至少一项:头部姿态信息、脸部网格信息、脸部纹理信息、光照参数信息;
对所述目标模板表情参数序列和所述目标模板唇动参数序列进行融合处理,得到表情融合的唇动参数序列;以及
基于所述表情融合的唇动参数序列和所述形象参数信息,生成目标对象的初始形象序列。
4.根据权利要求1至3中任一项所述的方法,其中,所述基于所述唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列包括:
针对所述唇形特征序列中的每个唇形特征,从多个模板唇形特征中确定与所述唇形特征相匹配的目标模板唇形特征;以及
基于所述目标模板唇形特征,从唇形映射关系中的所述多个模板唇动参数中确定所述目标模板唇动参数,其中,所述唇形映射关系表征了所述多个模板唇动参数和所述多个模板唇形特征之间的映射关系。
5.根据权利要求1至4中任一项所述的方法,还包括:
获取对象的唇动视频帧序列;以及
基于所述对象的唇动视频帧序列,确定所述多个模板唇动参数。
6.根据权利要求5所述的方法,还包括:
从所述对象的唇动视频帧序列中确定所述对象的表情视频帧序列;以及
基于所述对象的表情视频帧序列,确定所述多个模板表情参数。
7.一种视频生成装置,包括:
特征确定模块,用于确定与语音特征序列对应的唇形特征序列,其中,所述语音特征序列是从待生成视频的语音数据中提取的;
唇动确定模块,用于基于所述唇形特征序列,从多个模板唇动参数中确定目标模板唇动参数序列,其中,所述多个模板唇动参数是从包括真实唇动的视频中提取得到的;
生成模块,用于基于所述目标模板唇动参数序列,生成目标对象的初始形象序列;以及
时域渲染模块,用于对所述目标对象的初始形象序列进行时域渲染处理,得到所述目标对象的目标形象序列。
8.根据权利要求7所述的装置,还包括:
类型确定模块,用于基于所述待生成视频的语音数据,确定目标表情类型信息;以及
表情确定模块,用于基于所述目标表情类型信息,从表情映射关系中的多个模板表情参数中确定目标模板表情参数序列,其中,所述表情映射关系表征了所述多个模板表情参数和多个表情类型信息之间的映射关系,所述多个模板表情参数是从包括真实表情的视频中提取得到的。
9.根据权利要求8所述的装置,其中,所述生成模块包括:
形象确定单元,用于确定所述目标对象的形象参数信息,其中,所述形象参数信息包括以下至少一项:头部姿态信息、脸部网格信息、脸部纹理信息、光照参数信息;
融合单元,用于对所述目标模板表情参数序列和所述目标模板唇动参数序列进行融合处理,得到表情融合的唇动参数序列;以及
生成单元,用于基于所述表情融合的唇动参数序列和所述形象参数信息,生成目标对象的初始形象序列。
10.根据权利要求7至9中任一项所述的装置,其中,所述唇动确定模块包括:
匹配单元,用于针对所述唇形特征序列中的每个唇形特征,从多个模板唇形特征中确定与所述唇形特征相匹配的目标模板唇形特征;以及
唇形确定单元,用于基于所述目标模板唇形特征,从唇形映射关系中的所述多个模板唇动参数中确定所述目标模板唇动参数,其中,所述唇形映射关系表征了所述多个模板唇动参数和所述多个模板唇形特征之间的映射关系。
11.根据权利要求7至10中任一项所述的装置,还包括:
获取模块,用于获取对象的唇动视频帧序列;以及
唇动提取模块,用于基于所述对象的唇动视频帧序列,确定所述多个模板唇动参数。
12.根据权利要求11所述的装置,还包括:
抽帧模块,用于从所述对象的唇动视频帧序列中确定所述对象的表情视频帧序列;以及
表情提取模块,用于基于所述对象的表情视频帧序列,确定所述多个模板表情参数。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210097018.2A CN114429767A (zh) | 2022-01-26 | 2022-01-26 | 视频生成方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210097018.2A CN114429767A (zh) | 2022-01-26 | 2022-01-26 | 视频生成方法、装置、电子设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114429767A true CN114429767A (zh) | 2022-05-03 |
Family
ID=81312407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210097018.2A Pending CN114429767A (zh) | 2022-01-26 | 2022-01-26 | 视频生成方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114429767A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937104A (zh) * | 2022-06-24 | 2022-08-23 | 北京有竹居网络技术有限公司 | 虚拟对象面部信息生成方法、装置和电子设备 |
CN115170703A (zh) * | 2022-06-30 | 2022-10-11 | 北京百度网讯科技有限公司 | 虚拟形象驱动方法、装置、电子设备及存储介质 |
CN115695943A (zh) * | 2022-10-31 | 2023-02-03 | 北京百度网讯科技有限公司 | 数字人视频生成方法、装置、设备及存储介质 |
-
2022
- 2022-01-26 CN CN202210097018.2A patent/CN114429767A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937104A (zh) * | 2022-06-24 | 2022-08-23 | 北京有竹居网络技术有限公司 | 虚拟对象面部信息生成方法、装置和电子设备 |
CN115170703A (zh) * | 2022-06-30 | 2022-10-11 | 北京百度网讯科技有限公司 | 虚拟形象驱动方法、装置、电子设备及存储介质 |
CN115695943A (zh) * | 2022-10-31 | 2023-02-03 | 北京百度网讯科技有限公司 | 数字人视频生成方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114578969B (zh) | 用于人机交互的方法、装置、设备和介质 | |
CN110688008A (zh) | 虚拟形象交互方法和装置 | |
CN107153496B (zh) | 用于输入表情图标的方法和装置 | |
CN114429767A (zh) | 视频生成方法、装置、电子设备以及存储介质 | |
CN113450759A (zh) | 语音生成方法、装置、电子设备以及存储介质 | |
JP7394809B2 (ja) | ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム | |
CN110599359B (zh) | 社交方法、装置、系统、终端设备及存储介质 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
CN112989935A (zh) | 一种视频生成方法、装置、设备以及存储介质 | |
CN115050354B (zh) | 数字人驱动方法和装置 | |
US20230107213A1 (en) | Method of generating virtual character, electronic device, and storage medium | |
CN113160819A (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
Mattos et al. | Improving CNN-based viseme recognition using synthetic data | |
CN116958342A (zh) | 虚拟形象的动作生成方法、动作库的构建方法及装置 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN110910898A (zh) | 一种语音信息处理的方法和装置 | |
EP4152269B1 (en) | Method and apparatus of training model, device, and medium | |
CN112634413A (zh) | 生成模型和生成3d动画的方法、装置、设备和存储介质 | |
CN114267375B (zh) | 音素检测方法及装置、训练方法及装置、设备和介质 | |
CN114332315B (zh) | 3d视频生成方法、模型的训练方法及装置 | |
CN115690276A (zh) | 虚拟形象的视频生成方法、装置、计算机设备和存储介质 | |
CN114898018A (zh) | 数字对象的动画生成方法、装置、电子设备及存储介质 | |
CN114882151A (zh) | 虚拟形象视频的生成方法及装置、设备、介质和产品 | |
CN115171673A (zh) | 一种基于角色画像的交流辅助方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |