CN114782592A - 基于图像的卡通动画生成方法、装置、设备及存储介质 - Google Patents
基于图像的卡通动画生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114782592A CN114782592A CN202210458983.8A CN202210458983A CN114782592A CN 114782592 A CN114782592 A CN 114782592A CN 202210458983 A CN202210458983 A CN 202210458983A CN 114782592 A CN114782592 A CN 114782592A
- Authority
- CN
- China
- Prior art keywords
- cartoon
- image
- driven
- area
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000009466 transformation Effects 0.000 claims abstract description 129
- 230000005012 migration Effects 0.000 claims abstract description 68
- 238000013508 migration Methods 0.000 claims abstract description 68
- 238000013136 deep learning model Methods 0.000 claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 14
- 210000001508 eye Anatomy 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 claims description 9
- 210000004373 mandible Anatomy 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims 1
- 230000009471 action Effects 0.000 abstract description 7
- 238000000844 transformation Methods 0.000 abstract description 3
- 210000003128 head Anatomy 0.000 description 18
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种基于图像的卡通动画生成方法、装置、设备及存储介质,从模板视频的视频帧中选择一张参考图像作为目标图像,将目标图像与待驱动卡通图像分别划分为不同区域,根据不同区域关键点坐标得到不同区域的变换关系,对移动幅度不同的关键点进行了不同的变换,使关键点得到更准确的移动规律,提高卡通迁移视频的真实性,然后将不同区域的变换关系进行全局变换,得到全局变换关系,根据全局变换关系得到像素运动数据,基于待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络,将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到与模板视频动作姿态误差较小的卡通迁移视频。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种基于图像的卡通动画生成方法、装置、计算机设备及存储介质。
背景技术
人脸卡通视频作为计算机图形学的热门方向,学者们就如何通过计算机辅助生成卡通视频进行了多年的研究,并已经得到了丰富的成果。目前的人脸卡通视频生成方法很多,在生成的过程中,一般通过通过仿射变换将卡通图像转化为视频帧中图像的动作姿态,生成视频中对应的姿态,完成动作的迁移。
现有技术中,在进行仿射变换时,所依据的仿射变换矩阵通过关键点坐标转换得到,没有考虑不同关键点移动的幅度不同,对仿射变换矩阵的影响,使生成的卡通视动态频中的动作姿态与模板视频的迁移动作姿态存在误差。
发明内容
有鉴于此,本发明实施例提供了一种基于图像的卡通动画生成方法、装置、设备及存储介质,以解决生成的卡通迁移视频动作姿态与模板视频动作存在误差的问题。
第一方面,提供一种基于图像的卡通动画生成方法,所述方法包括:
将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
其中,所述卡通姿态迁移网络生成过程包括:
从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;所述目标第一区域和待驱动第一区域均为人脸区域中包含眼睛的上半部分,所述目标第二区域和待驱动第二区域均为所述人脸区域中包含下颌线的下半部分;
检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
第二方面,提供一种基于图像的卡通动画生成装置,所述装置包括:
输入单元:将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
划分单元:从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;所述目标第一区域和待驱动第一区域均为人脸区域中包含眼睛的上半部分,所述目标第二区域和待驱动第二区域均为所述人脸区域中包含下颌线的下半部分;
检测单元:检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
全局单元:将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
生成单元:基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
训练单元:基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的一种基于图像的卡通动画生成方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的一种基于图像的卡通动画生成方法。
本发明与现有技术相比存在的有益效果是:
本发明提供一种基于图像的卡通动画生成方法,从模板视频的视频帧中选择一张参考图像作为目标图像,将目标图像与待驱动卡通图像分别划分为不同区域,根据不同区域关键点坐标得到不同区域的变换关系,分别得到不同的变换关系,对移动幅度不同的关键点进行了不同的变换,使关键点得到更准确的移动规律,提高卡通迁移视频的真实性,然后将不同区域的变换关系进行全局变换,得到全局变换关系,根据全局变换关系得到像素运动数据,基于待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络,将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到与模板视频动作姿态误差较小的卡通迁移视频。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种基于图像的卡通动画生成方法的一应用环境示意图;
图2是本发明实施例一提供的一种基于图像的卡通动画生成方法的流程示意图;
图3是本发明实施例二提供的一种基于图像的卡通动画生成方法的流程示意图;
图4是本发明实施例三提供的一种基于图像的卡通动画生成方法的流程示意图;
图5是本发明实施例提供的一种基于图像的卡通动画生成装置的结构示意图;
图6是本发明实施例提供的一种基于图像的卡通动画生成方法计算机设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
本发明实施例一提供的一种基于图像的卡通动画生成方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
参见图2,是本发明实施例一提供的一种基于图像的卡通动画生成方法的流程示意图,上述基于图像的卡通动画生成方法可以应用于图1中的客户端,对应的计算机设备通过预设的应用程序接口(Application Programming Interface,API)连接目标数据库。在目标数据被驱动运行以执行相应的任务时,会产生对应的任务日志,通过API可以采集到上述任务日志。如图2所示,该基于图像的卡通动画生成方法可以包括以下步骤:
S11:将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
在步骤S11中,待驱动卡通图像为得到的待有卡通形象的图像,基于模板视频生成的卡通姿态迁移网络为包含该模板视频运动姿态的趋势,将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,生成与该模板视频中运动姿态相同的卡通迁移视频。
本实施例中,待驱动卡通图像为包含正向人脸的头部卡通图像,模板视频为包含人物头像的头像姿态变化视频,基于模板视频生成的卡通姿态迁移网络中将模板视频中的头部姿态运动迁移到卡通图像中,驱动卡通图像中的头部进行运动,生成卡通迁移视频。
S12:从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;
在步骤S12中,目标图像为模板视频中的视频帧图像,将目标图像中的人脸区域划分为两部分,包含目标第一区域和目标第二区域,目标第一区域为包含眼睛的上半区域,目标第二区域为包含人脸下颌线的部分,将待驱动图像以相同的方式划分为两部分,得到待驱动第一区域和待驱动第二区域。
本实施例中,从模板视频种选择参考图像时,选择模板视频帧中与待驱动卡通图像姿态相同的视频帧中的下一相邻帧参考图像作为目标图像,对目标图像与待驱动卡通图像中头部部分的人脸区域进行分块处理,将人脸区域划分为不同的区域,以方便更准确地计算不同区域的之间的转换关系,使不同区域中的像素得到更准确的移动数据。本实施例中将人脸区域划分为上下两部分,考虑到当头部姿态变换时,人脸上半部分区域的变换动作将大于下半部分的变换动作,所以将人脸区域划分为上下两部分。
S13:检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
在步骤S13中,根据预设的关键点检测模型,对目标图像与待驱动卡通图像进行关键点检测,关键点检测时,在目标图像与待驱动卡通图像中相同的区域得到的关键的个数与关键点的位置相同,根据关键点检测结果,得到目标图像中目标第一区域中的关键点坐标和目标第二区域中的关键点坐标,以及待驱动卡通图像中的待驱动第一区域中的关键点坐标和第二区域中的关键点坐标。根据目标图像中目标第一区域中的关键点坐标与待驱动卡通图像中的待驱动第一区域中的关键点坐标,通过计算,得到目标第一区域和待驱动第一区域中的关键点变换关系,根据目标图像中目标第二区域中的关键点坐标与待驱动卡通图像中的待驱动第二区域中的关键点坐标,通过计算,得到目标第二区域和待驱动第二区域中的关键点变换关系;
本实施例中,对人脸区域进行特征点检测,使用预先训练的人脸关键点检测模型,对人脸关键点检测模型进行训练时,对每对样本训练人脸和卡通图像手工标定多个特征点,这些点主要标在面部轮廓和五官的几何轮廓上面。标点时要注意特征点要涵盖轮廓的重要位置,比如下颌线、眼角、嘴角和鼻尖处,同时每幅图像所标定的每个特征点的位置要基本相同,以便减小点的平均值的误差,通过训练得到人脸特征点检测模型。
根据预先训练得到的人脸特征点检测模型,检测出目标图像与待驱动卡通图像不同区域中的关键点,得到目标图像中目标第一区域中的关键点坐标和目标第二区域中的关键点坐标,以及待驱动卡通图像中的待驱动第一区域中的关键点坐标和第二区域中的关键点坐标。
需要说明的是,目标图像与待驱动卡通图像中的关键点为对应关系,在目标图像与待驱动卡通图像中同一位置中都存在对应关键点,对应关键点通过仿射变换可以将一个关键点移动到另一个对应关键点位置,所以计算关键点的变换关系,可以估计关键点的移动方向和移动距离。
本实施例中,根据检测出的关键点坐标,对关键点进行仿射变换,得到不同区域之间的变换关系,目标图像第一区域与待驱动图像第一区域中的关键点,通过仿射变换,得到目标第一区域和待驱动第一区域中的关键点变换关系,目标图像第二区域与待驱动图像第二区域中的关键点,通过仿射变换,得到目标第二区域和待驱动第二区域中的关键点变换关系。
需要说明的是,在人脸区域的第二区域中,关键点的个数较少,主要集中在人脸区域的下颌线部分,较少的关键点在计算仿射变换时,得到的仿射变换关系误差较大。可以根据插值法得到较多的关键点,首先对下颌线区域的关键点进行拟合处理,得到拟合曲线,从拟合曲线中提取多个在拟合曲线中的关键点,从而在人脸区域的第二区域中得到多个关键点,基于多个关键点的仿射变换,可以得到更准确的第二区域中的关键点变换关系。
S14:将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
在步骤S14中,目标第一区域和待驱动第一区域中的关键点变换关系与目标第二区域和待驱动第二区域中的关键点变换关系为人脸区域中的局部变换关系,当进行头部姿态迁移时,需要对整个人脸区域进行驱动,所以将局部变换关系通过全局变换,得到整个人脸区域的全局变换关系。
本实施例中,为了减小目标图像与待驱动卡通图像之阿金的仿射变换误差,将局部变换关系进行全局化处理,得到全局变换关系。进行全局变化处理时,通过伪质心加权的方法确定权值,以每个区域中的关键点坐标的平均值为质心,具体公式为:
式(1)与式(2)中,M为待驱动卡通图像中的任意区域中关键点的个数,(xi,yi)为任意区域中关键点的坐标,则每一区域中对应的权值wj为:
根据目标第一区域和待驱动第一区域中的关键点变换关系的权重与目标第二区域和待驱动第二区域中的关键点变换关系的权重得到全局变换关系。本发明基于关键点坐标计算结果,对不同的区域分布权重,可以平滑基于局部变换关系造成的图像扭曲现象,本发明考虑了局部变换关系对整张图像变化关系的影像,从而使得到的全局变换关系更准确,在待驱动卡通图像生成模板视频中的姿态时,可以更准确生成对应模板视频帧中的动作姿态。
S15:基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
在步骤S15中,像素运动数据为待驱动卡通图像头部姿态变化相关联像素移动到指定像素位置的运动数据,像素运动数据包括待驱动卡通图像中的头部区域中的像素指向目标图像中匹配的目标像素的运动方向。
本实施例中,根据全局变换关系,以及待驱动卡通图像,可以确定待驱动卡通图像中的头部姿态的运动方向,该方向为矢量方向,作为像素运动数据。
本实施例中,步骤S15具体包括:
将所述待驱动卡通图像与所述全局变换关系输入至预先训练的密集运动估计模型中,获取所述密集运动估计模型输出的像素运动数据。
本实施例中,预先训练的密集运动估计模型为深度学习模型,通过卷积层、全连接层、激活层、池化层、归一化层等神经网络基本结构构成,或其它Encoder-Decoder的模型结构,输入全局变换关系中的变换参数,经过网络的卷积层、全连接层、激活层、池化层、归一化层等计算之后,得到像素运动数据。
需要说明的是,对密集运动估计模型进行训练时,将所述模板视频的视频帧与空间转换视频帧的光测误差的最小值作为训练目标,对深度学习模型进行训练,生成密集运动估计模型;其中,空间转换视频帧通过将模板视频的视频帧输入到空间转换模型中生成。通过训练密集运动估计模型,可以使密集运动估计模型学习到光流的运动特征,从而可以准确提取出像素运动数据。
S16:基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
在步骤S16中,卡通姿态迁移网络用于驱动待驱动卡通图像中的头部进行姿态变换,以使模板视频中的头部姿态迁移到待驱动卡通图像中,在将头部区域中的像素移动到指定的头部姿态中匹配的像素位置过程中需要确定移动的方向和位距离等,通过学习模型来学习待驱动卡通图像向目标图像进行变换的像素运动数据,可以按照模板视频中的头部姿态特征将待驱动卡通图像调整为对应的姿态。
本实施例中,将生成的像素数据作为训练样本,训练深度学习模型,以使卡通姿态迁移网络可以从头部驱动姿态驱动特征中学习到像素运动数据,训练的过程为学习像素运动数据的变化趋势,以使卡通姿态迁移网络学习到正确的对应关系,从而完成卡通姿态迁移网络的训练。
本发明提供一种基于图像的卡通动画生成方法,从模板视频的视频帧中选择一张参考图像作为目标图像,将目标图像与待驱动卡通图像分别划分为不同区域,根据不同区域关键点坐标得到不同区域的变换关系,分别得到不同的变换关系,对移动幅度不同的关键点进行了不同的变换,使关键点得到更准确的移动规律,提高卡通迁移视频的真实性,然后将不同区域的变换关系进行全局变换,得到全局变换关系,根据全局变换关系得到像素运动数据,基于待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络,将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到与模板视频动作姿态误差较小的卡通迁移视频。
参见图3,是本发明实施例二提供的一种基于图像的卡通动画生成方法的流程示意图,如图,该卡通动画生成方法可以包括以下步骤:
S12:从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;
S13:检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
S14:将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
S15:基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
S16:基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
S21:通过人脸检测算法,对待驱动图像中人脸区域进行检测,检测出人脸区域,并根据坐标转换算法,得到正向人脸图像;
S22:将所述正向人脸图像输入至卡通网络中,得到所述正向人脸图像中对应待驱动卡通图像;
S11:将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频。
其中步骤S12至步骤S16与上述的步骤S12至步骤S16的内容相同,步骤S11与上述步骤S11的内容相同,在此不再赘述。本实施例中,待驱动图像为包含人脸区域的图像,对人脸区域进行检测,得到人脸感兴趣区域,检测人脸区域时,使用卷积神经网络检测出人脸区域以及人脸区域中的关键点,根据检测到的人脸区域中的眼睛位置的关键点坐标,对待驱动图像进行旋转校正,校正时,利用两只眼睛关键点的位置坐标信息计算人脸区域在平面内的旋转角度,然后利用这个求解出来的旋转角度将整个图像进行反旋转,这样两只眼睛关键点就会在同一水平线上,得到正向人脸图像。
将正向人脸图像输入值卡通网络中,将图像中的人脸转化为卡通形象的人脸,本实施例中使用AgileGAN网络,生成待驱动卡通图像。
本实施例的卡通动画生成方法,将任意一张包含人脸区域的图像转化为具有正向人脸的图像,为后续人脸区域的关键点检测做准备,将正向人脸图像输入至卡通网络中,可以得到与正向人脸更相近的卡通图像,使得到的卡通形象更接近真实的人物形象。
参见图4,是本发明实施例三提供的一种基于图像的卡通动画生成方法的流程示意图,如图,该卡通动画生成方法可以包括以下步骤:
S12:从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;
S13:检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
S14:将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
S15:基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
S16:基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络;
S11:将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
其中步骤S12至步骤S11与上述的步骤S12至步骤S11的内容相同,在此不再赘述。
S31:将所述待驱动卡通图像的卡通迁移视频与预先得到的语音进行合成,得到卡通动态视频。
本实施例中,卡通迁移视频为生成的具有头部迁移动作的卡通形象视频,将预先得到的语音进行处理,得到语音的音频特征,将音频特征与卡通迁移视频进行编码合成,得到具有语音的卡通动态视频。
本实施例中,步骤S31具体包括:
将所述待驱动卡通图像的卡通迁移视频中对应的视频帧图像与预先得到的语音,通过不同编码器分别进行编码处理,得到每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量;将所述每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量拼接后的特征送入解码器中,生成目标序列图像;所述目标序列图像为包含唇形特征的卡通图像;将所述目标序列图像与所述上传的语音进行合成处理,得到卡通动态视频。
本实施例中,将预先得到的语音进行归一化处理,语音特征主要为梅尔频谱倒谱特征,梅尔频谱倒谱采用一组待通滤波器对输入的语音信号进行滤波,采用合适的待宽去除人耳不能听到的频率,将输出的信号能量作为语音信号的音频信息。这种方式不仅去除了人耳不能听到的部分频率,减少了高频对语音信号的干扰。而且,该方法不依赖信号的性质,有着更强的鲁棒性,在实际应用中取得较好的识别性能。通过对预先得到语音进行归一化处理,得到归一化音频信息。
对待驱动卡通图像的卡通迁移视频和所述归一化音频信息进行同帧率提取,分别得到第一序列帧图像和第二序列帧音频,利用第一编码器,对第一序列帧图像进行编码处理,得到每一帧的卡通图像特征向量;利用第二编码器,对第二序列帧音频进行编码处理,得到每一帧音频对应的唇形特征向量。在进行对第二序列帧音频进行编码处理时,通过预先构造的多尺度融合卷积神经网络对音频信息与唇形特征之间的映射关系进行训练,以音频信息为输入,唇形特征向量为输出,训练多尺度融合卷积神经网络,实现音频信息到唇形特征的映射拟合。
将每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量拼接后的特征送入解码器中,生成目标序列图像,目标序列图像为包含唇形特征的卡通图像。将目标序列图像与上传的语音进行合成处理,得到卡通动态视频。
本实施例中的卡通动画生成方法,卡通迁移视频与预先得到的语音进行合成处理,使卡通迁移视频中的卡通人物的唇形与预先得到的语音对应,不同的语音对应不同的唇形,最终得到具有语音的卡通动态视频,使卡通迁移视频中的卡通人物更形象与逼真。
对应于上文实施例的方法,图5示出了本发明实施例提供的基于图像的卡通动画生成的结构装置框图,上述基于图像的卡通动画生成装置应用于计算机设备,计算机设备通过预设的应用程序接口连接目标数据库。在目标数据库被驱动运行以执行相应的任务时,会产生对应的任务日志,通过API可以采集到上述任务日志。为了便于说明,仅示出了与本发明实施例相关的部分。
参见图5,该基于图像的卡通动画生成装置40包括:
输入单元41,用于将将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
划分单元42,用于将从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;所述目标第一区域和待驱动第一区域均为人脸区域中包含眼睛的上半部分,所述目标第二区域和待驱动第二区域均为所述人脸区域中包含下颌线的下半部分;
检测单元43,用于将检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
全局单元44,用于将将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
生成单元45,用于基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
训练单元46,用于基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
作为本申请一实施例,基于图像的卡通动画生成装置40还包括:
第一执行单元47,用于通过人脸检测算法,对待驱动图像中人脸区域进行检测,检测出人脸区域,并根据坐标转换算法,得到正向人脸图像;
第二执行单元48,用于将所述正向人脸图像输入至卡通网络中,得到所述正向人脸图像中对应待驱动卡通图像。
第三执行单元49,用于将所述待驱动卡通图像的卡通迁移视频与预先得到的语音进行合成,得到卡通动态视频。
作为本申请一实施例,全局单元44具体用于将所述待驱动卡通图像与所述全局变换关系输入至预先训练的密集运动估计模型中,获取所述密集运动估计模型输出的像素运动数据。
作为本申请一实施例,第一执行单元47具体用于在所述人脸区域提取出眼睛的像素坐标;根据所述眼睛的像素坐标,通过坐标转换算法,得到正向人脸图像。
作为本申请一实施例,第三执行单元49具体用于将所述待驱动卡通图像的卡通迁移视频中对应的视频帧图像与预先得到的语音分别进行编码处理,得到每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量;将所述每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量拼接后的特征送入解码器中,生成目标序列图像;所述目标序列图像为包含唇形特征的卡通图像;将所述目标序列图像与所述预先得到的语音进行合成处理,得到卡通动态视频。
图6为本发明实施例提供的一种计算机设备的结构示意图。如图6所示,该实施例的计算机设备包括:至少一个处理器(图6中仅示出一个)、存储器以及存储在存储器中并可在至少一个处理器上运行的计算机程序,处理器执行计算机程序时实现上述任意各个基于图像的卡通动画生成方法实施例中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图6仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携待计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于图像的卡通动画生成方法,其特征在于,包括:
将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
其中,所述卡通姿态迁移网络的生成过程包括:
从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;所述目标第一区域和待驱动第一区域均为人脸区域中包含眼睛的上半部分,所述目标第二区域和待驱动第二区域均为所述人脸区域中包含下颌线的下半部分;
检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
将所述目标第一区域和待驱动第一区域中的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
2.如权利要求1所述的基于图像的卡通动画生成方法,其特征在于,所述将待驱动卡通图像输入至基于模板视频训练得到的卡通姿态迁移网络中,得到卡通迁移视频之前,还包括:
通过人脸检测算法,对待驱动图像中人脸区域进行检测,检测出人脸区域,并根据坐标转换算法,得到正向人脸图像;
将所述正向人脸图像输入至卡通网络中,得到所述正向人脸图像中对应待驱动卡通图像。
3.如权利要求2所述的基于图像的卡通动画生成方法,其特征在于,所述根据输入的图像,通过人脸检测算法,检测出人脸区域,并根据坐标转换算法,得到正向人脸图像,包括:
在所述人脸区域提取出眼睛的像素坐标;
根据所述眼睛的像素坐标,通过坐标转换算法,得到正向人脸图像。
4.如权利要求1所述的基于图像的卡通动画生成方法,其特征在于,所述基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据,包括:
将所述待驱动卡通图像与所述全局变换关系输入至预先训练的密集运动估计模型中,获取所述密集运动估计模型输出的像素运动数据。
5.如权利要求1所述的基于图像的卡通动画生成方法,其特征在于,所述将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频之后,还包括:
将所述待驱动卡通图像的卡通迁移视频与预先得到的语音进行合成,得到卡通动态视频。
6.如权利要求5所述的基于图像的卡通动画生成方法,其特征在于,将所述待驱动卡通图像的卡通迁移视频与预先得到的语音进行合成,得到卡通动态视频,包括:
将所述待驱动卡通图像的卡通迁移视频中对应的视频帧图像与预先得到的语音分别进行编码处理,得到每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量;
将所述每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量拼接后的特征送入解码器中,生成目标序列图像;所述目标序列图像为包含唇形特征的卡通图像;
将所述目标序列图像与所述预先得到的语音进行合成处理,得到卡通动态视频。
7.如权利要求6所述的基于图像的卡通动画生成方法,其特征在于,将所述待驱动卡通图像的卡通迁移视频中对应的视频帧图像与预先得到的语音,通过不同编码器分别进行编码处理,得到每一帧卡通图像的特征向量和每一帧语音对应的唇形特征向量,包括:
提取所述预先得到的语音中的音频信息,对所述音频信息进行归一化处理,得到归一化音频信息;
对所述待驱动卡通图像的卡通迁移视频和所述归一化音频信息进行同帧率提取,分别得到第一序列帧图像和第二序列帧音频;
利用第一编码器,对所述第一序列帧图像进行编码处理,得到每一帧的卡通图像特征向量;
利用第二编码器,对所述第二序列帧音频进行编码处理,得到每一帧音频对应的唇形特征向量。
8.一种基于图像的卡通动画生成装置,其特征在于,
输入单元:将待驱动卡通图像输入至基于模板视频生成的卡通姿态迁移网络中,得到卡通迁移视频;
划分单元:从所述模板视频的视频帧中选择一张参考图像作为目标图像,将所述目标图像划分为目标第一区域和目标第二区域,将待驱动卡通图像划分为待驱动第一区域和待驱动第二区域;所述目标第一区域和待驱动第一区域均为人脸区域中包含眼睛的上半部分,所述目标第二区域和待驱动第二区域均为所述人脸区域中包含下颌线的下半部分;
检测单元:检测所述目标图像与所述待驱动卡通图像中的各个关键点,确定所述目标第一区域和待驱动第一区域中的关键点变换关系,以及所述目标第二区域和待驱动第二区域中的关键点变换关系;
全局单元:将所述目标第一区域和待驱动第一区域中的关键点变换关系的关键点变换关系与所述目标第二区域和待驱动第二区域中的关键点变换关系的关键点变换关系进行全局变换,得到全局变换关系;
生成单元:基于所述待驱动卡通图像与所述全局变换关系,生成像素运动数据;
训练单元:基于所述待驱动卡通图像与所述像素运动数据,训练深度学习模型,生成卡通姿态迁移网络。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的基于图像的卡通动画生成方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的基于图像的卡通动画生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210458983.8A CN114782592B (zh) | 2022-04-25 | 2022-04-25 | 基于图像的卡通动画生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210458983.8A CN114782592B (zh) | 2022-04-25 | 2022-04-25 | 基于图像的卡通动画生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114782592A true CN114782592A (zh) | 2022-07-22 |
CN114782592B CN114782592B (zh) | 2024-09-06 |
Family
ID=82433559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210458983.8A Active CN114782592B (zh) | 2022-04-25 | 2022-04-25 | 基于图像的卡通动画生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782592B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095086A (zh) * | 2023-10-18 | 2023-11-21 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797753A (zh) * | 2020-06-29 | 2020-10-20 | 北京灵汐科技有限公司 | 图像驱动模型的训练、图像生成方法、装置、设备及介质 |
CN113808005A (zh) * | 2021-08-04 | 2021-12-17 | 西安深信科创信息技术有限公司 | 一种基于视频驱动的人脸姿态迁移方法及装置 |
CN113870314A (zh) * | 2021-10-18 | 2021-12-31 | 南京硅基智能科技有限公司 | 一种动作迁移模型的训练方法及动作迁移方法 |
CN114007099A (zh) * | 2021-11-04 | 2022-02-01 | 北京搜狗科技发展有限公司 | 一种视频处理方法、装置和用于视频处理的装置 |
-
2022
- 2022-04-25 CN CN202210458983.8A patent/CN114782592B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797753A (zh) * | 2020-06-29 | 2020-10-20 | 北京灵汐科技有限公司 | 图像驱动模型的训练、图像生成方法、装置、设备及介质 |
CN113808005A (zh) * | 2021-08-04 | 2021-12-17 | 西安深信科创信息技术有限公司 | 一种基于视频驱动的人脸姿态迁移方法及装置 |
CN113870314A (zh) * | 2021-10-18 | 2021-12-31 | 南京硅基智能科技有限公司 | 一种动作迁移模型的训练方法及动作迁移方法 |
CN114007099A (zh) * | 2021-11-04 | 2022-02-01 | 北京搜狗科技发展有限公司 | 一种视频处理方法、装置和用于视频处理的装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095086A (zh) * | 2023-10-18 | 2023-11-21 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、设备及存储介质 |
CN117095086B (zh) * | 2023-10-18 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 动画处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114782592B (zh) | 2024-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348330B (zh) | 基于vae-acgan的人脸姿态虚拟视图生成方法 | |
RU2665273C2 (ru) | Обучаемые визуальные маркеры и способ их продуцирования | |
CN101964064A (zh) | 一种人脸比对方法 | |
CN111680550B (zh) | 情感信息识别方法、装置、存储介质及计算机设备 | |
CN102654903A (zh) | 一种人脸比对方法 | |
CN101968846A (zh) | 一种人脸跟踪方法 | |
CN112132739A (zh) | 3d重建以及人脸姿态归一化方法、装置、存储介质及设备 | |
CN115457169A (zh) | 一种语音驱动的人脸动画生成方法及系统 | |
CN117372604B (zh) | 一种3d人脸模型生成方法、装置、设备及可读存储介质 | |
CN112017212A (zh) | 人脸关键点跟踪模型的训练、跟踪方法及系统 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN107798329B (zh) | 基于cnn的自适应粒子滤波目标跟踪方法 | |
CN110598647B (zh) | 一种基于图像识别的头部姿态识别方法 | |
CN112801945A (zh) | 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法 | |
Jung et al. | Learning free-form deformation for 3D face reconstruction from in-the-wild images | |
CN114782592B (zh) | 基于图像的卡通动画生成方法、装置、设备及存储介质 | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
CN114283265A (zh) | 一种基于3d旋转建模的无监督人脸转正方法 | |
CN109829857A (zh) | 一种基于生成对抗网络的倾斜图像的矫正方法及装置 | |
AU2020436768B2 (en) | Joint rotation inferences based on inverse kinematics | |
CN117689887A (zh) | 基于点云分割的工件抓取方法、装置、设备及存储介质 | |
CN113205102A (zh) | 一种基于忆阻神经网络的车辆标志识别方法 | |
CN116863044A (zh) | 人脸模型的生成方法、装置、电子设备及可读存储介质 | |
CN116758212A (zh) | 基于自适应去噪算法的3d重建方法、装置、设备及介质 | |
CN114862716B (zh) | 人脸图像的图像增强方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |