CN115375802A - 动态图像的生成方法、装置、存储介质及电子设备 - Google Patents
动态图像的生成方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN115375802A CN115375802A CN202210690069.6A CN202210690069A CN115375802A CN 115375802 A CN115375802 A CN 115375802A CN 202210690069 A CN202210690069 A CN 202210690069A CN 115375802 A CN115375802 A CN 115375802A
- Authority
- CN
- China
- Prior art keywords
- key point
- keypoint
- image
- neutral
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000033001 locomotion Effects 0.000 claims abstract description 129
- 230000007935 neutral effect Effects 0.000 claims abstract description 120
- 230000008921 facial expression Effects 0.000 claims abstract description 66
- 230000003287 optical effect Effects 0.000 claims abstract description 52
- 230000009471 action Effects 0.000 claims abstract description 45
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 230000002776 aggregation Effects 0.000 claims description 26
- 238000004220 aggregation Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000003068 static effect Effects 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 238000003062 neural network model Methods 0.000 description 12
- 230000005012 migration Effects 0.000 description 11
- 238000013508 migration Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 230000001737 promoting effect Effects 0.000 description 4
- 230000037237 body shape Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了动态图像的生成方法、装置、存储介质及电子设备,涉及人工智能技术领域,具体为计算机视觉和深度学习技术领域,可应用于人脸图像处理和人脸识别等场景。具体实现方案为:获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、不同对象进行不同肢体动作时相同的人体特征;将第一运动轨迹映射在目标图像上,得到运动光流信息;基于运动光流信息对第二对象进行驱动,生成目标动态图。
Description
技术领域
本公开涉及人工智能技术领域,具体为计算机视觉和深度学习技术领域,可应用于人脸图像处理和人脸识别等场景,具体涉及动态图像的生成方法、装置、存储介质及电子设备。
背景技术
人脸表情驱动技术或者人体姿态驱动技术是指用户上传包含人脸表情或者人体姿态的视频,并选取一段人脸表情视频或者人体动作视频,即可用视频中人物的表情或者动作来驱动静态图像,以使静态图像变得鲜活生动,从而可制作各种趣味视频及个性表情包。
然而,现有技术在实现人脸表情驱动或者人体姿态驱动的过程中,人脸表情驱动或者人体姿态驱动的驱动效果差,无法维持静态图像的背景,也无法提升对单张图像进行人脸表情重建或者人体姿态重建的效果。而且,现有的方案也无法渲染静态图像中不存在的信息,例如,无法通过闭嘴图像来渲染出嘴巴内部的纹理信息。
发明内容
本公开提供了一种动态图像的生成方法、装置、存储介质及电子设备。
根据本公开的一方面,提供了一种动态图像的生成方法,包括:获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、不同对象进行不同肢体动作时相同的人体特征;将第一运动轨迹映射在目标图像上,得到运动光流信息;基于运动光流信息对第二对象进行驱动,生成目标动态图。
进一步的,动态图像的生成方法还包括:从源视频包含的所有源图像中提取第一关键点,得到关键点序列;基于第一关键点以及第二关键点,生成中立关键点;从源图像中确定参考帧图像;提取参考帧图像对应的关键点,得到参考关键点;基于参考关键点以及关键点序列中的其他关键点确定第二运动轨迹,其中,其他关键点为关键点序列中除参考关键点之外的关键点;根据第二运动轨迹确定第一运动轨迹。
进一步的,动态图像的生成方法还包括:对第一关键点和第二关键点进行特征聚合,得到聚合特征;基于聚合特征构建第一关键点与第二关键点之间的聚合关键点,中立关键点包括聚合关键点。
进一步的,动态图像的生成方法还包括:获取源图像所对应的中立关键点;计算中立关键点与第二关键点的相似度,得到源图像所对应的关键点相似度;从源图像中确定关键点相似度最大的图像,得到参考帧图像。
进一步的,动态图像的生成方法还包括:基于运动光流信息对第二对象的人脸或人体进行对象驱动,得到初始动态图;基于运动光流信息确定初始动态图中的缺失区域,其中,缺失区域为源视频中不存在,且初始动态图中存在的图像区域;对缺失区域进行补全操作,得到目标动态图。
根据本公开的另一方面,还提供了一种动态图像的生成装置,包括:获取模块,用于获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;确定模块,用于基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、不同对象进行不同肢体动作时相同的人体特征;映射模块,用于将第一运动轨迹映射在目标图像上,得到运动光流信息;生成模块,用于基于运动光流信息对第二对象进行驱动,生成目标动态图。
根据本公开的另一方面,还提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述的动态图像的生成方法。
根据本公开的另一方面,还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据上述的动态图像的生成方法。
根据本公开的另一方面,还提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据上述的动态图像的生成方法。
由上述内容可知,在本公开中,采用源视频和目标图像之间的中立关键点生成运动光流信息,以使静态图像动态化。在该过程中,中立关键点表征了多个对象进行不同的人脸表情时所共有的人脸特征信息和/或,多个对象进行不同的肢体动作时所共用的人体特征信息,即在本公开中,中立关键点能够解耦不同对象本身所具有的特征对人脸表情或人体动作的影响,从而实现人脸表情或者人体动作在不同人脸或不同人体上的统一表达,进而提升了人脸表情驱动或者人体动作驱动的准确性和真实性。而且,在得到中立关键点之后,基于中立关键点的运动轨迹确定目标图像所对应的运动光流信息,进而根据运动光流信息对第二对象进行对象驱动,使静态图像中的静态对象能够真实、自然的进行与第一对象相同的人脸表情或肢体动作。
由此可见,本公开所提供的方案达到了使静态图像中的静态对象动态化的目的,从而实现了提升人脸表情驱动或者人体动作驱动的准确性和真实性的效果,进而解决了现有技术中,人脸表情驱动或人体动作驱动效果差的问题。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的动态图像的生成方法的流程图;
图2是根据本公开的动态图像的生成方法的示意图;
图3是根据本公开的动态图像的生成方法的流程图;
图4是根据本公开的模型训练示意图;
图5是根据本公开的动态图像的生成装置的示意图;
图6是用来实现本公开实施例的动态图像的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
实施例1
根据本公开的实施例,本公开提供了一种动态图像的生成方法,其中,图1示出了一种可选的动态图像的生成方法的流程图,如图1可知,该方法至少包括如下步骤:
步骤S102,获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点。
在步骤S102中,第一关键点和第二关键点包括以下至少一项:人脸表情关键点、人体动作关键点,其中,第一关键点所包含的关键点的类型与第二关键点所包含的类型至少部分相同,例如,第一关键点包括人脸表情关键点,第二关键点包括人脸表情关键点和人体动作关键点。源视频为由多帧图像所组成的视频,每帧图像可以为静态图像,也可以为动态图像。另外,上述的目标图像为静态图像,其中,源视频图像中至少包括一个第一对象,目标图像中至少包括一个第二对象,第一对象和第二对象可以为但不限于人物、动物、卡通形象的对象等。
另外,上述的人脸表情关键点表征了目标对象的人脸表情信息,人体关键点信息表征了目标对象的人体动作信息。可选的,在本公开中,关键点所对应的信息至少包括关键点的位置变化信息以及关键点的数量变化信息。例如,微笑表情所对应的关键点数量与伤心表情所对应的关键点数量不同,微笑表情所对应的关键点位置与伤心表情所对应的关键点位置不同。
另外,在本公开中,需将源视频中第一对象的关键点映射至目标图像中的第二对象中,以使第二对象能够进行与第一对象相同的表情或者肢体动作。即在本公开中,目标图像中的第二对象为待映射关键点的对象。
可选的,在步骤S102中,终端设备可通过关键点检测技术来识别源视频中每帧图像所包含的对象的关键点,以及目标图像所包含的对象的关键点。具体的,终端设备首先基于对图像中的对象进行识别,即从包含不同类型对象的图像中识别出人脸或者人体。然后,终端设备再基于 Deepfake技术从识别出的人脸或人体中检测关键点。其中,上述的图像可以为源视频中的每帧图像,也可以为上述的目标图像。
需要说明的是,在从图像中检测出人脸或者人体之后,再识别人脸或人体的关键点,可以避免直接识别图像中的关键点所存在的识别不准确的问题,进而提高了关键点识别的准确的,进而提升了动态图像的生成质量。
步骤S104,基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、不同对象进行不同肢体动作时相同的人体特征。
在步骤S104中,中立关键点表征了多个对象进行不同的人脸表情时所共有的人脸特征信息和/或,多个对象进行不同的肢体动作时所共用的人体特征信息,其中,在第一关键点和第二关键点只包括人脸表情关键点,或者,第一关键点包括人脸表情关键点和人体动作关键点,第二关键点只包括人脸表情关键点,或者,第一关键点只包括人脸表情关键点,第二关键点包括人脸表情关键点和人体动作关键点时,中立关键点表征不同对象展现不同人脸表情时相同的人脸特征;在第一关键点和第二关键点只包括人体动作关键点,或者,第一关键点包括人体动作关键点和人脸表情关键点,第二关键点只包括人体动作关键点,或者,第一关键点只包括人体动作关键点,第二关键点包括人体动作关键点和人脸表情关键点时,中立关键点表征不同对象进行不同肢体动作时相同的人体特征;在第一关键点和第二关键点均包括人脸表情关键点和人体动作关键点时,中立关键点可以包括第一中立关键点和第二中立关键点,第一中立关键点表征不同对象展现不同人脸表情时相同的人脸特征,第二中立关键点表征不同对象进行不同肢体动作时相同的人体特征。即中立关键点可实现人脸表情或者人体动作在不同人脸或不同人体上的统一表达,例如,由于不同对象的人脸形状的不同,因此,不同对象在做类似表情,其对应的人脸关键点必定不同。但不同对象的人脸关键点可能有类似的运动规律,而中立关键点能够实现人脸表情或者人体动作在不同人脸或不同人体上的统一表达,即在本公开中,中立关键点可解耦不同对象的人脸形状和人脸运动对人脸关键点的影响,使不同对象在做类似表情时,其对应的中立关键点的运动是一致的。
需要说明的是,对于人体运动,中立关键点可解耦不同对象的人体形状以及人体运动对人体关键点的影响,使不同对象在做类似动作时,其对应的中立关键点的运动是一致的。
此外,还需要说明的是,中立关键点并不是人脸关键点或者人体关键点中的任意一个或多个关键点,而是基于人脸关键点或者人体关键点所构建得到的,即在本公开中,中立关键点为虚拟的关键点,其并不是真实存在的。而中立关键点的运动轨迹表征了中立关键点随时间所产生的位置变化,因此,在确定了中立关键点之后,基于中立关键点的运动轨迹即可实现人脸表情或人体动作在静态图像上的展示。
通过步骤S104中,基于对象的关键点信息来构建中立关键点,从而解耦了对象所特有的信息对人脸表情迁移或者人体动作迁移的影响,进而使源对象的人脸表情或人体动作能够真实、自然地映射到目标对象上,真实、自然、准确地实现了人脸驱动或人体驱动。而且,由于采用了中立关键点,因此,在进行人脸表情驱动或人体动作驱动时,并不会对目标图像的背景产生影响,从而实现了在进行人脸表情驱动或人体动作驱动时,维持图像背景的效果。
步骤S106,将第一运动轨迹映射在目标图像上,得到运动光流信息。
在步骤S106中,运动光流信息表征了图像中的像素随时间变化的相关信息。而在本公开中,通过将中立关键点的运动轨迹映射在目标图像上,即可使静态图像中的对象发生动态变化,从而实现了静态图像中的动态化。
可选的,上述的中立关键点是基于源视频所包含的每帧图像与目标图像所得到的,因此,终端设备可获取源视频所包含的每帧图像所对应的中立关键点,并生成中立关键点序列,在该中立关键点序列中,中立关键点按照每帧图像所对应的时间排序,从而在将中立关键点映射至目标图像上,目标图像中的第二对象即可实现动态化。
步骤S108,基于运动光流信息对第二对象进行驱动,生成目标动态图。
在步骤S108中,基于运动光流信息对第二对象进行驱动,实质为基于运动光流信息对第二对象的人脸或人体进行驱动,例如,在第一对象的关键点和第二对象的关键点均包括人脸关键点时,可基于运动光流信息对第二对象的人脸进行驱动;在第一对象的关键点和第二对象的关键点均包括人体关键点时,可基于运动光流信息对第二对象的人体进行驱动。
需要说明的是,在实际应用中,源视频中的第一对象的关键点可能无法映射到目标图像中的第二对象上,例如,第二对象的嘴巴处于闭合状态,而第一对象的嘴巴处于张开状态,因此,在基于运动光流信息对第二对象的人脸或人体进行驱动时,第一对象嘴巴内部的纹理信息无法映射到第二对象上,从而使第二对象的人脸驱动不自然、不真实。因此,在对第二对象进行驱动的过程中,还需要确定目标图像所对应的缺失区域,并对缺失区域进行补全操作,从而提升了人脸驱动或人体驱动的真实性和自然性,进而提高了动态图的质量。
基于上述步骤S102至步骤S108所限定的方案,可以获知,采用源视频和目标图像之间的中立关键点生成运动光流信息,以使静态图像动态化的方式,在获取到源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点之后,基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,并基于第一运动轨迹映射在目标图像上,得到运动光流信息,最后,基于运动光流信息对第二对象进行驱动,生成目标动态图。其中,中立关键点表征以下至少一项:不同对象展现不同的人脸表情时相同的人脸特征、不同对象进行不同的肢体动作时相同的人体特征。
容易注意到的是,中立关键点表征了多个对象进行不同的人脸表情时所共有的人脸特征信息和/或,多个对象进行不同的肢体动作时所共用的人体特征信息,即在本公开中,中立关键点能够解耦不同对象本身所具有的特征对人脸表情或人体动作的影响,从而实现人脸表情或者人体动作在不同人脸或不同人体上的统一表达,进而提升了人脸表情驱动或者人体动作驱动的准确性和真实性。而且,在得到中立关键点之后,基于中立关键点的运动轨迹确定目标图像所对应的运动光流信息,进而根据运动光流信息对第二对象进行对象驱动,使静态图像中的静态对象能够真实、自然的进行与第一对象相同的人脸表情或肢体动作。
由此可见,本公开所提供的方案达到了使静态图像中的静态对象动态化的目的,从而实现了提升人脸表情驱动或者人体动作驱动的准确性和真实性的效果,进而解决了现有技术中,人脸表情驱动或人体动作驱动效果差的问题。
根据本公开的实施例,本公开还提供了一种动态图像的生成方法,在该实施例中,终端设备基于源视频所对应的关键点以及目标图像所对应的关键点确定中立关键点的运动轨迹,并基于中立关键点的运动轨迹来确定目标图像所对应的运动光流信息,进而基于运动光流信息来实现对目标图像中的静态对象的驱动,从而生成动态图像。
在一种可选的实施例中,图2示出了一种可选的动态图像的生成方法的示意图,由图2可知,终端设备首先从目标图像中提取出第二关键点,并从源视频中提取出第一关键点,并基于第一关键点和第二关键点确定中立关键点的运动轨迹。
具体的,如图3所示,步骤S104可通过如下步骤实现:
步骤S301,从源视频包含的所有源图像中提取第一关键点,得到关键点序列;
步骤S302,基于第一关键点以及第二关键点,生成中立关键点;
步骤S303,从源图像中确定参考帧图像;
步骤S304,提取参考帧图像对应的关键点,得到参考关键点;
步骤S305,基于参考关键点以及关键点序列中的其他关键点确定第二运动轨迹,其中,其他关键点为关键点序列中除参考关键点之外的关键点;
步骤S306,根据第二运动轨迹确定第一运动轨迹。
需要说明的是,上述的源视频由至少一帧源图像组成,上述的第一关键点可以是每帧源图像所对应的关键点,其他关键点为关键点序列中除参考关键点之外的关键点,第二运动轨迹为其他关键点的运动轨迹。
可选的,如图2所示,由于源视频是由多张图像所组成的,因此,对源视频进行关键点提取,得到的是关键点序列。其中,在提取源视频中的关键点时,终端设备可对源视频所包含的每帧源图像进行关键点提取,得到每帧源图像所对应的第一关键点。然后再按照每帧源图像所对应的帧标识来对每帧源图像提取到的关键点进行排序,即可得到源视频所对应的关键点序列。
需要说明的是,终端设备提取目标图像中的关键点(即第二关键点) 以及提取源视频的关键点的过程中,可以采用相同的关键点提取算法(例如,Deepfake技术),也可以采用不同的关键点提取算法。
进一步的,在得到源视频所对应的关键点序列以及目标图像所对应的第二关键点之后,终端设备根据关键点序列以及第二关键点确定中立关键点。同时,终端设备从源视频所包含的多帧源图像中选取一帧作为参考帧图像,并将该参考帧图像所对应的关键点作为参考关键点,然后再基于其他关键点到参考关键点的运动轨迹来确定中立关键点的运动轨迹。
需要说明的是,由于源视频是由多帧源图像组成的,因此,在确定源视频与目标图像之间的中立关键点的过程中,分别计算每帧源图像与目标图像之间的中立关键点,即可得到中立关键点序列,该中立关键点序列即表征了中立关键点的运动轨迹。而由于中立关键点能够解耦不同对象本身所具有的特征对人脸表情或人体动作的影响,因此,基于中立关键点的运动轨迹对目标图像进行驱动所生成的动态图也能够不同对象本身所具有的特征对动态图中人脸表情或人体动作的影响,进而提升了动态图的生成质量,使得动态图中的人脸表情或人体动作更加真实、自然。
在一种可选的实施例中,在确定中立关键点的运动轨迹的过程中,终端设备首先需要基于第一关键点以及第二关键点,生成中立关键点。具体的,终端设备对每帧源图像所对应的第一关键点和第二关键点进行特征聚合,得到聚合特征,然后再基于聚合特征构建第一关键点与第二关键点之间的聚合关键点,其中,中立关键点包括聚合关键点。
可选的,在对第一关键点和第二关键点进行特征聚合的过程中,实质是对第一关键点的关键点信息(即第一关键点信息)和第二关键点的关键点信息(即第一关键点信息)进行特征聚合的过程。
其中,上述的第一关键点信息至少包括:第一对象的人脸关键点或人体关键点的数量变化信息以及第一对象的人脸关键点或人体关键点的位置变化信息;上述的第二关键点信息至少包括:第二对象的人脸关键点或人体关键点的数量变化信息以及第二对象的人脸关键点或人体关键点的位置变化信息。
需要说明的是,由于不同对象的人脸形状的不同,因此,不同对象在做类似表情,其对应的人脸关键点必定不同。但不同对象的人脸关键点可能有类似的运动规律,而中立关键点能够实现人脸表情在不同人脸上的统一表达。同样的,由于不同对象的人体形状的不同,因此,不同对象在做类似的人体动作,其对应的人体关键点必定不同。但不同对象的人体关键点可能有类似的运动规律,而中立关键点能够实现人体动作在不同人体上的统一表达。
在本实施例中,通过对不同对象进行不同人脸表情时的人脸关键点信息或人体关键点信息进行特征聚合,进而基于聚合后的特征进行关键点聚合,得到人脸中立关键点或人体中立关键点,该人脸中立关键点可解耦不同对象的人脸形状和人脸运动对人脸关键点的影响,使不同对象在做类似表情时,其对应的中立关键点的运动是一致的,从而避免了对象所特有的信息对人脸表情迁移的影响,提升了人脸表情的准确迁移,进而提升了人脸表情驱动的准确性和真实性。而人体中立关键点可解耦不同对象的人体形状和人体运动对人体关键点的影响,使不同对象在做类似的肢体动作时,其对应的中立关键点的运动是一致的,从而避免了对象所特有的信息对人体动作迁移的影响,提升了人体动作的准确迁移,进而提升了人体动作驱动的准确性和真实性。
另外,在确定中立关键点的运动轨迹的过程中,终端设备基于源视频所对应的关键点序列中的其他关键点到参考关键点运动轨迹来确定的。因此,在确定中立关键点的运动轨迹之前,终端设备需从源视频所包含的多帧源图像中确定参考帧图像。
可选的,终端设备对源视频所包含的源图像进行随机选取,确定选取到的源图像为参考帧图像。其中,终端设备可自动生成随机数,基于该随机数可从源视频所包含的多帧图像中选取参考帧图像。
需要说明的是,采用随机选取的方式从源视频所包含的多帧源图像中确定参考帧图像,可以提高参考帧图像的选取效率,进而提高动态图的生成效率。
此外,终端设备还可基于关键点的相似度来从源视频所包含的多帧源图像中确定参考帧图像。具体的,终端设备首先获取源图像所对应的中立关键点,并计算中立关键点与第二关键点的相似度,得到源图像所对应的关键点相似度,然后,从源图像中确定关键点相似度最大的图像,得到参考帧图像。
可选的,在计算每帧源图像所对应的中立关键点与目标图像的第二关键点之间的关键点相似度的过程中,终端设备可通过比对中立关键点的数量、位置,与第二关键点的数量、位置来确定每帧源图像与目标图像之间的关键点相似度。
需要说明的是,在该实施例中,参考帧图像为与目标图像的关键点相似度最大的图像,即参考帧图像为源视频所包含的图像中,与目标图像的关键点最匹配的图像,因此,基于参考帧图像所确定的中立关键点的运动轨迹,来对目标图像中的对象进行人脸表情驱动或者人体动作驱动,能够使目标图像中的对象的人脸表情或者人体动作更加真实自然,从而提高了动态图的生成质量。
进一步的,如图2所示,在确定了中立关键点的运动轨迹之后,终端设备即可将中立关键点的运动轨迹映射在目标图像上,得到目标图像所对应的运动光流信息。其中,将中立关键点映射在目标图像上的过程,实质为关键点迁移的过程。
可选的,终端设备可基于神经网络模型对中立关键点在第二对象上的位置信息进行预测,得到预测关键点,并确定预测关键点与第一关键点之间的映射关系,然后再基于映射关系将第一关键点映射在预测关键点上。其中,预测关键点为对第二对象的关键点的移动轨迹进行预测所得到的关键点。
需要说明的是,在实际应用中,并不是所有的中立关键点都有对应的人脸关键点或者人体关键点,因此,在通过中立关键点来实现不同对象之间的人脸表情和/或人体动作的迁移时,可能存在无法有些关键点无法通过中立关键点来实现映射,进而导致人脸表情和/或人体动作无法准确的迁移。
为避免上述问题,在本公开中,基于神经网络模型对中立关键点进行预测,得到预测关键点。而由于预测关键点为对第二对象的关键点的移动轨迹进行预测所得到的关键点。因此,必然存在与第一对象的关键点所对应的预测关键点,也即第一对象的所有关键点均能够映射到第二对象上,从而提升了第一对象的人脸表情或人体动作在第二对象上真实、准确地展现出来。
此外,还需要说明的是,上述预测关键点是基于神经网络模型对第二对象的对象信息以及中立关键点进行处理所得到的,而神经网络模型可通过图4所示的模型训练示意图训练得到。
具体的,终端设备首先获取多个对象所对应的中立关键点样本,以及多个对象所对应的目标关键点样本,并基于初始神经网络模型对中立关键点样本中的中立关键点进行预测,得到预测关键点样本。然后,基于预测关键点样本与目标关键点样本计算初始神经网络模型所对应的损失函数的损失值,并基于损失值对初始神经网络模型的模型参数进行调整,直至损失值达到最小,得到神经网络模型。其中,目标关键点表征多个对象所对应的真实关键点。
可选的,如图4所示,将中立关键点样本输入至初始神经网络模型中,初始神经网络模型对中立关键点样本进行多层次、不同尺度的卷积处理,最后经过平均池化处理,输出预测关键点样本。然后终端设备通过用目标关键点样本作用在初始神经网络模型的损失函数的监督上来做到的。
即,在本公开中,目标关键点样本中的关键点为预测关键点样本的关键点的真值,只是在本公开中,每次要得到预测关键点时,对于每个对象,多个对象所对应的关键点都要经过deepfake的网络,而且对于多个对象所对应的目标关键点没有泛化性(即不是所有中立关键点都可以这样得到目标关键点)。
需要说明的是,通过本公开所提供的神经网络模型预测得到的预测关键点来拟合多个对象所对应的目标关键点,不仅可以提高目标关键点的获取速度,而且对于任何中立关键点,其都能确定对应的目标关键点,从而提升了人脸表情迁移和/或人体动作迁移的准确性。
更进一步的,在得到目标对象所对应的运动光流信息之后,终端设备即可执行步骤S108,即基于运动光流信息对第二对象的人脸或人体进行驱动,生成目标动态图。
具体的,终端设备基于运动光流信息对第二对象进行对象驱动,得到初始动态图。然后,终端设备基于运动光流信息确定初始动态图中的缺失区域,并对缺失区域进行补全操作,得到目标动态图。其中,缺失区域为源视频中不存在,且初始动态图中存在的图像区域。
可选的,如图2所示,终端设备将运动光流信息映射在目标图像上,得到初始动态图,并确定初始动态图中的缺失区域,然后再通过对抗网络对初始动态图中的缺失区域进行修补,从而得到目标动态图。其中,上述的对抗网络为具有区域补全能力的网络模型,该网络模型是通过自监督学习的方式训练得到的。另外,在实际应用中,可采用包含缺失区域的图像以及完整图像的训练样本集来对网络模型进行训练,具体的训练过程与现有的其他网络模型的训练过程类似,在此不再赘述。
需要说明的是,在实际应用中,源视频中的第一对象的关键点可能无法映射到目标图像中的第二对象上,例如,第二对象的嘴巴处于闭合状态,而第一对象的嘴巴处于张开状态,因此,在基于运动光流信息对第二对象进行对象驱动时,第一对象嘴巴内部的纹理信息无法映射到第二对象上,从而使第二对象的人脸驱动不自然、不真实。因此,在对第二对象进行驱动的过程中,还需要确定目标图像所对应的缺失区域,并对缺失区域进行补全操作,从而提升了人脸驱动或人体驱动的真实性和自然性,进而提高了动态图的质量。
由上述内容可知,在本公开中,通过关键点检测技术检测出源视频和目标图像的关键点,通过跨对象的关键点迁移技术确定源视频和目标图像所对应到中立关键点,通过中立关键点的运动轨迹确定目标图像的运动光流,将运动光流应用到目标图像上,再根据运动光流确定目标图像的缺失区域,并通过生成对抗网络来实现完成缺失区域的补全,完成整个驱动过程。,从而实现了静态图像中静态对象的动态化,提升了人脸表情驱动或者人体动作驱动的准确性和真实性。
根据本公开的实施例,本公开还提供了一种动态图像的生成装置,其中,图5示出了一种可选的动态图像的生成装置的示意图,如图5可知,该装置包括:获取模块501、确定模块503、映射模块505以及生成模块 507。
其中,获取模块501,用于获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;确定模块503,用于基于第一关键点以及第二关键点确定中立关键点的第一运动轨迹,中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、不同对象进行不同肢体动作时相同的人体特征;映射模块505,用于将第一运动轨迹映射在目标图像上,得到运动光流信息;生成模块507,用于基于运动光流信息对第二对象进行驱动,生成目标动态图。
可选的,确定模块包括:第一提取模块、第一生成模块、第一确定模块、第二提取模块、第二确定模块以及第三确定模块。其中,第一提取模块,用于从源视频包含的所有源图像中提取第一关键点,得到关键点序列;第一生成模块,用于基于第一关键点以及第二关键点,生成中立关键点;第一确定模块,用于从源图像中确定参考帧图像;第二提取模块,用于提取参考帧图像对应的关键点,得到参考关键点;第二确定模块,用于基于参考关键点以及关键点序列中的其他关键点确定第二运动轨迹,其中,其他关键点为关键点序列中除参考关键点之外的关键点;第三确定模块,用于根据第二运动轨迹确定第一运动轨迹。
可选的,第一生成模块包括:特征聚合模块以及构建模块。其中,特征聚合模块,用于对第一关键点和第二关键点进行特征聚合,得到聚合特征;构建模块,用于基于聚合特征构建第一关键点与第二关键点之间的聚合关键点,中立关键点包括聚合关键点。
可选的,第二提取模块包括:第一获取模块、计算模块以及第四确定模块。其中,第一获取模块,用于获取源图像所对应的中立关键点;计算模块,用于计算中立关键点与第二关键点的相似度,得到源图像所对应的关键点相似度;第四确定模块,用于从源图像中确定关键点相似度最大的图像,得到参考帧图像。
可选的,生成模块包括:驱动模块、第五确定模块以及补全模块。其中,驱动模块,用于基于运动光流信息对第二对象的人脸或人体进行对象驱动,得到初始动态图;第五确定模块,用于基于运动光流信息确定初始动态图中的缺失区域,其中,缺失区域为源视频中不存在,且初始动态图中存在的图像区域;补全模块,用于对缺失区域进行补全操作,得到目标动态图。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在 RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O) 接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如动态图像的生成方法。例如,在一些实施例中,动态图像的生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的动态图像的生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行动态图像的生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/ 或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入) 来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (13)
1.一种动态图像的生成方法,包括:
获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;
基于所述第一关键点以及所述第二关键点确定中立关键点的第一运动轨迹,所述中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、所述不同对象进行不同肢体动作时相同的人体特征;
将所述第一运动轨迹映射在所述目标图像上,得到运动光流信息;
基于所述运动光流信息对所述第二对象进行驱动,生成目标动态图。
2.根据权利要求1所述的方法,其中,所述基于所述第一关键点以及所述第二关键点确定中立关键点的第一运动轨迹,包括:
从所述源视频包含的所有源图像中提取所述第一关键点,得到关键点序列;
基于所述第一关键点以及所述第二关键点,生成所述中立关键点;
从所述源图像中确定参考帧图像;
提取所述参考帧图像对应的关键点,得到参考关键点;
基于所述参考关键点以及所述关键点序列中的其他关键点确定第二运动轨迹,其中,所述其他关键点为所述关键点序列中除所述参考关键点之外的关键点;
根据所述第二运动轨迹确定所述第一运动轨迹。
3.根据权利要求2所述的方法,其中,所述基于所述第一关键点以及所述第二关键点,生成所述中立关键点,包括:
对所述第一关键点和所述第二关键点进行特征聚合,得到聚合特征;
基于所述聚合特征构建所述第一关键点与所述第二关键点之间的聚合关键点,所述中立关键点包括所述聚合关键点。
4.根据权利要求2所述的方法,其中,所述从所述源图像中确定参考帧图像,包括:
获取所述源图像所对应的中立关键点;
计算所述中立关键点与所述第二关键点的相似度,得到所述源图像所对应的关键点相似度;
从所述源图像中确定所述关键点相似度最大的图像,得到所述参考帧图像。
5.根据权利要求1所述的方法,其中,所述基于所述运动光流信息对所述第二对象进行驱动,生成目标动态图,包括:
基于所述运动光流信息对所述第二对象的人脸或人体进行对象驱动,得到初始动态图;
基于所述运动光流信息确定所述初始动态图中的缺失区域,其中,所述缺失区域为所述源视频中不存在,且所述初始动态图中存在的图像区域;
对所述缺失区域进行补全操作,得到所述目标动态图。
6.一种动态图像的生成装置,包括:
获取模块,用于获取源视频包含的第一对象的第一关键点,以及目标图像包含的第二对象的第二关键点;
确定模块,用于基于所述第一关键点以及所述第二关键点确定中立关键点的第一运动轨迹,所述中立关键点表征以下至少一项:不同对象展现不同人脸表情时相同的人脸特征、所述不同对象进行不同肢体动作时相同的人体特征;
映射模块,用于将所述第一运动轨迹映射在所述目标图像上,得到运动光流信息;
生成模块,用于基于所述运动光流信息对所述第二对象进行驱动,生成目标动态图。
7.根据权利要求6所述的装置,其中,所述确定模块包括:
第一提取模块,用于从所述源视频包含的所有源图像中提取所述第一关键点,得到关键点序列;
第一生成模块,用于基于所述第一关键点以及所述第二关键点,生成所述中立关键点;
第一确定模块,用于从所述源图像中确定参考帧图像;
第二提取模块,用于提取所述参考帧图像对应的关键点,得到参考关键点;
第二确定模块,用于基于所述参考关键点以及所述关键点序列中的其他关键点确定第二运动轨迹,其中,所述其他关键点为所述关键点序列中除所述参考关键点之外的关键点;
第三确定模块,用于根据所述第二运动轨迹确定所述第一运动轨迹。
8.根据权利要求7所述的装置,其中,所述第一生成模块包括:
特征聚合模块,用于对所述第一关键点和所述第二关键点进行特征聚合,得到聚合特征;
构建模块,用于基于所述聚合特征构建所述第一关键点与所述第二关键点之间的聚合关键点,所述中立关键点包括所述聚合关键点。
9.根据权利要求7所述的装置,其中,所述第二提取模块包括:
第一获取模块,用于获取所述源图像所对应的中立关键点;
计算模块,用于计算所述中立关键点与所述第二关键点的相似度,得到所述源图像所对应的关键点相似度;
第四确定模块,用于从所述源图像中确定所述关键点相似度最大的图像,得到所述参考帧图像。
10.根据权利要求6所述的装置,其中,所述生成模块包括:
驱动模块,用于基于所述运动光流信息对所述第二对象的人脸或人体进行对象驱动,得到初始动态图;
第五确定模块,用于基于所述运动光流信息确定所述初始动态图中的缺失区域,其中,所述缺失区域为所述源视频中不存在,且所述初始动态图中存在的图像区域;
补全模块,用于对所述缺失区域进行补全操作,得到所述目标动态图。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的动态图像的生成方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至5中任一项所述的动态图像的生成方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至5中任一项所述的动态图像的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210690069.6A CN115375802B (zh) | 2022-06-17 | 2022-06-17 | 动态图像的生成方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210690069.6A CN115375802B (zh) | 2022-06-17 | 2022-06-17 | 动态图像的生成方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115375802A true CN115375802A (zh) | 2022-11-22 |
CN115375802B CN115375802B (zh) | 2023-07-14 |
Family
ID=84061980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210690069.6A Active CN115375802B (zh) | 2022-06-17 | 2022-06-17 | 动态图像的生成方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115375802B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021073416A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于神经网络生成虚拟人物视频的方法及相关设备 |
CN112966599A (zh) * | 2021-03-04 | 2021-06-15 | 北京百度网讯科技有限公司 | 关键点识别模型的训练方法、关键点识别方法及装置 |
CN113313085A (zh) * | 2021-07-28 | 2021-08-27 | 北京奇艺世纪科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113674385A (zh) * | 2021-08-05 | 2021-11-19 | 北京奇艺世纪科技有限公司 | 一种虚拟表情生成方法、装置、电子设备及存储介质 |
CN113807410A (zh) * | 2021-08-27 | 2021-12-17 | 北京百度网讯科技有限公司 | 图像识别方法、装置以及电子设备 |
WO2022002032A1 (zh) * | 2020-06-29 | 2022-01-06 | 北京灵汐科技有限公司 | 图像驱动模型训练、图像生成 |
-
2022
- 2022-06-17 CN CN202210690069.6A patent/CN115375802B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021073416A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于神经网络生成虚拟人物视频的方法及相关设备 |
WO2022002032A1 (zh) * | 2020-06-29 | 2022-01-06 | 北京灵汐科技有限公司 | 图像驱动模型训练、图像生成 |
CN112966599A (zh) * | 2021-03-04 | 2021-06-15 | 北京百度网讯科技有限公司 | 关键点识别模型的训练方法、关键点识别方法及装置 |
CN113313085A (zh) * | 2021-07-28 | 2021-08-27 | 北京奇艺世纪科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113674385A (zh) * | 2021-08-05 | 2021-11-19 | 北京奇艺世纪科技有限公司 | 一种虚拟表情生成方法、装置、电子设备及存储介质 |
CN113807410A (zh) * | 2021-08-27 | 2021-12-17 | 北京百度网讯科技有限公司 | 图像识别方法、装置以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115375802B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210158023A1 (en) | System and Method for Generating Image Landmarks | |
CN115063875B (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN116363261B (zh) | 图像编辑模型的训练方法、图像编辑方法和装置 | |
CN113642431A (zh) | 目标检测模型的训练方法及装置、电子设备和存储介质 | |
CN113221771A (zh) | 活体人脸识别方法、装置、设备、存储介质及程序产品 | |
CN113902956B (zh) | 融合模型的训练方法、图像融合方法、装置、设备及介质 | |
CN113378770A (zh) | 手势识别方法、装置、设备、存储介质以及程序产品 | |
CN112650885A (zh) | 视频分类方法、装置、设备和介质 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN114998490B (zh) | 一种虚拟对象生成方法、装置、设备及存储介质 | |
CN116611491A (zh) | 目标检测模型的训练方法、装置、电子设备和存储介质 | |
CN116721460A (zh) | 手势识别方法、装置、电子设备以及存储介质 | |
CN114220163B (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
CN113177466A (zh) | 基于人脸图像的身份识别方法、装置、电子设备及介质 | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN115359166B (zh) | 一种图像生成方法、装置、电子设备和介质 | |
CN116958756A (zh) | 多任务学习模型的训练方法、装置、电子设备和存储介质 | |
CN114663980B (zh) | 行为识别方法、深度学习模型的训练方法及装置 | |
CN113361519B (zh) | 目标处理方法、目标处理模型的训练方法及其装置 | |
CN115410140A (zh) | 基于海上目标的图像检测方法、装置、设备及介质 | |
CN115375802B (zh) | 动态图像的生成方法、装置、存储介质及电子设备 | |
CN114419182A (zh) | 图像处理方法和装置 | |
CN113936158A (zh) | 一种标签匹配方法及装置 | |
CN113947146A (zh) | 样本数据生成方法、模型训练方法、图像检测方法及装置 | |
CN113139483A (zh) | 人体行为识别方法、装置、设备、存储介质以及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |