CN113033442B - 基于StyleGAN的高自由度人脸驱动方法和装置 - Google Patents
基于StyleGAN的高自由度人脸驱动方法和装置 Download PDFInfo
- Publication number
- CN113033442B CN113033442B CN202110350947.5A CN202110350947A CN113033442B CN 113033442 B CN113033442 B CN 113033442B CN 202110350947 A CN202110350947 A CN 202110350947A CN 113033442 B CN113033442 B CN 113033442B
- Authority
- CN
- China
- Prior art keywords
- face
- video
- parameters
- principal component
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种基于StyleGAN的高自由度人脸驱动方法和装置,其中,方法包括:通过单摄像头采集第一人脸的第一人脸视频;利用预训练的人脸生成网络StyleGAN2将第一人脸视频映射到隐变量空间,获取人脸向量;对人脸向量进行主元分析,获取主元成分矩阵和平均向量;获取第二人脸的第二人脸视频,对第二人脸视频进行关键点检测生成目标关键点序列;提取目标关键点序列中的主元参数,并根据主元参数、主元成分矩阵和平均向量更新第二人脸视频的姿态参数和表情参数,使得第二人脸视频中的第二人脸替换为第一人脸。由此,可以利用单摄像头拍摄的人脸视频,实现该人脸的高自由度表情和姿态驱动。
Description
技术领域
本发明涉及计算机视觉中的人脸驱动技术领域,尤其涉及一种基于StyleGAN的高自由度人脸驱动方法和装置。
背景技术
随着计算机视觉领域中的人脸识别和生成等相关人脸技术的不断发展,利用人脸驱动的相关技术也不断产生。人脸驱动技术可为现代社会中的新闻播报、娱乐直播、远程通讯等提供更为新颖的表现方式。以新闻播报为例,人脸驱动技术结合其他相关技术可以生成24小时准确无间断的人工智能播音员,在降低人力成本的同时也会为人们的生活提供极大的便利。
在算法方面,人脸驱动算法可大体分为三维重建和二维驱动算法两类。三维重建算法往往需要高精度的采集设备和复杂的采集条件,且由于人脸的面部高光、复杂拓扑等特殊问题导致目前的动态人脸重建算法的重建质量有限。此外,渲染算法往往难以产生高真实感的人脸图片。当下流行的最先进的二维人脸驱动算法避免了渲染带来的真实感确实问题,但往往难以解决高自由度的人脸运动和表情变化。对采集环境和处理设备的高要求限制了三维算法的实际应用的场景,同时目前的维算法难以满足高自由度姿态和表情变化的需求。高真实感和高自由度的人脸驱动还没有切实可行的解决方案。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于StyleGAN的高自由度人脸驱动方法,以实现可以利用单摄像头拍摄的人脸视频,实现该人脸的高自由度表情和姿态驱动。
本发明的第二个目的在于提出一种基于StyleGAN的高自由度人脸驱动装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种基于StyleGAN的高自由度人脸驱动方法,包括:通过单摄像头采集第一人脸的第一人脸视频;
利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量;
对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量;
获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列;
提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸。
为达上述目的,本发明第二方面实施例提出了一种基于StyleGAN的高自由度人脸驱动装置,包括:采集模块,用于通过单摄像头采集第一人脸的第一人脸视频;
映射模块,用于利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量;
主元分析模块,用于对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量;
关键点检测模块,用于获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列;
视频处理模块,用于提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸。
为达上述目的,本发明第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如上述第一方面实施例所述的基于StyleGAN的高自由度人脸驱动方法。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面实施例所述的基于StyleGAN的高自由度人脸驱动方法。
为了实现上述目的,本发明第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,实现如上述第一方面实施例所述的基于StyleGAN的高自由度人脸驱动方法。
本发明的实施例,至少具有如下的技术效果:
基于StyleGAN的高自由度人脸驱动,包括步骤:利用单摄像头采集一段人脸的视频,包含头部姿态的自由运动和表情变化,利用预训练的人脸生成网络StyleGAN2将上述视频中的人脸映射到StyleGAN2的隐变量空间中,得到一系列能够表征该人脸信息的向量,对上述向量的集合进行主元分析,从而在隐变量空间中求得能够表征该人脸自由变化和插值的子空间,利用另一段人脸的视频,检测其脸部关键点,归一化后得到目标关键点序列,进而,利用损失函数约束主元参数收敛,使得StyleGAN2可以生成具有一个人脸在另一个人脸的姿态和表情下的视频。由此,可以利用单摄像头拍摄的人脸视频,实现该人脸的高自由度表情和姿态驱动。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种基于StyleGAN的高自由度人脸驱动方法的流程示意图;
图2是根据本发明一个实施例的单摄像头采集视频及处理流程示意图;
图3是根据本发明一个实施例的拟合目标视频的处理流程示意图;
图4是根据本发明一个实施例的测试结果图;以及
图5是根据本发明实施例所提供的一种基于StyleGAN的高自由度人脸驱动的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于StyleGAN的高自由度人脸驱动方法和装置。
图1为本发明实施例所提供的一种基于StyleGAN的高自由度人脸驱动方法的流程示意图。
如图1所示,该基于StyleGAN的高自由度人脸驱动方法包括以下步骤:
步骤101,通过单摄像头采集第一人脸的第一人脸视频。
本实施例中,单摄像头如手机、单反相机等。
在本实施例中,利用单摄像头采集一段人脸A(第一人脸)的第一人脸视频,其内容包含该人头姿态的自由运动和各个姿态下的表情变化,采集时长约2~3分钟,总帧数为N。
步骤102,利用预训练的人脸生成网络StyleGAN2将第一人脸视频映射到隐变量空间,获取人脸向量。
在本实施例中,利用在FFHQ人脸数据集上进行预训练的人脸生成网络StyleGAN2,通过Image2StyleGAN算法将上述视频中的人脸映射到StyleGAN2的隐变量空间中,得到一系列能够表征该人脸信息的向量,其维度为(N,16,512)。
步骤103,对人脸向量进行主元分析,获取主元成分矩阵和平均向量。
在本实施例中,对上述维度为(N,16,512)的向量集合进行主元分析,得到维度为(100,16*512)的主元成分矩阵P和维度为(1,16*512)的平均向量M,从而在隐变量空间中求得能够表征该人脸自由变化和插值的子空间。
步骤104,获取第二人脸的第二人脸视频,对第二人脸视频进行关键点检测生成目标关键点序列。
在本实施例中,利用另一段人脸B(第二人脸)的视频作为目标序列,检测其脸部关键点,归一化后得到目标关键点序列,并从中提取表情参数和姿态参数。
步骤105,提取目标关键点序列中的主元参数,并根据主元参数、主元成分矩阵和平均向量更新第二人脸视频的姿态参数和表情参数,使得第二人脸视频中的第二人脸替换为第一人脸。
在本实施例中,生成维度为(1,100)的主元参数V为输入,利用主元成分矩阵P和平均向量M,更新L=V*P+M,变更维度为(16,512)后作为新的隐变量,输入至StyleGAN2,生成人脸A的图片,建立能量函数,在上述步骤的框架中,利用梯度回传对输入参数V进行更新迭代,收敛后即可得到输入人脸A在目标人脸B的姿态和表情下的图片。
进而,对第二人脸视频中的每一帧第二人脸图像进行上述步骤的处理后,通过时域平滑算法进行后处理,最终得到输入人脸A对应于目标人脸视频B中表情和姿态的视频,即最终的高自由度驱动结果。
对基于StyleGAN的高自由度人脸驱动的一个实施例的说明如下:
对基于StyleGAN的高自由度人脸驱动的一个实施例的说明如下:
步骤S101,将手机固定于人脸同高度处,面对相机采集一段视频,保证背景相对简单,视频中包含人头部各种常见的运动姿态,且在不同姿态下进行一定程度的表情变化。
步骤S102,将上述视频数据利用如附图2所示的处理流程,投影至预训练好的StyleGAN2的隐空间中,并进行主元分析。
步骤S103,找到另一端人脸清晰可见的目标视频,根据附图3中所示的处理流程,逐帧求解包含输入视频人脸特征和目标视频表情姿态的人脸图片对应的输入主元参数V。
步骤S104,对上述主元参数V的集合进行时域平滑的后处理后,通过图3的正向流程生成驱动后的人脸视频,至此便实现了高自由度和真实感的人脸驱动。
这一实施例的的测试结果可见图4,下排图片保留了输入人脸图片的基本特征,同时具备目标人脸图片的表情和姿态。
其中,在本发明的一个实施例中,生成维度为(1,100)的主元参数V为输入,利用主元成分矩阵P和平均向量M,更新L=V*P+M,变更维度为(16,512)后作为新的隐变量,输入至StyleGAN2,生成人脸A的图片时,利用了主元分析算法对StyleGAN隐空间进行了约束,使得生成图片能基本维持人脸A的面部特征,在初始化主元参数V的过程中,首先对输入视频A的表情和姿态进行了匹配,利用最接近的表情和姿态辅助初始化,降低了后续算法的收敛难度。
在本发明的一个实施例中,在利用梯度回传对输入参数V进行更新迭代时的能量函数,如图3所示,含了基本的对人脸表情和姿态的约束项Lpose和Lexpression,利用StyleGAN2的判别器对人脸进行正则项约束Lregulation,
利用人脸关键点检测器和人脸识别检测器在生成图片能够维持人脸A的面部特征的前提下,进行表情变化的驱动。
综上,本发明实施例的基于StyleGAN的高自由度人脸驱动方法,通过单摄像头采集第一人脸的第一人脸视频,利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量,对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量,获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列,提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸。由此,通过常见的单摄像头采集设备,采集人脸视频后即可实现高真实感、高自由度的二维人脸驱动视频效果。
为了实现上述实施例,本发明还提出一种基于StyleGAN的高自由度人脸驱动装置。
图5为本发明实施例提供的一种基于StyleGAN的高自由度人脸驱动装置的结构示意图。
如图5所示,该基于StyleGAN的高自由度人脸驱动装置包括:采集模块510、映射模块520、主元分析模块530、关键点检测模块540、视频处理模块550。
其中,采集模块510,用于通过单摄像头采集第一人脸的第一人脸视频;
映射模块520,用于利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量;
主元分析模块530,用于对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量;
关键点检测模块540,用于获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列;
视频处理模块550,用于提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸。
需要说明的是,前述对基于StyleGAN的高自由度人脸驱动方法实施例的解释说明也适用于该实施例的基于StyleGAN的高自由度人脸驱动装置,此处不再赘述。
为了实现上述实施例,本发明还提出一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如上述实施例所描述的基于StyleGAN的高自由度人脸驱动方法。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例所描述的基于StyleGAN的高自由度人脸驱动方法。
为了实现上述实施例,本发明还提出一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,实现如上述实施例所描述的基于StyleGAN的高自由度人脸驱动方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于StyleGAN的高自由度人脸驱动方法,其特征在于,包括:
通过单摄像头采集第一人脸的第一人脸视频;
利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量;
对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量;
获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列;
提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸;
所述提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,包括:
计算所述主元成分矩阵和所述主元参数的乘积值,计算所述乘积值和所述平均向量之和,以获取所述第二人脸视频中人脸图像新的隐变量;
将所述新的隐变量输入所述人脸生成网络StyleGAN2,得到所述第一人脸的人脸图像;
在所述计算所述主元成分矩阵和所述主元参数的乘积值之前,还包括:
获取所述第二人脸视频中的每张第二人脸图像的表情参数和姿态参数;
获取所述第一人脸视频中的每张第一人脸图像的表情参数和姿态参数;
将所述第二人脸图像和所述第一人脸图像的表情参数和姿态参数匹配,根据匹配度确定与每张第二人脸图像匹配度最高的第一人脸图像;
获取每张第二人脸图像匹配度最高的第一人脸图像的主元成分矩阵和平均向量。
2.如权利要求1所述的方法,其特征在于,所述利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量,包括:
利用在FFHQ人脸数据集上进行预训练的人脸生成网络StyleGAN2;
通过Image2StyleGAN算法将所说第一人脸视频中的人脸图像映射到StyleGAN2的隐变量空间,获取人脸向量。
3.如权利要求1所述的方法,其特征在于,还包括:
利用梯度回传对所述主元参数更新迭代。
4.一种基于StyleGAN的高自由度人脸驱动装置,其特征在于,包括:
采集模块,用于通过单摄像头采集第一人脸的第一人脸视频;
映射模块,用于利用预训练的人脸生成网络StyleGAN2将所述第一人脸视频映射到隐变量空间,获取人脸向量;
主元分析模块,用于对所述人脸向量进行主元分析,获取主元成分矩阵和平均向量;
关键点检测模块,用于获取第二人脸的第二人脸视频,对所述第二人脸视频进行关键点检测生成目标关键点序列;
视频处理模块,用于提取所述目标关键点序列中的主元参数,并根据所述主元参数、所述主元成分矩阵和平均向量更新所述第二人脸视频的姿态参数和表情参数,使得所述第二人脸视频中的第二人脸替换为所述第一人脸;
所述视频处理模块,还用于:
计算所述主元成分矩阵和所述主元参数的乘积值,计算所述乘积值和所述平均向量之和,以获取所述第二人脸视频中人脸图像新的隐变量;
将所述新的隐变量输入所述人脸生成网络StyleGAN2,得到所述第一人脸的人脸图像;
在所述计算所述主元成分矩阵和所述主元参数的乘积值之前,还包括:
获取所述第二人脸视频中的每张第二人脸图像的表情参数和姿态参数;
获取所述第一人脸视频中的每张第一人脸图像的表情参数和姿态参数;
将所述第二人脸图像和所述第一人脸图像的表情参数和姿态参数匹配,根据匹配度确定与每张第二人脸图像匹配度最高的第一人脸图像;
获取每张第二人脸图像匹配度最高的第一人脸图像的主元成分矩阵和平均向量。
5.如权利要求4所述的装置,其特征在于,所述映射模块,具体用于:
利用在FFHQ人脸数据集上进行预训练的人脸生成网络StyleGAN2;
通过Image2StyleGAN算法将所说第一人脸视频中的人脸图像映射到StyleGAN2的隐变量空间,获取人脸向量。
6.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-3中任一所述的方法。
7.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-3中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110350947.5A CN113033442B (zh) | 2021-03-31 | 2021-03-31 | 基于StyleGAN的高自由度人脸驱动方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110350947.5A CN113033442B (zh) | 2021-03-31 | 2021-03-31 | 基于StyleGAN的高自由度人脸驱动方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113033442A CN113033442A (zh) | 2021-06-25 |
CN113033442B true CN113033442B (zh) | 2023-01-10 |
Family
ID=76453189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110350947.5A Active CN113033442B (zh) | 2021-03-31 | 2021-03-31 | 基于StyleGAN的高自由度人脸驱动方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113033442B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663963B (zh) * | 2022-05-24 | 2022-09-27 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN117041231A (zh) * | 2023-07-11 | 2023-11-10 | 启朔(深圳)科技有限公司 | 用于线上会议的视频传输方法、系统、存储介质及设备 |
CN116704084B (zh) * | 2023-08-01 | 2023-11-03 | 苏州浪潮智能科技有限公司 | 人脸动画生成网络的训练方法、人脸动画生成方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132688A (ja) * | 1998-10-29 | 2000-05-12 | Matsushita Electric Ind Co Ltd | 顔パーツ検出方法及びその装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108776983A (zh) * | 2018-05-31 | 2018-11-09 | 北京市商汤科技开发有限公司 | 基于重建网络的人脸重建方法和装置、设备、介质、产品 |
CN111860044A (zh) * | 2019-04-26 | 2020-10-30 | 北京陌陌信息技术有限公司 | 人脸换脸方法、装置、设备及计算机存储介质 |
CN110349232B (zh) * | 2019-06-17 | 2023-04-07 | 达闼科技(北京)有限公司 | 图像的生成方法、装置、存储介质和电子设备 |
CN110349081B (zh) * | 2019-06-17 | 2023-04-07 | 达闼科技(北京)有限公司 | 图像的生成方法、装置、存储介质和电子设备 |
CN110457994B (zh) * | 2019-06-26 | 2024-05-10 | 平安科技(深圳)有限公司 | 人脸图像生成方法及装置、存储介质、计算机设备 |
CN110569721B (zh) * | 2019-08-01 | 2023-08-29 | 平安科技(深圳)有限公司 | 识别模型训练方法、图像识别方法、装置、设备及介质 |
CN112330526B (zh) * | 2019-08-05 | 2024-02-09 | 深圳Tcl新技术有限公司 | 一种人脸转换模型的训练方法、存储介质及终端设备 |
CN111080511B (zh) * | 2019-11-18 | 2020-12-25 | 杭州时光坐标影视传媒股份有限公司 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
CN112581591A (zh) * | 2021-01-29 | 2021-03-30 | 秒影工场(北京)科技有限公司 | 一种基于gan和三维模型参数的可调人脸图片生成方法 |
CN112446364B (zh) * | 2021-01-29 | 2021-06-08 | 中国科学院自动化研究所 | 高清人脸替换视频生成方法及系统 |
-
2021
- 2021-03-31 CN CN202110350947.5A patent/CN113033442B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132688A (ja) * | 1998-10-29 | 2000-05-12 | Matsushita Electric Ind Co Ltd | 顔パーツ検出方法及びその装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113033442A (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598998B (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
CN113099208B (zh) | 基于神经辐射场的动态人体自由视点视频生成方法和装置 | |
CN113033442B (zh) | 基于StyleGAN的高自由度人脸驱动方法和装置 | |
CN109285215B (zh) | 一种人体三维模型重建方法、装置和存储介质 | |
CN110637323B (zh) | 基于部分的跟踪的方法、设备和系统 | |
KR101547780B1 (ko) | 이미지 모델 구축 방법 및 장치 | |
CN113689540B (zh) | 基于rgb视频的物体重建方法和装置 | |
CN111340944B (zh) | 基于隐式函数和人体模板的单图像人体三维重建方法 | |
CN113822977A (zh) | 图像渲染方法、装置、设备以及存储介质 | |
CN110443874B (zh) | 基于卷积神经网络的视点数据生成方法和装置 | |
CN114339409B (zh) | 视频处理方法、装置、计算机设备及存储介质 | |
CN107767358B (zh) | 一种图像中物体模糊度确定方法和装置 | |
CN114821404B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN114782864B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
Mitianoudis et al. | Optimal contrast correction for ICA-based fusion of multimodal images | |
CN112907737A (zh) | 基于隐函数融合的动态人体三维重建方法和装置 | |
CN114450719A (zh) | 人体模型重建方法、重建系统及存储介质 | |
CN112598780A (zh) | 实例对象模型构建方法及装置、可读介质和电子设备 | |
CN111680573B (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN108241855B (zh) | 图像生成方法和装置 | |
CN114783022B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN113065506B (zh) | 一种人体姿态识别方法及系统 | |
CN113808277A (zh) | 一种图像处理方法及相关装置 | |
CN110430416B (zh) | 自由视点图像生成方法和装置 | |
CN109166176B (zh) | 三维人脸图像的生成方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221227 Address after: Room 3346, Floor 3, International Innovation Expo Center, No. 267, Kejiyuan Road, Baiyang Street, Qiantang District, Hangzhou, Zhejiang 310020 Applicant after: Hangzhou Xinchangyuan Technology Co.,Ltd. Address before: 100084 Tsinghua Yuan, Beijing, Haidian District Applicant before: TSINGHUA University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |