CN111476710B - 基于移动平台的视频换脸方法及系统 - Google Patents

基于移动平台的视频换脸方法及系统 Download PDF

Info

Publication number
CN111476710B
CN111476710B CN202010287502.2A CN202010287502A CN111476710B CN 111476710 B CN111476710 B CN 111476710B CN 202010287502 A CN202010287502 A CN 202010287502A CN 111476710 B CN111476710 B CN 111476710B
Authority
CN
China
Prior art keywords
face
net
video
frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010287502.2A
Other languages
English (en)
Other versions
CN111476710A (zh
Inventor
林立
吴航
张仁贵
周单健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Energy Information Technology Co ltd
Original Assignee
Shanghai Energy Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Energy Information Technology Co ltd filed Critical Shanghai Energy Information Technology Co ltd
Priority to CN202010287502.2A priority Critical patent/CN111476710B/zh
Publication of CN111476710A publication Critical patent/CN111476710A/zh
Application granted granted Critical
Publication of CN111476710B publication Critical patent/CN111476710B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于移动平台的实时视频换脸方法及系统,包括视频帧获取模块、人脸识别与关键点检测模块、人脸轮廓区域提取与替换模块,人脸肤色融合与边缘处理模块。对于用户选择的目标人脸图像和视频中提取的源图像,使用人脸识别算法识别出人脸区域,再对其进行检测,得到关键点信息;将两张图像按照最外围一圈的关键点做分割,得到人脸区域;将人脸区域按照关键点进行三角剖分,得到人脸的三角形面片;将源图像和目标人脸图像的三角形面片进行一一对应的替换;将替换人脸后的图像做进行肤色融合及边缘处理,达到更自然逼真的效果。

Description

基于移动平台的视频换脸方法及系统
技术领域
本发明涉及图像处理领域,具体地,涉及一种交互式的图像换脸方法及系统。
背景技术
在影视特效和互联网娱乐应用中,将图像和视频中的人物脸部区域替换为其他人物的脸部区域,并实现神态和表情的迁移是一项重要的技术,在照片处理、电影特效和家庭娱乐中,获得了广泛的应用。
现有基于静态图片的换脸技术已经发展到一定程度,如天天P图,可以将一张模板人脸图片和一张用户的人脸图片进行替换,并做融合,取得了实时换脸的效果。但对于视频的实时换脸技术,目前还没有很成熟的方案。视频换脸技术需要有动态实时预览的效果,需要有神态和面部动作的变化。目前有基于对抗神经网络(GAN)技术生成对应的人脸,可以实现神态和表情的变化,但算法实现过程较为复杂,一般需要高性能的GPU进行运算,无法在移动端实现实时的预览和变换。
申请号为201910833438.0的发明专利公开了一种图像换脸的方法、装置、系统、设备和存储介质,属于计算机技术领域。所述方法包括:接收第一账户登录的第一终端发送的对应第二账户的第一换脸请求;接收第二账户登录的第二终端发送的对应第一账户的第二换脸请求;基于第一人物的面部图像集合和第二人物的面部图像集合,进行模型训练,得到训练后的第一换脸模型和训练后的第二换脸模型;向第一终端发送训练后的第一换脸模型,向第二终端发送训练后的第二换脸模型。采用本申请,可以减小图像失真。但是上述专利没有实现对于视频的实时换脸技术。且算法复杂。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于移动平台的视频换脸方法及系统。
根据本发明提供的一种基于移动平台的视频换脸方法,包括如下步骤:
视频帧获取步骤:从视频帧中获取源图像;
人脸识别步骤:从源图像和用户选定的目标图像中识别出人脸;
关键点检测步骤:对识别出的人脸进行做关键点检测;
提取步骤:根据两张图像的关键点检测的位置,提取人脸轮廓区域,并做三角剖分;
替换步骤:对剖分后的每一个三角形做一一对应的反射变换,得到人脸区域替换后的结果图;
融合处理步骤:将替换前后的人脸按百分比进行混合,并对混合后的人脸区域融合使该区域更好的与周围区域无缝衔接。
优选地,采用MTCNN多任务卷积神经网络进行人脸识别和关键点检测。
优选地,采用Delaunay三角剖分算法对人脸轮廓区域进行三角剖分。
优选地,采用泊松融合算法对混合后的人脸做融合。
优选地,还包括帧间平滑步骤:
对换脸后的视频选取连续设定帧数的关键点进行加权平均处理。
根据本发明提供的一种基于移动平台的视频换脸系统,包括如下模块:
视频帧获取模块:从视频帧中获取源图像;
人脸识别模块:从源图像和用户选定的目标图像中识别出人脸;
关键点检测模块:对识别出的人脸进行做关键点检测;
提取模块:根据两张图像的关键点检测的位置,提取人脸轮廓区域,并做三角剖分;
替换模块:对剖分后的每一个三角形做一一对应的反射变换,得到人脸区域替换后的结果图;
融合处理模块:将替换前后的人脸按百分比进行混合,并对混合后的人脸区域融合使该区域更好的与周围区域无缝衔接。
优选地,采用MTCNN多任务卷积神经网络进行人脸识别和关键点检测。
优选地,采用Delaunay三角剖分算法对人脸轮廓区域进行三角剖分。
优选地,采用泊松融合算法对混合后的人脸做融合。
优选地,还包括帧间平滑模块:
对换脸后的视频选取连续设定帧数的关键点进行加权平均处理。
与现有技术相比,本发明具有如下的有益效果:
1、本发明提供了一种移动平台上简单快速的实时视频换脸的方法,可以逼真的展现人脸的表情动态变化,替换后的结果比较准确自然。
2、本发明在人脸关键点检测的基础上,通过动态获取视频人脸关键点,作三角剖分,将人脸区域划分成三角形的面片;将用户选择的静态人脸图像中的生成的三角形面片以贴图的形式贴到视频帧对应的人脸三角形面片上,并做肤色融合和边缘过渡,实现了在移动设备上的实现换脸效果。
3、本发明使用了帧间平滑处理,提高流畅性,减少抖动,效果明显。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为根据本发明实施例之一的交互式抠图方法流程图。
图2为根据本发明实施例之一的交互式抠图方法三角剖分后的效果图;
图3为三角剖分有问题的嘴部区域图;
图4为三角剖分调整后的嘴部区域图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
如图1至图4所示,根据本发明提供的基于移动平台的视频换脸方法及系统,包括如下步骤:
对用户选定单人脸照片作为人脸替换的目标图像,通过人脸检测技术定位人脸的位置,并对其做人脸关键点检测,人脸区域按照关键点进行三角剖分,得到目标图像人脸区域的三角形面片。从本地视频或摄像头获取图像帧,作为源图像,同样通过人脸检测技术定位人脸位置,并对其做人脸关键点检测,源图像中的人脸区域按照关键点进行三角剖分,得到目标图像人脸区域的三角形面片。将目标图像人脸区域的三角形面片以纹理贴图的形式,通过三角形仿射变换,映射到源图像人脸区域所对应的三角形面片区域。通过图像融合算法,对替换后的人脸区域进行融合,使肤色一致,边缘处的过渡更自然。
其中对于实时人脸识别与关键点检测,采用MTCNN(Multi-task convolutionalneural network)多任务卷积神经网络,对人脸进行区域检测和关键点检测。MTCNN多任务卷积神经网络总体可以分为P-Net,R-Net,O-Net。
P-Net:全称为Proposal Network,其基本的构造是一个全连接网络。对上一步构建完成的图像金字塔,通过一个FCN进行初步特征提取与标定边框,并进行Bounding-BoxRegression调整窗口与NMS进行大部分窗口的过滤。P-Net是一个人脸区域的区域建议网络,该网络的将特征输入结果三个卷积层之后,通过一个人脸分类器判断该区域是否是人脸,同时使用边框回归和一个面部关键点的定位器来进行人脸区域的初步提议,该部分最终将输出很多张可能存在人脸的人脸区域,并将这些区域输入R-Net进行进一步处理。
R-Net:全称为Refine Network,其基本的构造是一个卷积神经网络,相对于第一层的P-Net来说,增加了一个全连接层,因此对于输入数据的筛选会更加严格。在图片经过P-Net后,会留下许多预测窗口,我们将所有的预测窗口送入R-Net,这个网络会滤除大量效果比较差的候选框,最后对选定的候选框进行Bounding-Box Regression和NMS进一步优化预测结果。因为P-Net的输出只是具有一定可信度的可能的人脸区域,在这个网络中,将对输入进行细化选择,并且舍去大部分的错误输入,并再次使用边框回归和面部关键点定位器进行人脸区域的边框回归和关键点定位,最后将输出较为可信的人脸区域,供O-Net使用。对比与P-Net使用全卷积输出的1x1x32的特征,R-Net使用在最后一个卷积层之后使用了一个128的全连接层,保留了更多的图像特征,准确度性能也优于P-Net。
O-Net:全称为Output Network,基本结构是一个较为复杂的卷积神经网络,相对于R-Net来说多了一个卷积层。O-Net的效果与R-Net的区别在于这一层结构会通过更多的监督来识别面部的区域,而且会对人的面部特征点进行回归,最终输出五个人脸面部特征点。是一个更复杂的卷积网络,该网络的输入特征更多,在网络结构的最后同样是一个更大的256的全连接层,保留了更多的图像特征,同时再进行人脸判别、人脸区域边框回归和人脸特征定位,最终输出人脸区域的左上角坐标和右下角坐标与人脸区域的五个特征点。O-Net拥有特征更多的输入和更复杂的网络结构,也具有更好的性能,这一层的输出作为最终的网络模型输出。
MTCNN为了兼顾性能和准确率,避免滑动窗口加分类器等传统思路带来的巨大的性能消耗,先使用小模型生成有一定可能性的目标区域候选框,然后在使用更复杂的模型进行细分类和更高精度的区域框回归,并且让这一步递归执行,以此思想构成三层网络,分别为P-Net、R-Net、O-Net,实现快速高效的人脸检测。在输入层使用图像金字塔进行初始图像的尺度变换,并使用P-Net生成大量的候选目标区域框,之后使用R-Net对这些目标区域框进行第一次精选和边框回归,排除大部分的负例,然后再用更复杂的、精度更高的网络O-Net对剩余的目标区域框进行判别和区域边框回归。
对于人脸三角剖分:三角剖分的目的是为了在仿射的过程中确定纹理坐标点和目标坐标点之间的一一对应关系。三角剖分的方法有很多,本发明采用Delaunay三角剖分算法,其特性为:以最近的三点形成三角形,县域各线段皆不相交。不论从区域何处开始构建,最终都将得到一致的结果。任意两个相邻三角形形成的凸多边形的对角线如果可以互换的话,那么两个三角形六个内角中最小的角度不会变大。如果将三角网中的每个三角形的排列得到的数值最大。新增删除移动某一个顶点时只会影响临近的三角形。三角网最外层的边界形成一个凸多边形的外壳。三角剖分后的效果图如图2所示。
在实际剖分的过程中,对于剖分后的嘴部区域会有问题:没有将嘴唇和牙齿分开,如图3所示。本发明对剖分的结果做了处理,解决了原来关键点的嘴部缺陷,具体如图4所示。
对于人脸区域融合,采用泊松融合算法对替换后的人脸做融合,使肤色一致,边缘无缝拼接。然而如果对每一帧图像都做完全的泊松融合,将无法达到实时的效果。为此,本发明提出了以下的方案进行改进:考虑到视频中人脸的肤色基本上不会有大的变化,因此我们只对前几帧图像做融合,使替换后肤色与目标视频中的人像肤色一致,后续的帧将使用融合过的人脸作为目标人脸。只对边缘小部分区域做颜色融合,使得边缘区域能无缝过渡。这样大大的节省了泊松融合的运算时间。
为了解决换脸之后的视频存在的抖动问题,本发明采用了帧间平滑的方案。选取连续3帧的关键点坐标进行加权平均处理,这样就减少了关键点的抖动和误差,提高了输出视频的流畅性。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (6)

1.一种基于移动平台的视频换脸方法,其特征在于,包括如下步骤:
视频帧获取步骤:从视频帧中获取源图像;
人脸识别步骤:从源图像和用户选定的目标图像中识别出人脸;
关键点检测步骤:对识别出的人脸进行做关键点检测;
提取步骤:根据两张图像的关键点检测的位置,提取人脸轮廓区域,并做三角剖分;
替换步骤:对剖分后的每一个三角形做一一对应的反射变换,得到人脸区域替换后的结果图;
融合处理步骤:将替换前后的人脸按百分比进行混合,并对混合后的人脸区域融合使该区域更好的与周围区域无缝衔接;
采用MTCNN多任务卷积神经网络进行人脸识别和关键点检测;
采用泊松融合算法对混合后的人脸做融合;
MTCNN先使用小模型生成有一定可能性的目标区域候选框,然后再使用更复杂的模型进行细分类和更高精度的区域框回归,并且让这一步递归执行,以此思想构成三层网络,分别为P-Net、R-Net、O-Net;在输入层使用图像金字塔进行初始图像的尺度变换,并使用P-Net生成候选目标区域框,之后使用R-Net对这些候选目标区域框进行第一次精选和边框回归,排除负例,然后再用网络O-Net对剩余的目标区域框进行判别和区域边框回归;
只对前几帧图像做融合,使替换后肤色与目标视频中的人像肤色一致,后续的帧将使用融合过的人脸作为目标人脸;只对边缘部分区域做颜色融合,使得边缘区域能无缝过渡。
2.根据权利要求1所述的基于移动平台的视频换脸方法,其特征在于,采用Delaunay三角剖分算法对人脸轮廓区域进行三角剖分。
3.根据权利要求1所述的基于移动平台的视频换脸方法,其特征在于,还包括帧间平滑步骤:
对换脸后的视频选取连续设定帧数的关键点进行加权平均处理。
4.一种基于移动平台的视频换脸系统,其特征在于,包括如下模块:
视频帧获取模块:从视频帧中获取源图像;
人脸识别模块:从源图像和用户选定的目标图像中识别出人脸;
关键点检测模块:对识别出的人脸进行做关键点检测;
提取模块:根据两张图像的关键点检测的位置,提取人脸轮廓区域,并做三角剖分;
替换模块:对剖分后的每一个三角形做一一对应的反射变换,得到人脸区域替换后的结果图;
融合处理模块:将替换前后的人脸按百分比进行混合,并对混合后的人脸区域融合使该区域更好的与周围区域无缝衔接;
采用MTCNN多任务卷积神经网络进行人脸识别和关键点检测;
采用泊松融合算法对混合后的人脸做融合;
MTCNN先使用小模型生成有一定可能性的目标区域候选框,然后再使用更复杂的模型进行细分类和更高精度的区域框回归,并且让这一步递归执行,以此思想构成三层网络,分别为P-Net、R-Net、O-Net;在输入层使用图像金字塔进行初始图像的尺度变换,并使用P-Net生成候选目标区域框,之后使用R-Net对这些候选目标区域框进行第一次精选和边框回归,排除负例,然后再用网络O-Net对剩余的目标区域框进行判别和区域边框回归;
只对前几帧图像做融合,使替换后肤色与目标视频中的人像肤色一致,后续的帧将使用融合过的人脸作为目标人脸;只对边缘部分区域做颜色融合,使得边缘区域能无缝过渡。
5.根据权利要求4所述的基于移动平台的视频换脸系统,其特征在于,采用Delaunay三角剖分算法对人脸轮廓区域进行三角剖分。
6.根据权利要求4所述的基于移动平台的视频换脸系统,其特征在于,还包括帧间平滑模块:
对换脸后的视频选取连续设定帧数的关键点进行加权平均处理。
CN202010287502.2A 2020-04-13 2020-04-13 基于移动平台的视频换脸方法及系统 Active CN111476710B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010287502.2A CN111476710B (zh) 2020-04-13 2020-04-13 基于移动平台的视频换脸方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010287502.2A CN111476710B (zh) 2020-04-13 2020-04-13 基于移动平台的视频换脸方法及系统

Publications (2)

Publication Number Publication Date
CN111476710A CN111476710A (zh) 2020-07-31
CN111476710B true CN111476710B (zh) 2022-12-02

Family

ID=71752397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010287502.2A Active CN111476710B (zh) 2020-04-13 2020-04-13 基于移动平台的视频换脸方法及系统

Country Status (1)

Country Link
CN (1) CN111476710B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361320A (zh) * 2021-04-07 2021-09-07 汇纳科技股份有限公司 基于稠密人脸关键点的视频换脸方法、系统、介质及设备
CN113160036B (zh) * 2021-04-19 2022-09-20 金科智融科技(珠海)有限公司 一种保持脸型不变的图像换脸方法
CN113486785A (zh) * 2021-07-01 2021-10-08 深圳市英威诺科技有限公司 基于深度学习的视频换脸方法、装置、设备及存储介质
CN113762173B (zh) * 2021-09-09 2024-05-07 北京地平线信息技术有限公司 人脸光流估计及光流值预测模型的训练方法和装置
CN114007099A (zh) * 2021-11-04 2022-02-01 北京搜狗科技发展有限公司 一种视频处理方法、装置和用于视频处理的装置
CN116993576B (zh) * 2023-06-21 2024-03-08 北京开普云信息科技有限公司 视频换脸方法、装置、存储介质及设备
CN117196937B (zh) * 2023-09-08 2024-05-14 天翼爱音乐文化科技有限公司 一种基于人脸识别模型的视频换脸方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599817A (zh) * 2016-12-07 2017-04-26 腾讯科技(深圳)有限公司 一种人脸替换方法及装置
CN108965740A (zh) * 2018-07-11 2018-12-07 深圳超多维科技有限公司 一种实时视频换脸方法、装置、设备和存储介质
CN110136229A (zh) * 2019-05-27 2019-08-16 广州亮风台信息科技有限公司 一种用于实时虚拟换脸的方法与设备
CN110264396A (zh) * 2019-06-27 2019-09-20 杨骥 视频人脸替换方法、系统及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733699B2 (en) * 2017-10-24 2020-08-04 Deep North, Inc. Face replacement and alignment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599817A (zh) * 2016-12-07 2017-04-26 腾讯科技(深圳)有限公司 一种人脸替换方法及装置
CN108965740A (zh) * 2018-07-11 2018-12-07 深圳超多维科技有限公司 一种实时视频换脸方法、装置、设备和存储介质
CN110136229A (zh) * 2019-05-27 2019-08-16 广州亮风台信息科技有限公司 一种用于实时虚拟换脸的方法与设备
CN110264396A (zh) * 2019-06-27 2019-09-20 杨骥 视频人脸替换方法、系统及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于人脸关键点的表情实时动态迁移;刘春平 等;《现代计算机》;20190131;第43-44页 *

Also Published As

Publication number Publication date
CN111476710A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
CN111476710B (zh) 基于移动平台的视频换脸方法及系统
CN108985181B (zh) 一种基于检测分割的端对端人脸标注方法
TWI709107B (zh) 影像特徵提取方法及包含其顯著物體預測方法
CN110598610B (zh) 一种基于神经选择注意的目标显著性检测方法
WO2020108358A1 (zh) 图像修复方法、装置、计算机设备和存储介质
WO2018076212A1 (zh) 基于反卷积神经网络的场景语义分割方法
CN108388882B (zh) 基于全局-局部rgb-d多模态的手势识别方法
WO2021073418A1 (zh) 人脸识别方法、装置、设备及存储介质
CN102332095B (zh) 一种人脸运动跟踪方法和系统以及一种增强现实方法
CN109410168B (zh) 用于确定图像中的子图块类别的卷积神经网络的建模方法
CN109657612B (zh) 一种基于人脸图像特征的质量排序系统及其使用方法
CN108694719B (zh) 图像输出方法和装置
CN110264396B (zh) 视频人脸替换方法、系统及计算机可读存储介质
WO2014117446A1 (zh) 基于单个视频摄像机的实时人脸动画方法
CN102567727A (zh) 一种背景目标替换方法和装置
CN109635783A (zh) 视频监控方法、装置、终端和介质
WO2023212997A1 (zh) 基于知识蒸馏的神经网络训练方法、设备及存储介质
CN106529494A (zh) 一种基于多摄像头机型的人脸识别方法
Peng et al. LVE-S2D: Low-light video enhancement from static to dynamic
CN111951368A (zh) 一种点云、体素和多视图融合的深度学习方法
WO2020151148A1 (zh) 基于神经网络的黑白照片色彩恢复方法、装置及存储介质
CN109961016B (zh) 面向智能家居场景的多手势精准分割方法
WO2022135574A1 (zh) 肤色检测方法、装置、移动终端和存储介质
WO2022267653A1 (zh) 图像处理方法、电子设备及计算机可读存储介质
CN100487732C (zh) 一种基于人脸照片的卡通肖像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant