CN110717405B - 人脸特征点定位方法、装置、介质及电子设备 - Google Patents
人脸特征点定位方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN110717405B CN110717405B CN201910877995.2A CN201910877995A CN110717405B CN 110717405 B CN110717405 B CN 110717405B CN 201910877995 A CN201910877995 A CN 201910877995A CN 110717405 B CN110717405 B CN 110717405B
- Authority
- CN
- China
- Prior art keywords
- feature map
- candidate
- neural network
- point
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000013527 convolutional neural network Methods 0.000 claims description 139
- 230000001815 facial effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 14
- 238000012549 training Methods 0.000 abstract description 7
- 238000003062 neural network model Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000011176 pooling Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本公开涉及图像算法领域,揭示了一种人脸特征点定位方法、装置、介质及电子设备。该方法包括:将目标人脸图像输入至第一卷积模型,得到第一卷积模型的预定层卷积层输出的第一浅层特征图;利用双线性插值算法对第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图;将第二浅层特征图输入至与第一卷积模型级联的第二卷积模型,得到第二卷积模型输出的与目标人脸图像对应的人脸特征图,其中,第二卷积模型的预定层卷积层及之前的每一卷积层的权重分别与第一卷积模型对应层数的卷积层的权重一致。此方法下,提高了人脸特征点定位精度,由于级联模型之间的卷积层共享权重,可以减少计算量和参数量,提高模型的训练速度和收敛速度。
Description
技术领域
本公开涉及图像算法技术领域,特别涉及一种人脸特征点定位方法、装置、介质及电子设备。
背景技术
卷积神经网络模型是图像处理领域重要而经典的模型之一。而人脸图像处理是图像处理领域的重要课题。
在现有技术中,人脸特征点定位模型很多都用到了卷积神经网络模型。通常情况下,人们为了对人脸图像中的特征点进行定位,通常是将人脸图像直接输入到卷积神经网络模型中,利用该卷积神经网络模型的卷积层进行人脸特征点的定位。目前采用的人脸特征点定位方法在实际进行特征点定位时的精度不够高。
发明内容
在图像算法技术领域,为了解决上述技术问题,本公开的目的在于提供一种人脸特征点定位方法、装置、介质及电子设备。
根据本申请的一方面,提供了一种人脸特征点定位方法,所述方法包括:
将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图;
利用双线性插值算法对所述第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图;
将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
根据本申请的另一方面,提供了一种人脸特征点定位装置,所述装置包括:
第一获取模块,被配置为将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图;
插值模块,被配置为利用双线性插值算法对所述第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图;
第二获取模块,被配置为将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
根据本申请的另一方面,提供了一种计算机可读程序介质,其存储有计算机程序指令,当所述计算机程序指令被计算机执行时,使计算机执行如前所述的方法。
根据本申请的另一方面,提供了一种电子设备,所述电子设备包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如前所述的方法。
本发明的实施例提供的技术方案可以包括以下有益效果:
本发明所提供的人脸特征点定位方法包括如下步骤:将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图;利用双线性插值算法对所述第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图;将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
此方法下,首先通过两个卷积神经网络模型的级联来进行人脸特征点的定位,利用第一个卷积神经网络模型去除掉背景等干扰因素,然后将第一卷积神经网络模型的输出输入至第二卷积神经网络模型,可以提高最终对人脸特征点的定位精度,在此基础上,在将第一卷积神经网络模型的输出输入至第二卷积神经网络模型之前,通过利用双线性插值算法对第一卷积神经网络模型输出的特征图进行双线性插值,使得输入至第二卷积神经网络模型的特征图能够精确地反映原图中的特征点的位置,使得对人脸特征点的定位精度更为准确,另外,由于两个卷积神经网络模型的卷积层实现了权重共享,在模型训练时,第二卷积神经网络模型无需根据输入重新从原始输入的图片来进行学习,减少了参数计算量,加快了整体模型的训练速度和收敛速度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种人脸特征点定位方法的应用场景示意图;
图2是根据一示例性实施例示出的一种人脸特征点定位方法的流程图;
图3是根据一示例性实施例示出的一种用于人脸特征点定位方法的级联卷积神经网络模型的结构示意图;
图4是根据图2对应实施例示出的一实施例的步骤220的细节流程图;
图5是根据图4对应实施例示出的一实施例的步骤223的细节流程图;
图6是根据一示例性实施例示出的一种人脸特征点定位装置的框图;
图7是根据一示例性实施例示出的一种实现上述人脸特征点定位方法的电子设备示例框图;
图8是根据一示例性实施例示出的一种实现上述人脸特征点定位方法的计算机可读存储介质。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
本公开首先提供了一种人脸特征点定位方法。人脸是指电子图像中的人脸,此处的电子图像既可以是照片或者图片,也可以是视频中的一帧,一般情况下,一张包含人脸的电子图像包括多个像素点。特征点是指能够代表人脸的特征信息或者特点的像素点或包含像素点的区域,人脸特征点由于对人脸最具有代表性,所以人脸特征点亦可以称之为人脸关键点。人脸特征点定位是指在一张包含人脸的电子图像中确定人脸的特征点或关键点的过程。通过使用本公开提供的人脸特征点定位方法能够高效准确地对包含人脸的图像中人脸的特征点进行定位,并且整个模型的训练过程更加高效。
本公开的实施终端可以是任何具有运算和处理功能的设备,该设备可以与外部设备相连,用于接收或者发送数据,具体可以是便携移动设备,例如智能手机、平板电脑、笔记本电脑、PDA(Personal Digital Assistant)等,也可以是固定式设备,例如,计算机设备、现场终端、台式电脑、服务器、工作站等,还可以是多个设备的集合,比如云计算的物理基础设施。
优选地,本公开的实施终端可以为服务器、云计算的物理基础设施或者带有高性能显卡的计算机设备。
图1是根据一示例性实施例示出的一种人脸特征点定位方法的应用场景示意图。如图1所示,包括服务器110、数据库120以及用户终端130,其中,数据库120和用户终端130分别通过通信链路与服务器110相连,在本实施例中,服务器110为本公开的实施终端,用户终端130也可以是任何具有运算和处理功能的设备,其可以与本公开的实施终端为相同类型的终端,也可以是不同类型的终端,可以与本公开的实施终端为同一终端,也可以为不同终端。对人脸特征点定位需要使用本公开所使用的级联的卷积神经网络模型,未经训练的级联的卷积神经网络模型首先会被嵌入到服务器110中,数据库120中事先存储了大量被准确标注了人脸特征点的图像样本,将这些图像样本输入至嵌于服务器110的级联的卷积神经网络模型中,可以对级联的卷积神经网络模型进行训练,当级联的卷积神经网络模型被训练好时,即可用于进行人脸特征点的定位。当用户需要对一张电子图像中的人脸进行人脸特征点定位时,可以通过使用用户终端130将要进行人脸特征点定位的电子图像发送至服务器110,服务器110利用已经训练好的级联的卷积神经网络模型,可以输出包含定位出的人脸特征点的电子图像并返回至用户终端130。
值得一提的是,虽然在本实施例中,本公开的实施终端为服务器,并且级联的卷积神经网络模型都被固定于本公开的实施终端——服务器中,但在其他实施例或者具体应用中,可以根据需要将各种终端选为本公开的实施终端,并且可以将级联的卷积神经网络模型固定于包括本公开的实施终端在内的任意两个相同或者不同终端上,本公开对此不作任何限定,本公开的保护范围也不应因此而受到任何限制。
图2是根据一示例性实施例示出的一种人脸特征点定位方法的流程图。如图2所示,可以包括以下步骤:
步骤210,将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图。
目标人脸图像即需要进行特征点定位的图像,其可以是各种形式或者格式的电子图像,比如可以是以任意方式生成的图片、照片或者视频文件中的一帧,可以是.jpg、.jpeg、.png、.bmp等各种格式。
第一卷积神经网络模型包括多层卷积层,各层卷积层是用堆叠的方式建构的。预定层卷积层可以是第一卷积神经网络模型的多层卷积层中除第一层卷积层之外的任意一层卷积层。卷积层用于提取目标人脸图像中的特征,一个卷积神经网络模型包含的卷积层越多,就能提取到更深层次的特征图,每一卷积层都可以包含卷积核,卷积核的大小可以是任意的,比如可以为3×3、5×5等。
在一个实施例中,所述第一卷积神经网络模型除了包含卷积层外,还包含池化层。池化层可用于对特征图进行压缩,池化层处理特征图的方式可以是平均池化或者最大池化,平均池化为用一个区域中各像素点的像素值的均值代表整个区域,而最大池化为用一个区域中各像素点的像素值的最大值代表整个区域。
在一个实施例中,所述第一卷积神经网络模型的每一卷积层之前,包含一个池化层。
在一个实施例中,所述第一卷积神经网络模型的最后一层卷积层之前的每一卷积层之后,包含一个池化层。
候选特征点为所述第一卷积神经网络模型的输出的第一浅层特征图中点,是对目标人脸图像粗略提取得到的特征点。
步骤220,利用双线性插值算法对所述第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图。
双线性插值算法可以通过在横坐标和纵坐标两个方向上分别进行一次线性插值,实现对图像的尺寸的变换,比如可以将第一尺寸的第一浅层特征图变换为第二尺寸的第二浅层特征图。双线性插值算法可以实现在将第一浅层特征图转换为第二浅层特征图的同时,使插值得到的第二浅层特征图能够准确反映第一浅层特征图中的候选特征点的位置和像素值的对应关系。
在一个实施例中,步骤220的具体实现步骤可以如图4所示。图4是根据图2对应实施例示出的一实施例的步骤220的细节流程图。如图4所示,步骤220具体可以包括以下子步骤:
步骤221,针对所述第一浅层特征图中的每一候选特征点,获取要以该候选特征点为坐标中心确定的正方形区域的目标边长。
在一个实施例中,针对所述第一浅层特征图中的每一候选特征点获取的所述目标边长都是相同的。这样做的好处在于,使得插值得到的第二浅层特征图中的每一点都是按照相同的双线性插值方式得到的,保证了插值的平滑性。
在一个实施例中,针对所述第一浅层特征图中的每一候选特征点获取的目标边长是按照预定顺序获取的。
比如,事先设置一个目标边长序列表,存储了针对所述第一浅层特征图中的各候选特征点要获取的各目标边长,各目标边长在所述序列表中按照预定顺序排序,先对所述第一浅层特征图中的每一候选特征点按照从左到右从上到下的顺序进行排序;然后按照所述排序为各候选特征点获取目标边长。具体地,从所述第一浅层特征图中的第一候选特征点开始,针对每一候选特征点,按照各候选特征点的排序,在没被标记为已获取的目标边长中按照预定顺序获取一个目标边长,将获取的目标边长作为针对对应的候选特征点的目标边长,并将该目标边长标记为已选取,直至针对所述第一浅层特征图中的每一候选特征点都获取到了目标边长,其中,若在针对候选特征点获取目标边长时,所有目标边长都被标记为已选取,则将取消所有目标边长的标记。
在一个实施例中,所述针对所述第一浅层特征图中的每一候选特征点,获取要以该候选特征点为坐标中心确定的正方形区域的目标边长,包括:
以所述第一浅层特征图中的每一候选特征点为坐标中心,在所述第一浅层特征图中获取半径为预设的第一边长的圆形区域;
针对所述第一浅层特征图中的每一候选特征点,确定该候选特征点对应的圆形区域内各像素点的方差;
在所述方差大于或等于预设的方差阈值的情况下,将所述预设的第一边长作为要以该候选特征点为坐标中心确定的正方形区域的目标边长;
在所述方差小于预设的方差阈值的情况下,将预设的第二边长作为要以该候选特征点为坐标中心确定的正方形区域的目标边长,其中,所述预设的第二边长小于预设的第一边长。
一般情况下,像素点距离越近像素值差距越小,因此如果以一个候选特征点为坐标中心的圆形区域内的像素点的像素值方差越大,说明该圆形区域内的像素点的像素值变化越剧烈,所以本实施例的好处在于,通过在候选特征点周围的像素点的像素值的方差足够大的情况下,选择较小的边长作为要以该候选特征点为坐标中心确定的正方形区域的目标边长,从而可以使插值得到的像素值与对应的特征点的像素值更近似,在一定程度上使得获得的第二浅层特征图能够更加准确反映目标人脸图像的特征。
步骤222,针对所述第一浅层特征图中的每一候选特征点,以该候选特征点为坐标中心在所述第一浅层特征图中确定正方形区域。
其中,所述正方形区域的边长为针对该候选特征点获取的目标边长。
在一个实施例中,若所述第一浅层特征图中的候选特征点的坐标为(x,y),而与该候选特征点对应的目标边长为d,则以该候选特征点为中心的边长为与该候选特征点对应的目标边长的正方形区域为由如下函数组的图像包围成的正方形:
其中,f(x)x表示该函数的因变量为横坐标,f(y)y表示该函数的图像的因变量为纵坐标。
步骤223,获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值以及每一顶点处的像素值。
在一个实施例中,所述获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值以及每一顶点处的像素值,包括:
获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值;
根据获取的各顶点的坐标值,确定各顶点是否位于所述第一浅层特征图内;
当针对每一候选特征点确定的正方形区域的四个顶点中存在至少一个顶点不位于所述第一浅层特征图内时,将针对该候选特征点确定的正方形区域的四个顶点中不位于所述第一浅层特征图内的顶点的坐标值,替换为针对每一候选特征点确定的正方形区域的四个顶点中任意一个位于所述第一浅层特征图内的顶点的坐标值;
针对每一候选特征点确定的正方形区域的四个顶点的坐标值,获取各顶点的像素值。
步骤224,针对每一候选特征点,基于该候选特征点对应的顶点的坐标和每一顶点处的像素值,利用如下公式获取构成所述第二浅层特征图的各个像素点的像素值,以得到第二浅层特征图:
其中,(x,y)是针对该候选特征点获取的第二浅层特征图中与该特征点对应的像素点的坐标值,(x1,y1),(x2,y1),(x1,y2)和(x2,y2)分别是该候选特征点对应的正方形区域的四个顶点的坐标值,f(x1,y1),f(x2,y1),f(x1,y2)和f(x2,y2)是在所述第一浅层特征图中的与该候选特征点对应的正方形区域的四个顶点处的像素值。
在一个实施例中,每一点的像素值为灰度值。
在一个实施例中,每一点的像素值为RGB值。
步骤230,将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图。
其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
第二卷积神经网络模型包含的卷积层的层数大于或等于所述第一卷积神经网络模型的所述预定层卷积层之前的所有卷积层的层数加1,即第二卷积神经网络模型包含的卷积层的层数大于或等于所述第一卷积神经网络模型的预定层卷积层和所述预定层卷积层之前的所有卷积层的层数之和,第二卷积神经网络模型包含的各层卷积层堆叠排布。
由于第二卷积神经网络模型包含的卷积层的层数大于或等于预定层卷积层和所述预定层卷积层之前的所有卷积层的层数之和,并且所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致,所以对于所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的每一卷积层,在所述第一卷积神经网络模型中都有与该卷积层的层数一致的卷积层,从而可以使两个卷积神经网络模型中对应层数的卷积层的权重一致。
在一个实施例中,第二卷积神经网络除了包含卷积层,还包括至少一层池化层以及至少一层全连接层。
第二卷积神经网络模型与所述第一卷积神经网络模型级联是指,将所述第一卷积神经网络模型的输出直接作为所述第二卷积神经网络模型的输入。
由于第二卷积神经网络模型同所述第一卷积神经网络模型一样,都包含了多层卷积层,所以第二卷积神经网络模型可以对所述第一卷积神经网络模型输出的特征图进行进一步的提取,得到更精细的人脸特征图。
卷积层的权重是指卷积层对特征图进行运算处理时所使用的参数。
在一个实施例中,在建立级联卷积神经网络模型时,利用反向传播算法对模型进行训练,训练的过程即确定包含卷积层的权重在内的模型中的参数的过程。
在一个实施例中,卷积层的权重为提取特征图的特征时所使用的卷积核上的权重矩阵。
通过共享第一卷积神经网络模型和第二卷积神经网络模型的卷积层的权重,可以实现对用于人脸特征点定位方法的级联卷积神经网络模型的高效训练:一方面,通过共享级联的两个卷积神经网络模型的卷积层的权重,减少参数量和计算量;另一方面,当要使用第二卷积神经网络模型对第二浅层特征图进行进一步的特征提取时,可以直接使用第一卷积神经网络模型已经学习过的抽象语义特征,第二卷积模型不需要重新从原始输入图片的层次重新学习语义特征,加快了整体模型的训练速度和收敛速度。
图3是根据一示例性实施例示出的一种用于人脸特征点定位方法的级联卷积神经网络模型的结构示意图。如图3所示,包括输入的目标人脸图像310、第一卷积神经网络模型320和与第一卷积神经网络模型级联的第二卷积神经网络模型340,其中第一卷积神经网络模型320包括多层卷积层330,而第二卷积神经网络模型340包括多层卷积层350和多层全连接层360,第一卷积神经网络模型320和第二卷积神经网络模型340共同组成了级联的卷积神经网络模型。利用级联的卷积神经网络模型当进行人脸特征点定位时,具体流程是这样的:当目标人脸图像310被输入至第一卷积神经网络模型320后,第一卷积神经网络模型320中的多层卷积层330可以实现对目标人脸图像310中人脸特征点的初步粗略提取,输出第一浅层特征图;本公开的实施终端可以对第一浅层特征图进行双线性插值,得到第二浅层特征图,然后将第二浅层特征图喂给第二卷积神经网络模型340;第二浅层特征图被输入至第二卷积神经网络模型340后,第二卷积神经网络模型340利用其包括的多层卷积层350和多层全连接层360,能够对第二浅层特征图进行更进一步的精细特征提取,最终得到与目标人脸图像对应的人脸特征图。
值得一提的是,图3仅为本公开的一个实施例。虽然在图3的实施例中,第一卷积神经网络模型仅包括了卷积层,而第二卷积神经网络模型仅包括了卷积层和全连接层,但在实际应用中,可以分别给第一卷积神经网络模型和第二卷积神经网络模型增加一层或多层池化层的设置,因此本公开的各实施例对用于本公开提供的人脸特征点定位方法的级联卷积神经网络模型的具体结构不作任何限定,本公开的保护范围不应因此而受到任何限制。
综上所述,根据图2实施例提供的人脸特征点定位方法,通过利用级联的两个卷积神经网络模型来进行特征图的提取,实现了对人脸特征点较为准确的定位,在此基础上,通过使用双线性插值算法对要输入至第二卷积神经网络模型的第一浅层特征图进行双线性插值,可以进一步提高获取的特征图的精度,同时由于两个卷积神经网络模型的卷积层共享权重,可以减少计算量和参数量,当第二卷积神经网络模型接收到输入该模型的第二浅层特征图后,第二卷积神经网络模型无需从原始图片输入的层次学习图像的语义特征,可以加快模型的训练速度,使得损失函数快速收敛。
图5是根据图4对应实施例示出的一实施例的步骤223的细节流程图。在图5实施例中,针对每一候选特征点获取的目标边长都为相同的预设的边长。如图5所示,可以包括以下步骤:
步骤2231,针对每一候选特征点,分别利用下列表达式获取针对该候选特征点确定的正方形区域的四个顶点的坐标值:
(x3-r,y3-r),(x3-r,y3+r),(x3+r,y3-r),(x3+r,y3+r),其中,(x3,y3)是候选特征点的坐标值,r是所述预设的边长的二分之一。
步骤2232,针对每一候选特征点,判断针对该候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值是否都位于所述第一浅层特征图内。
在一个实施例中,通过将针对该候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值与所述第一浅层特征图内的所有像素点的坐标值进行比对,实现对针对该候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值是否都位于所述第一浅层特征图内的判断。
步骤2233,如果是,按照所述坐标值在所述第一浅层特征图中获取对应顶点的像素值。
当针对一个候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值都位于所述第一浅层特征图内时,说明每一顶点的坐标值处的像素值都能获得。
步骤2234,如果否,对于针对该候选特征点确定的正方形区域的四个顶点中位于所述第一浅层特征图内的顶点,按照各顶点对应的所述坐标值在所述第一浅层特征图中获取对应顶点的像素值。
当针对候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值不都位于所述第一浅层特征图中时,针对该候选特征点确定的正方形区域的四个顶点中也有可能存在至少一个顶点位于所述第一浅层特征图内。
步骤2235,获取针对该候选特征点确定的正方形区域的四个顶点中位于所述第一浅层特征图以外的顶点,作为辅助顶点。
步骤2236,针对每一辅助顶点,在所述第一浅层特征图中获取与该辅助顶点距离最近的像素点处的像素值,作为该辅助顶点的像素值。
本实施例的好处在于,为当正方形区域中的四个顶点中存在顶点不位于第一浅层特征图内时,提供了解决方案,同时,由于在同一特征图中,两个像素点距离越近,这两个像素点对应的像素值越可能相近,所以本实施例还可以保证获取的顶点的像素值的精度,从而可以提高获取的第二浅层特征图的精度。
在一个实施例中,所述针对每一辅助顶点,在所述第一浅层特征图中获取与该辅助顶点距离最近的像素点处的像素值,作为该辅助顶点的像素值,包括:
针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离:
其中,x4,y4分别是辅助顶点的横坐标和纵坐标,x,y分别是所述第一浅层特征图中像素点的横坐标和纵坐标,D是辅助顶点与所述第一浅层特征图中的像素点之间的距离;针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中,获取最小的距离;将最小的距离对应的像素点处的像素值,作为该辅助顶点的像素值。
在一个实施例中,所述针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中,获取最小的距离,包括:针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中任取一个,标记为候选最小距离;在除所述候选最小距离之外的每一像素点与该辅助顶点的距离中,按照预定顺序针对每一像素点与该辅助顶点的距离,判断该像素点与该辅助顶点的距离是否小于所述候选最小距离;如果是,取消所有候选最小距离的标记,将该像素点与该辅助顶点的距离标记为候选最小距离;在没获取过的像素点与该辅助顶点的距离中,按照预定顺序再次针对每一像素点与该辅助顶点的距离,判断该像素点与该辅助顶点的距离是否小于所述候选最小距离,直至没有像素点与该辅助顶点的距离小于所述候选最小距离;将所述候选最小距离作为最小的距离。
在一个实施例中,在针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离之前,所述方法还包括:
针对每一辅助顶点,在所述第一浅层特征图的像素点中获取与该辅助顶点的横坐标之差小于预定坐标差值且纵坐标之差小于预定坐标差值的像素点,作为候选像素点;
所述针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离,包括:
针对每一辅助顶点,针对所述第一浅层特征图中的每一候选像素点,利用如下公式确定该候选像素点与该辅助顶点之间的距离:
其中,x4,y4分别是辅助顶点的横坐标和纵坐标,x,y分别是所述第一浅层特征图中候选像素点的横坐标和纵坐标,D是辅助顶点与所述第一浅层特征图中的候选像素点之间的距离。
由于获取像素点与辅助顶点之间的距离的计算复杂度较高,会消耗大量资源,所以本实施例的好处在于,通过首先获取候选像素点,然后再针对候选像素点获取与辅助顶点之间的距离,使得在获取像素点与辅助顶点之间的距离时的计算任务大大降低,从而可以提高获取最小的距离的效率。
本公开还提供了一种人脸特征点定位装置,以下是本公开的装置实施例。
图6是根据一示例性实施例示出的一种人脸特征点定位装置的框图。如图6所示,装置600包括:
第一获取模块610,被配置为将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图。
插值模块620,被配置为利用双线性插值算法对所述第一浅层特征图中的候选特征点进行双线性插值,得到第二浅层特征图。
第二获取模块630,被配置为将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
据本公开的第三方面,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本发明的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元710执行,使得所述处理单元710执行本说明书上述“实施例方法”部分中描述的根据本发明各种示例性实施方式的步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)721和/或高速缓存存储单元722,还可以进一步包括只读存储单元(ROM)723。
存储单元720还可以包括具有一组(至少一个)程序模块725的程序/实用工具724,这样的程序模块725包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
根据本公开的第四方面,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (9)
1.一种人脸特征点定位方法,其特征在于,所述方法包括:
将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图;
针对所述第一浅层特征图中的每一候选特征点,获取要以该候选特征点为坐标中心确定的正方形区域的目标边长;
针对所述第一浅层特征图中的每一候选特征点,以该候选特征点为坐标中心在所述第一浅层特征图中确定正方形区域,其中,所述正方形区域的边长为针对该候选特征点获取的目标边长;
获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值以及每一顶点处的像素值;
针对每一候选特征点,基于该候选特征点对应的顶点的坐标和每一顶点处的像素值,利用如下公式获取构成第二浅层特征图的各个像素点的像素值,以得到第二浅层特征图:
其中,(x,y)是针对该候选特征点获取的第二浅层特征图中与该特征点对应的像素点的坐标值,(x1,y1),(x2,y1),(x1,y2)和(x2,y2)分别是该候选特征点对应的正方形区域的四个顶点的坐标值,f(x1,y1),f(x2,y1),f(x1,y2)和f(x2,y2)是在所述第一浅层特征图中的与该候选特征点对应的正方形区域的四个顶点处的像素值;
将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
2.根据权利要求1所述的方法,其特征在于,针对每一候选特征点获取的目标边长都为相同的预设的边长,所述获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值以及每一顶点处的像素值,包括:
针对每一候选特征点,分别利用下列表达式获取针对该候选特征点确定的正方形区域的四个顶点的坐标值:
(x3-r,y3-r),(x3-r,y3+r),(x3+r,y3-r),(x3+r,y3+r),
其中,(x3,y3)是候选特征点的坐标值,r是所述预设的边长的二分之一;
针对每一候选特征点,判断针对该候选特征点确定的正方形区域的四个顶点中每一顶点的坐标值是否都位于所述第一浅层特征图内;
如果是,按照所述坐标值在所述第一浅层特征图中获取对应顶点的像素值;
如果否,对于针对该候选特征点确定的正方形区域的四个顶点中位于所述第一浅层特征图内的顶点,按照各顶点对应的所述坐标值在所述第一浅层特征图中获取对应顶点的像素值;
获取针对该候选特征点确定的正方形区域的四个顶点中位于所述第一浅层特征图以外的顶点,作为辅助顶点;
针对每一辅助顶点,在所述第一浅层特征图中获取与该辅助顶点距离最近的像素点处的像素值,作为该辅助顶点的像素值。
3.根据权利要求2所述的方法,其特征在于,所述针对每一辅助顶点,在所述第一浅层特征图中获取与该辅助顶点距离最近的像素点处的像素值,作为该辅助顶点的像素值,包括:
针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离:
其中,x4,y4分别是辅助顶点的横坐标和纵坐标,x,y分别是所述第一浅层特征图中像素点的横坐标和纵坐标,D是辅助顶点与所述第一浅层特征图中的像素点之间的距离;
针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中,获取最小的距离;
将最小的距离对应的像素点处的像素值,作为该辅助顶点的像素值。
4.根据权利要求3所述的方法,其特征在于,所述针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中,获取最小的距离,包括:
针对每一辅助顶点,在针对该辅助顶点获取的所述第一浅层特征图中的每一像素点与该辅助顶点的距离中任取一个,标记为候选最小距离;
在除所述候选最小距离之外的每一像素点与该辅助顶点的距离中,按照预定顺序针对每一像素点与该辅助顶点的距离,判断该像素点与该辅助顶点的距离是否小于所述候选最小距离;
如果是,取消所有候选最小距离的标记,将该像素点与该辅助顶点的距离标记为候选最小距离;
在没获取过的像素点与该辅助顶点的距离中,按照预定顺序再次针对每一像素点与该辅助顶点的距离,判断该像素点与该辅助顶点的距离是否小于所述候选最小距离,直至没有像素点与该辅助顶点的距离小于所述候选最小距离;
将所述候选最小距离作为最小的距离。
5.根据权利要求3所述的方法,其特征在于,在针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离之前,所述方法还包括:
针对每一辅助顶点,在所述第一浅层特征图的像素点中获取与该辅助顶点的横坐标之差小于预定坐标差值且纵坐标之差小于预定坐标差值的像素点,作为候选像素点;
所述针对每一辅助顶点,针对所述第一浅层特征图中的每一像素点,利用如下公式确定该像素点与该辅助顶点之间的距离,包括:
针对每一辅助顶点,针对所述第一浅层特征图中的每一候选像素点,利用如下公式确定该候选像素点与该辅助顶点之间的距离。
6.根据权利要求1所述的方法,其特征在于,所述针对所述第一浅层特征图中的每一候选特征点,获取要以该候选特征点为坐标中心确定的正方形区域的目标边长,包括:
以所述第一浅层特征图中的每一候选特征点为坐标中心,在所述第一浅层特征图中获取半径为预设的第一边长的圆形区域;
针对所述第一浅层特征图中的每一候选特征点,确定该候选特征点对应的圆形区域内各像素点的方差;
在所述方差大于或等于预设的方差阈值的情况下,将所述预设的第一边长作为要以该候选特征点为坐标中心确定的正方形区域的目标边长;
在所述方差小于预设的方差阈值的情况下,将预设的第二边长作为要以该候选特征点为坐标中心确定的正方形区域的目标边长,其中,所述预设的第二边长小于预设的第一边长。
7.一种人脸特征点定位装置,其特征在于,所述装置包括:
第一获取模块,被配置为将待定位特征点的目标人脸图像输入至第一卷积神经网络模型,得到所述第一卷积神经网络模型的预定层卷积层输出的包含多个候选特征点的第一浅层特征图;
插值模块,被配置为针对所述第一浅层特征图中的每一候选特征点,获取要以该候选特征点为坐标中心确定的正方形区域的目标边长;针对所述第一浅层特征图中的每一候选特征点,以该候选特征点为坐标中心在所述第一浅层特征图中确定正方形区域,其中,所述正方形区域的边长为针对该候选特征点获取的目标边长;获取针对每一候选特征点确定的正方形区域的四个顶点的坐标值以及每一顶点处的像素值;针对每一候选特征点,基于该候选特征点对应的顶点的坐标和每一顶点处的像素值,利用如下公式获取构成第二浅层特征图的各个像素点的像素值,以得到第二浅层特征图:
其中,(x,y)是针对该候选特征点获取的第二浅层特征图中与该特征点对应的像素点的坐标值,(x1,y1),(x2,y1),(x1,y2)和(x2,y2)分别是该候选特征点对应的正方形区域的四个顶点的坐标值,f(x1,y1),f(x2,y1),f(x1,y2)和f(x2,y2)是在所述第一浅层特征图中的与该候选特征点对应的正方形区域的四个顶点处的像素值;
第二获取模块,被配置为将所述第二浅层特征图输入至与所述第一卷积神经网络模型级联的第二卷积神经网络模型,得到所述第二卷积神经网络模型输出的与所述待定位特征点的目标人脸图像对应的人脸特征图,其中,所述第二卷积神经网络模型的预定层卷积层及所述预定层卷积层之前的所有卷积层中每一卷积层的权重分别与所述第一卷积神经网络模型对应层数的卷积层的权重一致,所述第二卷积神经网络模型的预定层卷积层在所有所述第二卷积神经网络模型的卷积层中的排序和所述第一卷积神经网络模型的预定层卷积层在所有所述第一卷积神经网络模型的卷积层中的排序一致。
8.一种计算机可读程序介质,其特征在于,其存储有计算机程序指令,当所述计算机程序指令被计算机执行时,使计算机执行根据权利要求1至6中任一项所述的方法。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如权利要求1至6任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910877995.2A CN110717405B (zh) | 2019-09-17 | 2019-09-17 | 人脸特征点定位方法、装置、介质及电子设备 |
PCT/CN2019/117650 WO2021051562A1 (zh) | 2019-09-17 | 2019-11-12 | 人脸特征点定位方法、装置、计算设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910877995.2A CN110717405B (zh) | 2019-09-17 | 2019-09-17 | 人脸特征点定位方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110717405A CN110717405A (zh) | 2020-01-21 |
CN110717405B true CN110717405B (zh) | 2023-11-24 |
Family
ID=69209893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910877995.2A Active CN110717405B (zh) | 2019-09-17 | 2019-09-17 | 人脸特征点定位方法、装置、介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110717405B (zh) |
WO (1) | WO2021051562A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112532548B (zh) * | 2020-12-23 | 2024-02-27 | 国网信息通信产业集团有限公司 | 一种信号优化方法及装置 |
CN114501618B (zh) * | 2022-04-06 | 2022-07-22 | 深圳依时货拉拉科技有限公司 | 定位模型训练方法、定位方法和计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105120130A (zh) * | 2015-09-17 | 2015-12-02 | 京东方科技集团股份有限公司 | 一种图像升频系统、其训练方法及图像升频方法 |
CN106204467A (zh) * | 2016-06-27 | 2016-12-07 | 深圳市未来媒体技术研究院 | 一种基于级联残差神经网络的图像去噪方法 |
CN107871099A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸定位方法和装置 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
GB201814275D0 (en) * | 2018-09-03 | 2018-10-17 | Facesoft Ltd | Facial landmark localisation system and method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528846B2 (en) * | 2016-11-14 | 2020-01-07 | Samsung Electronics Co., Ltd. | Method and apparatus for analyzing facial image |
CN106650699B (zh) * | 2016-12-30 | 2019-09-17 | 中国科学院深圳先进技术研究院 | 一种基于卷积神经网络的人脸检测方法及装置 |
-
2019
- 2019-09-17 CN CN201910877995.2A patent/CN110717405B/zh active Active
- 2019-11-12 WO PCT/CN2019/117650 patent/WO2021051562A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105120130A (zh) * | 2015-09-17 | 2015-12-02 | 京东方科技集团股份有限公司 | 一种图像升频系统、其训练方法及图像升频方法 |
CN106204467A (zh) * | 2016-06-27 | 2016-12-07 | 深圳市未来媒体技术研究院 | 一种基于级联残差神经网络的图像去噪方法 |
CN107871099A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸定位方法和装置 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
GB201814275D0 (en) * | 2018-09-03 | 2018-10-17 | Facesoft Ltd | Facial landmark localisation system and method |
Non-Patent Citations (1)
Title |
---|
基于级联卷积神经网络的人脸关键点定位;陈锐;林达;;四川理工学院学报(自然科学版)(第01期);第32-37页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110717405A (zh) | 2020-01-21 |
WO2021051562A1 (zh) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109858333B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN111915480B (zh) | 生成特征提取网络的方法、装置、设备和计算机可读介质 | |
CN113704531A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2023035531A1 (zh) | 文本图像超分辨率重建方法及其相关设备 | |
CN111950570B (zh) | 目标图像提取方法、神经网络训练方法及装置 | |
US11714921B2 (en) | Image processing method with ash code on local feature vectors, image processing device and storage medium | |
CN110717405B (zh) | 人脸特征点定位方法、装置、介质及电子设备 | |
CN113838061A (zh) | 用于图像标注的方法、装置及存储介质 | |
CN114792355A (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN115311469A (zh) | 图像标注方法、训练方法、图像处理方法以及电子设备 | |
CN113838134B (zh) | 图像关键点检测方法、装置、终端和存储介质 | |
JP2024508867A (ja) | 画像クラスタリング方法、装置、コンピュータ機器及びコンピュータプログラム | |
US20240005541A1 (en) | Image depth prediction method and electronic device | |
CN113516697A (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
CN111915689B (zh) | 用于生成目标函数的方法、装置、电子设备和计算机可读介质 | |
CN112541902A (zh) | 相似区域搜索方法、装置、电子设备及介质 | |
CN111815748A (zh) | 一种动画处理方法、装置、存储介质及电子设备 | |
CN115272575B (zh) | 图像生成方法及装置、存储介质和电子设备 | |
US20230021551A1 (en) | Using training images and scaled training images to train an image segmentation model | |
CN114758130B (zh) | 图像处理及模型训练方法、装置、设备和存储介质 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 | |
US9886652B2 (en) | Computerized correspondence estimation using distinctively matched patches | |
CN112861940A (zh) | 双目视差估计方法、模型训练方法以及相关设备 | |
CN113139490B (zh) | 一种图像特征匹配方法、装置、计算机设备及存储介质 | |
CN116912631B (zh) | 目标识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |