CN111709305B - 一种基于局部图像块的人脸年龄识别方法 - Google Patents

一种基于局部图像块的人脸年龄识别方法 Download PDF

Info

Publication number
CN111709305B
CN111709305B CN202010439994.2A CN202010439994A CN111709305B CN 111709305 B CN111709305 B CN 111709305B CN 202010439994 A CN202010439994 A CN 202010439994A CN 111709305 B CN111709305 B CN 111709305B
Authority
CN
China
Prior art keywords
image
age
patch
face
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010439994.2A
Other languages
English (en)
Other versions
CN111709305A (zh
Inventor
杨晨悦
夏思宇
韩飞翔
王钦文
韩国权
胡洪达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010439994.2A priority Critical patent/CN111709305B/zh
Publication of CN111709305A publication Critical patent/CN111709305A/zh
Application granted granted Critical
Publication of CN111709305B publication Critical patent/CN111709305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Abstract

本发明公开了一种基于局部图像块的人脸年龄识别方法,该方法基于深度学习技术,利用采集到的清晰的人脸面部图像,进行分割检测处理,得到图像中人脸的真实年龄。先运用dlib关键点检测模型,去掉采集图像的非面部皮肤区域;再对处理后的图像进行滑动裁剪;针对每个图像块,先进行灰度化,计算平均灰度值,将皮肤占比小于40%的部分作为噪点图片进行剔除,结果保存成patch‑image,用Resnet50网络进行训练,得到获取图像块年龄的模型;再对单张图片进行上述图像处理,将其patch‑image送入模型验证,每张patch‑image会得出一个分类,然后运用SVM方法,得到最终的年龄结果。

Description

一种基于局部图像块的人脸年龄识别方法
技术领域
本发明涉及一种基于局部图像块的人脸年龄识别方法,属于计算机图像处理领域。
背景技术
基于图像的年龄识别技术在当今时代的运用极其广泛,众多皮肤检测,美容特效软件等均有年龄识别的功能,公安交警等业务也需要年龄检测的支持,但是大多数软件年龄评估结果准确度均不高,且年龄识别方法大多为基于整张人脸图像的神经网络训练,易受到图像质量,拍摄条件,数据集的影响,具有一种更为精确的检测方法能够快速准确地得到图像年龄,减少光照及数据集等对图像的影响十分重要。在医疗方面可以帮助用户更好地了解皮肤状况,在其他需要检测人脸年龄进行排除筛选等领域,如犯罪侦查等,也起到十分重要的作用。
发明内容
发明目的:针对上述现有方法存在的问题和不足,本发明旨在提供一种基于局部图像块的人脸年龄识别方法,通过面部特征点检测技术和裁剪方法去除非皮肤区域,增加数据量,减少其他因素对神经网络训练的影响,通过深度学习,分类训练,获得每张图像对应的实际年龄,解决年龄识别问题。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于局部图像块的人脸年龄识别方法,该方法包括以下步骤:
(1)使用dlib-81个关键点模型对采集的不同年龄的人脸图像进行处理,去除图像中的非面部皮肤区域;
(2)对处理后的人脸图像进行滑动裁剪,将大图片切割为同等大小的图像块;
(3)通过计算图像块的灰度值,剔除非皮肤区域占比大于40%的图像块,将剩余图像块保存为patch-image;
(4)通过神经网络训练,得到获取图像块年龄的模型;
(5)对需要检测的图像进行图像处理,通过训练好的模型,得到每张patch-image对应的年龄数据;
(6)运用SVM,根据图像每张patch-image的年龄数据,分析得到整张图像对应的年龄。
其中,在步骤(1)中,根据81个关键点模型去除采集的人脸图像中的非面部皮肤区域由如下步骤获得:
(1.1)读取要加载的81个关键点人脸检测模型,它可以定位人脸轮廓及五官轮廓上的81个关键点;
(1.2)构建四个landmarks矩阵,确定轮廓上横坐标最小的点为起始点,然后按顺时针方向分别依次存储脸部轮廓关键点,左右眼轮廓关键点,和嘴唇轮廓关键点的坐标,每个landmarks矩阵中的关键点之间按存储顺序连接形成闭合的关键点包围区;
(1.3)对采集的人脸图像进行遍历,判断每个像素点与landmarks关键点矩阵构成的包围区的位置关系,若不在脸部轮廓关键点区域内,或在嘴唇及左右眼关键点区域内,则置该点RGB值为(0,0,0);
(1.4)得到去除非面部皮肤区域的图像。
其中,在步骤(3)中,去除非皮肤区域占比大于40%的图像块,其方法如下:
(3.1)将切割后得到的图像块转化为灰度图;
(3.2)由于皮肤部位灰度值较大,毛发及黑色区域灰度值较小,确定一个阈值范围a,当图像块中某像素点的灰度值小于阈值a时,认为该点为非皮肤区域。灰度值计算方法如下:
Gray=0.299×R+0.587×G+0.114×B
其中Gray为灰度值,R,G,B指像素点对应的红,蓝,绿三原色光的亮度级;
(3.3)遍历每个图像块,计算图像块中灰度值小于阈值a的像素点数量,通过确定非皮肤区域像素点数占总像素点数的比例,来判断图像块中非皮肤区域是否大于整张图像块面积的40%。图像块中每一点的灰度值为gray(i,j),(i,j)为像素点的坐标,count为图像块中灰度值小于阈值a的像素点数,初值为0,height为图像块的高度,width为图像块的宽度,size为图像块的像素点数。
当gray(i,j)<a时,count=count+1,其中0≤i≤height,0≤j≤width
若count>0.4×size,则将该张图像块剔除
若灰度值小于阈值a的像素点数占图像总像素点数的比例大于40%,则认为该张图像块中非皮肤区域占比大于40%,会对年龄检测结果产生影响,需要剔除,未被剔除的图像块构成patch-image。
其中,在步骤(4)中,通过训练神经网络,得到获取图像块年龄的模型。首先将patch-image进行归一化处理变换为预设大小的图像;对每一张patch-image进行年龄标注,其年龄与原人脸图像的年龄相同;将变换后的patch-image随机分为训练集和测试集,将训练集中标注的图像、年龄标签输入到深度学习神经网络ResNet50进行年龄分类的学习;在神经网络进行学习的过程中,每一张图像都会进行200次的迭代采样,每5轮保存一次权重,得到一个获取图像块对应年龄的模型。
其中,在步骤(5)中将需要检测年龄的单张图像进行关键点检测处理,滑动裁剪,剔除后,通过获取图像块年龄的模型,得到每张patch-image对应的年龄。
其中,在步骤(6)中,运用SVM得到分类结果,即人脸图像对应的年龄,其方法如下:在步骤(5)中获得需要检测年龄图像对应的每张patch-image的年龄结果,统计每张图像对应不同年龄的patch-image数量,将数量统计结果进行归一化和正则化后,将该统计数据随机分为训练集和测试集,将训练集中归一化及正则化后的多组patch-image年龄统计数据作为输入,将每组统计数据对应的原人脸图像的年龄作为输出,送入SVM进行年龄分类的训练,获得一个SVM模型,运用该模型可以在获得每张需检测年龄图像的patch-image的年龄统计数据后,将数据划分到代表不同年龄的区域内,即可分类得到需检测年龄图像的最终年龄结果。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
本发明创造性地提出了一种新的自动根据人脸图像计算年龄的方法,先进行图像处理及切割,减少非皮肤区域对神经网络训练的影响,同时切割使得训练数据集扩大,再运用深度学习神经网络训练,采用统计分类方法得到最终年龄结果,将深度学习,切割,图像处理技术相结合,并且可得到各部位皮肤对应的年龄值。该方法可以有效运用到根据人脸图像或局部皮肤识别年龄的过程中,可以广泛应用于医疗,公安交警等领域,为医生诊断及公安侦查做辅助分析。
附图说明
图1是本发明的一种基于局部图像块的人脸年龄识别方法的流程图;
图2是本发明的神经网络ResNet50的结构和参数。
具体实施方式
下面结合附图和具体实施例,对本发明做进一步说明。
本发明方法包括以下步骤:
(1)使用dlib-81个关键点模型对采集的不同年龄的人脸图像进行处理,去除图像中的非面部皮肤区域;
(2)对处理后的人脸图像进行滑动裁剪,将大图片切割为同等大小的图像块;
(3)通过计算图像块的灰度值,剔除非皮肤区域占比大于40%的图像块,将剩余图像块保存为patch-image;
(4)通过神经网络训练,得到获取图像块年龄的模型;
(5)对需要检测的图像进行图像处理,通过训练好的模型,得到每张patch-image对应的年龄数据;
(6)运用SVM,根据图像每张patch-image的年龄数据,分析得到整张图像对应的年龄。
下面对方法步骤做具体说明
(1)采用81个关键点模型去除非面部皮肤区域的原理
Dlib-81个关键点人脸检测模型,可以定位人脸轮廓及五官轮廓上的81个关键点,通过载入81点模型,构建4个landmarks矩阵,确定轮廓上横坐标最小的点为起始点,然后按顺时针方向分别依次存储脸部轮廓关键点,左右眼轮廓关键点,和嘴唇轮廓关键点的坐标,每个landmarks矩阵中的关键点之间按存储顺序连接形成闭合的关键点包围区;对采集的人脸图像进行遍历,判断图像中每个像素点与landmarks关键点矩阵构成的包围区的位置关系。
先对面部轮廓landmarks关键点矩阵构成的包围区进行像素点位置判断,若像素点不在该闭合区域内,则置该点RGB值为(0,0,0),若像素点在该闭合区域内,再判断像素点与其他三个landmarks关键点矩阵构成包围区的位置关系,若在嘴唇或左右眼关键点区域内,则置该点RGB值为(0,0,0),实现去除采集图像中非面部皮肤区域的效果,判断方法均相同,具体判断方法如下:
(1.1)设采集的人脸图像中的坐标点为(x,y),用(xi,yi),(xj,yj)表示构建的某一个landmarks矩阵中的关键点坐标,下标i,j不同表示对应该landmarks矩阵中不同的关键点,设该landmarks矩阵含有n个关键点,则i初值为0,j初值为n-1,即(xi,yi)最初表示该landmarks矩阵按存储顺序排列的第一个关键点,(xj,yj)最初表示该landmarks矩阵中的最后一个关键点,遍历采集的人脸图像,逐个像素点进行判断;
(1.2)针对每个像素点,先对其进行纵坐标判断,即若该像素点纵坐标在此时选取的两个关键点的纵坐标yi,yj之间,即yj<y≤yi或yi<y≤yj,则进行步骤(1.3),否则直接进行步骤(1.4);
(1.3)对该像素点进行直线位置判断,即判断该像素点是否在两个关键点(xi,yi)(xj,yj)构成的直线的右边,即:
设满足该条件的次数num,初值为0,若上条件满足,则num=num+1,然后进行步骤(1.4);
(1.4)令j=i,i=i+1,使(xj,yj)表示变换前(xi,yi)代表的关键点,(xi,yi)表示此时判断的landmarks矩阵中按顺时针顺序排列的下一个关键点,继续进行(1.2)中的判断;
(1.5)当关键点(xi,yi)位于该landmarks矩阵中按顺时针排列的最后一个关键点位置时纵坐标判断和直线位置判断均完毕后,得到此时满足直线位置判断条件的次数num的数量,若num为奇数,表示该像素点在此landmarks矩阵中关键点构成的闭合包围区内,若num为偶数,表示该像素点不在landmarks矩阵中关键点构成的闭合包围区内。
(2)滑动裁剪
设置滑动窗口的大小,在关键点检测处理后的人脸图像上进行移动,获得图像块,具体方法如下:滑动窗口初始时左上角与人脸图像左上角重合,先控制滑动窗口左上角的横坐标不变,纵坐标移动设定量,截取人脸图像中与滑动窗口重合的区域,直到滑动窗口左下角与人脸图像左下角重合,再使滑动窗口向右移动一定距离,重新回到人脸图像的最顶部,重复操作,直到滑动窗口的右下角与人脸图像右下角重合时,该重合区域裁剪完毕后,停止裁剪。
(3)剔除噪点图片
(3.1)将切割后得到的图像块转化为灰度图;
(3.2)由于皮肤部位灰度值较大,毛发及黑色区域灰度值较小,确定一个阈值范围a,当图像块中某像素点的灰度值小于阈值a时,认为该点为非皮肤区域。灰度值计算方法如下:
Gray=0.299×R+0.587×G+0.114×B
其中,Gray为灰度值,R,G,B指像素点对应的红,蓝,绿三原色光的亮度级;
(3.3)遍历每个图像块,计算图像块中灰度值小于阈值a的像素点数量,通过确定非皮肤区域像素点数占总像素点数的比例,来判断图像块中非皮肤区域是否大于整张图像块面积的40%。图像块中每一点的灰度值为gray(i,j),(i,j)为像素点的坐标,count为图像块中灰度值小于阈值a的像素点数,初值为0,height为图像块的高度,width为图像块的宽度,size为图像块的像素点数,若灰度值小于阈值a的像素点数占图像总像素点数的比例大于40%,则认为该张图像块中非皮肤区域占比大于40%,会对年龄检测结果产生影响,需要剔除,未被剔除的图像块构成patch-image:
当gray(i,j)<a时,count=count+1,其中0≤i≤height,0≤j≤width,
若count>0.4×size,则将该张图像块剔除。
(4)神经网络训练
通过训练神经网络,得到一个获取图像块年龄的模型。首先将patch-image进行归一化处理变换为预设大小的图像;对每一张patch-image进行年龄标注,其年龄与原人脸图像的年龄相同;将变换后的patch-image随机分为训练集和测试集,将训练集中标注的图像、年龄标签输入到深度学习神经网络ResNet50进行年龄分类的学习;在神经网络进行学习的过程中,每一张图像都会进行200次的迭代采样,每5轮保存一次权重,得到一个获取图像块对应年龄的模型。
(5)检测图片处理
将需要检测年龄的图像进行关键点检测处理,滑动裁剪,剔除后,通过获取图像块年龄的模型,得到每张patch-image对应的年龄。
(6)根据统计数据得到分类结果
运用SVM得到分类结果,即人脸图像对应的年龄,其方法按如下:获得需要检测年龄的图像对应的每张patch-image的年龄结果,统计每张图像对应不同年龄的patch-image数量,获得多组统计数据,将该统计数据进行归一化和正则化,归一化方法如下:
其中,获得每张需检测年龄图像对应不同年龄的patch-image数量,每张图像对应一组统计数据,一组中含有n个数据,xi为其中某一个数据,i从1到n,min为这组数据中最小的数,max为这组数据中最大的数,为xi归一化后的数据。
正则化方法如下:
其中为归一化后的数据,||x||p为p范数,p为2,/>为正则化后的数据。
将处理后的多组数据随机分为训练集和测试集,将训练集中归一化及正则化后的多组patch-image年龄统计数据作为输入,将每组统计数据对应的原人脸图像的年龄作为输出,送入SVM进行年龄分类的训练,获得一个SVM模型,运用该模型可以在获得每张需检测年龄图像的patch-image的年龄统计数据后,将每组数据划分到代表不同年龄的区域内,即可分类得到需检测年龄图像的最终年龄结果。

Claims (1)

1.一种基于局部图像块的人脸年龄识别方法,其特征在于,该方法包括以下步骤:
(1)使用dlib-81个关键点模型对采集的不同年龄的人脸图像进行处理,去除图像中的非面部皮肤区域;
(2)对处理后的人脸图像进行滑动裁剪,将大图片切割为同等大小的图像块;
(3)通过计算图像块的灰度值,剔除非皮肤区域占比大于40%的图像块,剔除后剩余的图像块称为patch-image;
(4)通过神经网络训练,得到获取图像块年龄的模型;
(5)对需要检测年龄的图像进行处理,通过训练好的模型,得到每张patch-image对应的年龄数据;
(6)运用SVM,根据图像每张patch-image的年龄数据,分析得到整张图像对应的年龄;
在步骤(1)中,根据81个关键点模型去除采集的人脸图像中的非面部皮肤区域由如下步骤获得:
(1.1)读取要加载的81个关键点人脸检测模型,它可以定位人脸轮廓及五官轮廓上的81个关键点;
(1.2)构建四个landmarks矩阵,确定轮廓上横坐标最小的点为起始点,然后按顺时针方向分别依次存储脸部轮廓关键点,左右眼轮廓关键点,和嘴唇轮廓关键点的坐标,每个landmarks矩阵中的关键点之间按存储顺序连接形成闭合的关键点包围区;
(1.3)对采集的人脸图像进行遍历,判断每个像素点与landmarks关键点矩阵构成的包围区的位置关系,若不在面部皮肤区域内,则置像素点RGB值为(0,0,0);
(1.4)得到去除非面部皮肤区域的图像;
在步骤(3)中,剔除非皮肤区域占比大于40%的图像块,其方法如下:
(3.1)将切割后得到的图像块转化为灰度图;
(3.2)确定一个阈值范围a,当图像块中某像素点的灰度值小于阈值a时,认为该点为非皮肤区域,灰度值计算方法如下:
Gray=0.299×R+0.587×G+0.114×B
其中,Gray为灰度值,R,G,B指像素点对应的红,蓝,绿三原色光的亮度级;
(3.3)遍历每个图像块,计算图像块中灰度值小于阈值a的像素点数量,通过确定非皮肤区域像素点数占总像素点数的比例,来判断图像块中非皮肤区域是否大于整张图像块面积的40%,图像块中每一点的灰度值为gray(i,j),(i,j)为像素点的坐标,count为图像块中灰度值小于阈值a的像素点数,初值为0,height为图像块的高度,width为图像块的宽度,size为图像块的像素点数;
当gray(i,j)<a时,count=count+1,其中0≤i≤height,0≤j≤width
若count>0.4×size,则将该张图像块剔除;
即,若灰度值小于阈值a的像素点数占图像总像素点数的比例大于40%,则认为该张图像块中非皮肤区域占比大于40%,需要剔除,未被剔除的图像块构成patch-image;
步骤(4)中,通过训练神经网络,得到获取图像块年龄的模型,其方法如下:首先将patch-image进行归一化处理变换为预设大小的图像;对每一张patch-image进行年龄标注,其年龄与原人脸图像的年龄相同;将变换后的patch-image随机分为训练集和测试集,将训练集中标注的图像、年龄标签输入到深度学习神经网络ResNet50进行年龄分类的学习;在神经网络进行学习的过程中,每一张图像都会进行200次的迭代采样,每5轮保存一次权重,得到一个获取图像块对应年龄的模型;
步骤(5)中将需要检测年龄的图像进行关键点检测处理,滑动裁剪,剔除后,通过获取图像块年龄的模型,得到每张patch-image对应的年龄;
步骤(6)中,运用SVM得到分类结果,即人脸图像对应的年龄,其方法如下:在步骤(5)中获得需要检测年龄图像对应的每张patch-image的年龄结果,统计每张图像对应不同年龄的patch-image数量,将数量统计结果进行归一化和正则化后,将统计数据随机分为训练集和测试集,将训练集中归一化及正则化后的多组patch-image年龄统计数据作为输入,将每组统计数据对应的原人脸图像的年龄作为输出,送入SVM进行年龄分类的训练,获得一个SVM模型,运用该模型可以在获得每张需检测年龄图像的patch-image的年龄统计数据后,将数据划分到代表不同年龄的区域内,即可分类得到需检测年龄图像的最终年龄结果。
CN202010439994.2A 2020-05-22 2020-05-22 一种基于局部图像块的人脸年龄识别方法 Active CN111709305B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010439994.2A CN111709305B (zh) 2020-05-22 2020-05-22 一种基于局部图像块的人脸年龄识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010439994.2A CN111709305B (zh) 2020-05-22 2020-05-22 一种基于局部图像块的人脸年龄识别方法

Publications (2)

Publication Number Publication Date
CN111709305A CN111709305A (zh) 2020-09-25
CN111709305B true CN111709305B (zh) 2023-08-11

Family

ID=72537893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010439994.2A Active CN111709305B (zh) 2020-05-22 2020-05-22 一种基于局部图像块的人脸年龄识别方法

Country Status (1)

Country Link
CN (1) CN111709305B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505765B (zh) * 2021-09-09 2022-02-08 北京轻松筹信息技术有限公司 基于用户头像的年龄预测方法、装置及电子设备
CN114581410B (zh) * 2022-03-04 2023-03-21 深圳市澈影医生集团有限公司 一种神经网络的训练系统及方法
CN115359546B (zh) * 2022-10-21 2023-01-20 乐山师范学院 基于面部识别的人类年龄识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107967458A (zh) * 2017-12-06 2018-04-27 宁波亿拍客网络科技有限公司 一种人脸识别方法
WO2019109526A1 (zh) * 2017-12-06 2019-06-13 平安科技(深圳)有限公司 人脸图像的年龄识别方法、装置及存储介质
CN111160161A (zh) * 2019-12-18 2020-05-15 电子科技大学 一种基于噪声剔除的自步学习人脸年龄估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107967458A (zh) * 2017-12-06 2018-04-27 宁波亿拍客网络科技有限公司 一种人脸识别方法
WO2019109526A1 (zh) * 2017-12-06 2019-06-13 平安科技(深圳)有限公司 人脸图像的年龄识别方法、装置及存储介质
CN111160161A (zh) * 2019-12-18 2020-05-15 电子科技大学 一种基于噪声剔除的自步学习人脸年龄估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梁晓曦 ; 蔡晓东 ; 库浩华 ; 王萌 ; .基于双重加强特征的人脸年龄估计方法.桂林电子科技大学学报.2019,(第01期),全文. *

Also Published As

Publication number Publication date
CN111709305A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN111709305B (zh) 一种基于局部图像块的人脸年龄识别方法
CN103116763B (zh) 一种基于hsv颜色空间统计特征的活体人脸检测方法
CN107038416B (zh) 一种基于二值图像改进型hog特征的行人检测方法
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN109829924B (zh) 一种基于主体特征分析的图像质量评价方法
CN108108760A (zh) 一种快速人脸识别方法
CN110807775A (zh) 基于人工智能的中医舌像分割装置、方法及存储介质
CN112528939A (zh) 一种人脸图像的质量评价方法及装置
CN111832405A (zh) 一种基于hog和深度残差网络的人脸识别方法
CN111161281A (zh) 一种人脸区域识别方法、装置及存储介质
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
WO2022156214A1 (zh) 一种活体检测方法及装置
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN111259792A (zh) 基于dwt-lbp-dct特征的人脸活体检测方法
CN113052234A (zh) 一种基于图像特征和深度学习技术的玉石分类方法
CN112270404A (zh) 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法
CN108875572B (zh) 基于背景抑制的行人重识别方法
CN112396638A (zh) 一种图像处理方法、终端和计算机可读存储介质
CN113269136B (zh) 一种基于triplet loss的离线签名验证方法
CN115984178A (zh) 伪造图像检测方法、电子设备和计算机可读存储介质
CN115222652A (zh) 一种成捆钢筋端面的识别计数及中心定位方法与其存储器
CN114241580A (zh) 一种基于局部二值特征的人脸识别方法及相关装置
CN113920391A (zh) 一种基于生成尺度自适应真值图的目标计数方法
CN113223098A (zh) 图像颜色分类的预处理优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant