CN116778559A - 基于高斯过程与随机变换的面部皱纹三维评价方法及系统 - Google Patents
基于高斯过程与随机变换的面部皱纹三维评价方法及系统 Download PDFInfo
- Publication number
- CN116778559A CN116778559A CN202310797782.5A CN202310797782A CN116778559A CN 116778559 A CN116778559 A CN 116778559A CN 202310797782 A CN202310797782 A CN 202310797782A CN 116778559 A CN116778559 A CN 116778559A
- Authority
- CN
- China
- Prior art keywords
- wrinkle
- face
- facial
- wrinkles
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000037303 wrinkles Effects 0.000 title claims abstract description 292
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000011156 evaluation Methods 0.000 title claims abstract description 55
- 230000008569 process Effects 0.000 title claims abstract description 48
- 230000009466 transformation Effects 0.000 title claims abstract description 37
- 230000001815 facial effect Effects 0.000 claims abstract description 142
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 210000000697 sensory organ Anatomy 0.000 claims abstract description 19
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 23
- 238000010586 diagram Methods 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 210000000056 organ Anatomy 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 210000001061 forehead Anatomy 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000036548 skin texture Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009759 skin aging Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于高斯过程与随机变换的面部皱纹三维评价方法及系统。涉及面部皱纹检测领域,首先,基于自定义神经网络模型在面部图像中定位面部五官及面部轮廓,根据定位结果将五官、背景从面部图像中去除;并结合高斯过程与随机变换算法,实现面部皱纹检测;最后,根据本发明提出的皱纹评价算法计算面部皱纹的三维体密度。本发明在二维面部图像中能够检测并衡量皱纹长度、宽度、深度、数量,并以此计算三维皱纹体密度,从而实现对受试者面部皱纹三维评价的目的。
Description
技术领域
本发明涉及面部皱纹检测领域,特别是涉及一种基于高斯过程与随机变换的面部皱纹三维评价方法及系统。
背景技术
近年来,面部皱纹检测被应用于以下几个方面:一是在相关的人脸识别、表情识别以及表情合成方面;二是应用于面部修饰,面部修饰广泛应用于媒体和娱乐行业,用以消除面部皱纹和瑕疵,使皮肤看起来美观平滑;三是应用于年龄估计、年龄模拟和老龄化识别等方面。面部皱纹检测可以为上述相关应用研究提供部分基础信息,因此,面部皱纹检测具有极大的研究意义。
大多数面部皱纹检测方法是将皱纹视为皮肤纹理,但其与皮肤纹理完全不同。皮肤纹理具有天生性、均匀性和重复性,与生理年龄相关性较低。而皱纹是由皮肤老化和面部肌肉长期收缩引起,后天形成。因此皱纹是具有一定强度和几何约束的曲线对象,其长度、宽度、深度、分布率均与皮肤老化程度密切相关。
目前,主要的面部皱纹检测方法有以下几种:一是使用马尔科夫过程的皱纹生成随机模型,该模型具有定位结果良好的优点,但需要大量计算时间,并且算法准确性取决于初始线段的位置。为了改进这一问题,提出了第二种检测方法,基于图像形态学的确定性方法。由于该方法实现了面部皱纹的快速定位,其准确性和计算量明显优于使用马尔科夫过程的皱纹生成随机模型。然而,对于粗糙皮肤图像或分辨率较高的图像,干扰信息较多,导致皱纹特征提取较差,检测率低。第三种方法是指使用混合Hessian滤波器检测皱纹的方法,该方法仅适用于检测水平方向的粗糙皱纹,因此具有很大的局限性。在此基础上又提出了一种基于原始混合Hessian滤波器的线跟踪方法,与上述方法相比,检测率有所提高,但细纹检测率低的问题尚未完全解决。
除了上述的面部皱纹检测方法外,如何科学有效的评价皱纹也是一个技术难点。目前,对于皱纹的评价方法可分为临床评价方法(例如照片分级方法、描述性分级方法)与非临床评价方法(例如皱纹指数评价方法)。临床评价方法具有操作方便、应用广泛的特点,但大多都是人工方法,需要医师具有较高的专业知识以及丰富的诊断经验,最终给出的定性结论也会因人而异,准确率和客观性都存在疑问。非临床评价方法主要是指使用检测仪器或软件对皱纹形态进行测量。目前,常用的皱纹测量仪器有超声诊断仪、激光表面光度仪等。综上所述,相比临床评价方法,非临床评价方法因其能够提供相对客观的数据,对皱纹的评估疗效等具有重要作用。但是,非临床评价方法,例如皱纹指数评价方法,忽略了皱纹宽度、皱纹数量对衡量皱纹程度的影响,没有考虑到不同的图像分辨率以及人脸尺寸会导致皱纹指数变化较大。并且该方法中皱纹深度为其检测过程中的图像特征提取的滤波响应数值,该数值只是一个相对深度,不能客观反应皱纹的实际深度。综上,该方法是在成像面上使用皱纹深度、皱纹长度对皱纹进行二维评价,未开展三维评价。
发明内容
为了解决细纹检测率低、并利用检测结果客观评价面部皱纹等问题,本发明提供了一种基于高斯过程与随机变换的面部皱纹三维评价方法及系统。
为实现上述目的,本发明提供了如下方案:
本发明提供了一种基于高斯过程与随机变换的面部皱纹三维评价方法,包括:
读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图;
基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据;
根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图;
基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图;
提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域;
对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度;
根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度;
根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
本发明还提供了一种基于高斯过程与随机变换的面部皱纹三维评价系统,包括:
图像标准化处理模块,用于读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图;
坐标数据提取模块,用于基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据;
面部皮肤图确定模块,用于根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图;
皱纹检测结果图确定模块,用于基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图;
人脸区域裁剪模块,用于提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域;
皱纹信息确定模块,用于对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度;
三维皱纹体密度计算模块,用于根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度;
三维评价模块,用于根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
针对上述现有皱纹检测技术及皱纹评价技术的主要缺陷,本发明提供了一种基于高斯过程与随机变换的面部皱纹三维评价方法及系统。本发明使用高斯过程和随机变换算法快速定位面部皱纹位置,并且可识别不同方向的皱纹,当皱纹方向发生变化时也能被检测出来,因此不会造成皱纹的不连续。本发明通过计算面部皱纹的三维体密度实现对面部皱纹进行更科学的评价,具体计算量小、皱纹检测率高、可识别不同方向走势的皱纹,以及通过面部皱纹的三维体密度填补目前没有合理的皱纹评价方式的空缺。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于高斯过程与随机变换的面部皱纹三维评价方法的流程示意图;
图2为本发明实施例提供的附色区域示意图示意图;
图3为本发明实施例提供的皱纹检测效果示意图;
图4为本发明实施例提供的人脸最高、最低、最左、最右点标记位置示意图;
图5为本发明实施例提供的人脸区域裁剪结果示意图;
图6为本发明实施例提供的去除非皱纹区域操作具体步骤图;
图7为本发明实施例提供的去除非皱纹区域效果示意图;
图8为本发明实施例提供的求曲率的四个方向示意图;
图9为本发明实施例提供的基于高斯过程与随机变换的面部皱纹三维评价方法的系统流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本实施例提供了一种基于高斯过程与随机变换的面部皱纹三维评价方法,包括如下步骤。
步骤101:读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图。
在本实施例中,步骤101具体包括:
将正面人脸原图尺寸调整至标准尺寸;标准尺寸为宽度为X个像素,长度为Y个像素。若正面人脸原图的尺寸小于标准尺寸,则采用二维插值算法对正面人脸原图进行标准化处理,得到正面标准人脸图;若正面人脸原图的尺寸大于标准尺寸,则采用二维降采样算法对正面人脸原图进行标准化处理,得到正面标准人脸图;若正面人脸原图的尺寸等于标准尺寸,则将正面人脸原图确定为正面标准人脸图。
步骤102:基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据。
自定义神经网络模型是通过预先实验获取的;其中,预先实验步骤为:将公共数据集(例如Helen人脸数据集)输入到一种有效的人脸解析分层聚合网络中进行模型训练,训练后输出的模型存储到云端服务器中,供本发明提出的面部皱纹三维评价方法使用。人脸解析分层聚合网络的损失函数如公式(1)-公式(3)所示:
L=λa·La+λb·Lb (3);
其中,La、Lb分别表示粗分割损失、边界感知损失。S^(例如 )和S(例如/>)分别表示N通道置信图和N通道地面实况。(i,j)表示像素的2D坐标。基于二元交叉熵,给边界感知损失分配适当的权重比γ,以缓解前景类别和背景类别的不平衡。L表示总损耗函数。λa、λb用于平衡训练期间的损失,即粗分割损失、边界感知损失的权重值。调用该模型后,该模型返回的运算结果是面部五官坐标数据和面部轮廓坐标数据。
步骤103:根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图。
在本实施例中,步骤103具体包括:
根据面部五官坐标数据,从正面标准人脸图中去除面部五官区域(包括眉毛、眼睛、鼻子、嘴、耳朵),根据面部轮廓坐标数据去除背景区域(面部轮廓以外的区域),即将面部五官区域、背景区域的像素值重设为0,得到面部皮肤图,从而达到去除背景区域与面部五官区域的效果,附色区域如图2所示,其中,0表示外侧的背景区域,1、2、3、4表示面部五官区域。附色操作如公式(4)所示。
f(x,y)=0 (4)。
式中,f(x,y)为图像(x,y)处的像素值。
步骤104:基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图。
在本实施例中,步骤104具体包括:
(1)将面部皮肤图进行灰度化操作得到面部灰度图。
(2)利用高斯过程与随机变换算法,即一种通过跟踪皱纹中心线及其直径的方法,对面部灰度图进行面部皱纹检测,得到皱纹检测结果图。具体步骤如下:
首先,在面部灰度图上随机选择一个种子点,并使用随机变换算法计算选择的种子点所对应的特征向量,如公式(5)所示。特征向量R(ρ,θ)是通过沿与原点具有不同距离(ρ)和不同角度(θ)的直线进行积分而得到的。
然后,将求解皱纹曲率和皱纹直径的过程假设为高斯过程,皱纹曲率和皱纹直径为高斯过程的输出,将上述计算得到的特征向量作为高斯过程的输入。
接下来,将上述得到的皱纹曲率和皱纹直径这些特性作为先验信息,对于没有分叉的单条皱纹,皱纹曲率和皱纹直径通常平滑变化,从而可以从过去的值统计预测新的皱纹曲率和皱纹直径。
通过公式(6)、公式(7)计算皱纹方向变化。
C(xn,xm)=k(xn,xm)+α-1 (7)。
其中,xN是高斯过程的输入向量,yN是其相应的输出变量,CN是具有元素k(xn,xm)的协方差矩阵,k是具有元素k(xn,xN+1)的向量,n=1,......,N。并且k的标量z=k(xN+1,xN+1)+α(-1),α是随机噪声的精度。这些方程是定义高斯过程回归的关键结果。
最后,通过将上述计算得到的皱纹方向变化添加到皱纹前进方向,计算新的皱纹方向。沿着新的皱纹方向向前移动一步,继续预测皱纹方向变化,直到到达皱纹的末端,当一条皱纹检测完后,又会再随机选择一个种子点,直到所有的皱纹都检测到,得到如图3所示的结果图。
步骤105:提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域。
在本实施例中,提取正面人脸原图中的脸部位置信息,具体包括:
利用人脸关键点检测技术,提取正面人脸原图中的脸部位置信息。人脸关键点检测技术是一种通用技术,技术实现过程可参考开源代码网址:https://github.com/codeniko/shape_predictor_81_face_landmarks。
进一步地,利用人脸关键点检测技术,在正面人脸原图中,将人脸轮廓标记为81个点,获取正面人脸原图中位于脸部额头最高点A的位置、脸部下巴最低点B的位置、脸部最左侧点C的位置、脸部最右侧点D的位置,并将A、B、C、D四点的位置读取出来,存储在云端服务器中。其中,四个点的位置如图4所示。
在本实施例中,根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域,具体包括:
提取存储的A、B、C、D四个点的位置信息,在皱纹检测结果图中标记杉树四个点的位置,如图4所示。然后将这四个点连接成矩形区域,则该矩形区域即人脸区域,裁剪出来,得到人脸区域,裁剪结果如图5所示。
步骤106:对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度。
在本实施例中,对人脸区域进行图像处理,得到皱纹区域,具体包括:
将人脸区域进行二值化操作,并计算二值化操作后的人脸区域内的连通域,接着计算每个连通域的像素点个数以及离心率;最后根据连通域的像素点个数及离心率在人脸区域中去除非皱纹区域,保留皱纹区域。例如:当一个连通域的像素点个数小于100或离心率小于0.95时,去除该连通域,即将该连通域当做非皱纹区域去除。具体操作步骤及去除条件如图6所示,去除后的效果如图7所示。
在本实施例中,确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,具体包括:
对皱纹区域进行连通域识别操作,得到位于皱纹区域内的连通域;其中,位于皱纹区域内的一个连通域代表一条皱纹,位于皱纹区域内的连通域的数量为皱纹数量。
计算每个连通域的最小外接矩形,并将最小外接矩形的长度确定为皱纹的长度length(i),将最小外接矩形的宽度确定为皱纹的宽度width(i),从而得到每条皱纹的长度和宽度。
计算每个连通域在四个方向上的横截面的曲率K(i),并将最大曲率值确定为皱纹的深度,从而得到每条皱纹的深度Depth(i)。其中,四个方向如图8所示,曲率计算方法如公式(8)所示:
皱纹的深度的计算方法见公式(9)所示:
Depth(i)=max(K(i)) (9)。
其中,i=0,......,N,N为连通域个数。n表示四个方向,K(n)表示四个方向横截面的曲率,f(n)表示在四个方向位置得到的横截面边缘轮廓,fvr表示要进行求解曲率操作的连通域。
步骤107:根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度。
在本实施例中,根据公式(10)计算全脸皱纹体等级数。
F=∑length(i)*width(i)*Depth(i) (10)。
在本实施例中,根据全脸皱纹体等级数和人脸区域大小(即附图五的像素点数和)计算三维皱纹体密度M,计算方法如公式(11)所示:
M=F/(x*y) (11)。
其中,i=0,......,N,N为连通域个数。x、y分别为进行皱纹检测的人脸区域的宽度和高度。
步骤108:根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
在本实施例中,将三维皱纹体密度转换为表示皱纹严重程度的评分分数,实现对受试者面部皱纹进行三维评价,计算方法如公式(12)所示:
其中,M1为转换阈值,其定义如公式(13)所示:
M1=M*104 (13)。
其中,本实施例提供的一种基于高斯过程与随机变换的面部皱纹三维评价方法的系统流程如图9所示。
实施例二
本实施例提供了一种基于高斯过程与随机变换的面部皱纹三维评价方法,包括:
第1步,利用拍摄设备采集受试者的正面人脸原图,然后将原图传送到面部皱纹三维评价系统。
第2步,面部皱纹三维评价系统收到原图,即得到面部检测请求。先将原图尺寸调整至标准尺寸---宽度为1024个像素,长度为1024个像素。
第3步,从云端服务器调用已经经过FPHANET训练好的相应模型对标准后的原图进行处理,返回面部五官及面部轮廓的坐标数据。
第4步,根据第3步获取的面部五官及面部轮廓的坐标数据,在面部图像中去除五官,并根据面部轮廓去除背景区域,即将面部五官(包括眉毛、眼睛、鼻子、嘴、耳朵)、背景区域(面部轮廓以外的区域)的像素值重设为0,从而达到去除背景与五官的效果。
第5步,使用第4步获取的面部皮肤图片,进行面部皱纹检测,得到皱纹检测结果图。
第6步,利用人脸关键点检测技术,在第1步中提及的面部原图中,将人脸轮廓标记为81个点,获取图片中位于人脸额头最高点A的位置、下巴最低点B的位置,脸部最左侧点C的位置,脸部最右侧点D的位置并将A、B、C、D四点的位置读取出来存储在云端服务器中。
第7步,提取存储的脸部A、B、C、D四个点的位置信息在第5步获取到的皱纹检测结果图中标记四个点的位置,并将这四个点连接成矩形,将该矩形区域即人脸区域裁剪出来,得到人脸图片。
第8步,将第7步获得的裁剪后的图片进行二值化操作,得到二值化图片,并对其求连通域,再计算每个连通域的像素点以及离心率,当一个连通域的像素点小于100或离心率小于0.95时,去除该连通域,即将该连通域当做非皱纹区域去除。
第9步,对第8步获取的去除非皱纹区域后的图片进行连通域识别操作,每个连通域代表一条皱纹,计算每个连通域的最小外接矩形,并将最小外接矩形的长度确定为皱纹的长度length(i),将最小外接矩形的宽度确定为皱纹的宽度width(i),从而得到每条皱纹的长度和宽度;计算每个连通域在四个方向上的横截面的曲率K(i),并将最大曲率值确定为皱纹的深度,从而得到每条皱纹的深度Depth(i)。
第10步,根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度。
第11步,根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
通过计算得到图5中的三维皱纹体密度(保留四位有效数字)为0.0002223。然后利用三维皱纹体密度转换皱纹分布率,将评价结果表现为百分制分数形式。最后图5计算出的皱纹评价分数为67.77。
第12步,将最终获得的分数和完成皱纹检测的图片可视化后返回到系统前端。
实施例三
为了执行上述实施例一对应的方法,以实现相应的功能和技术效果,下面提供一种基于高斯过程与随机变换的面部皱纹三维评价系统。
本实施例提供的一种基于高斯过程与随机变换的面部皱纹三维评价系统,包括:
图像标准化处理模块,用于读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图。
坐标数据提取模块,用于基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据。
面部皮肤图确定模块,用于根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图。
皱纹检测结果图确定模块,用于基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图。
人脸区域裁剪模块,用于提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域。
皱纹信息确定模块,用于对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度。
三维皱纹体密度计算模块,用于根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度。
三维评价模块,用于根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
本发明具有如下优点:
1、利用新型神经网络结构实现背景与五官去除,提高了五官定位准确率,从而更好的完成图片处理。
2、通过高斯过程和随机变换法进行皱纹识别,提升了系统鲁棒性,能够识别皱纹的变化方向,解决了其他方法只能识别某一方向皱纹的问题。
3、创建了科学的皱纹程度评价机制和打分机制,解决了市面上目前缺乏明确的评价标准的问题。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,包括:
读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图;
基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据;
根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图;
基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图;
提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域;
对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度;
根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度;
根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
2.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,对正面人脸原图进行标准化处理,得到正面标准人脸图,具体包括:
若正面人脸原图的尺寸小于标准尺寸,则采用二维插值算法对正面人脸原图进行标准化处理,得到正面标准人脸图;
若正面人脸原图的尺寸大于标准尺寸,则采用二维降采样算法对正面人脸原图进行标准化处理,得到正面标准人脸图;
若正面人脸原图的尺寸等于标准尺寸,则将正面人脸原图确定为正面标准人脸图。
3.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,自定义神经网络模型是将公共数据集输入到人脸解析分层聚合网络中进行模型训练后得到的。
4.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图,具体包括:
在面部灰度图上随机选择一个种子点,并使用随机变换算法计算选择的种子点所对应的特征向量;
将特征向量作为高斯过程的输入,将皱纹曲率和皱纹直径作为先验信息,预测皱纹方向变化,并将预测的皱纹方向变化添加到皱纹前进方向,计算新的皱纹方向;
沿着新的皱纹方向向前移动一步,继续预测皱纹方向变化,直到到达皱纹的末端,当一条皱纹检测完成后,再从面部灰度图上随机选择一个种子点,直到所有皱纹检测完成,得到皱纹检测结果图。
5.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,提取正面人脸原图中的脸部位置信息,具体包括:
利用人脸关键点检测技术,提取正面人脸原图中的脸部位置信息;所述脸部位置信息包括脸部额头最高点的位置、脸部下巴最低点的位置、脸部最左侧点的位置和脸部最右侧点的位置。
6.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,对人脸区域进行图像处理,得到皱纹区域,具体包括:
将人脸区域进行二值化操作,并计算二值化操作后的人脸区域内的连通域;
计算每个连通域的像素点个数以及离心率,并根据连通域的像素点个数及离心率,在人脸区域中去除非皱纹区域,保留皱纹区域。
7.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,具体包括:
对皱纹区域进行连通域识别操作,得到位于皱纹区域内的连通域;其中,位于皱纹区域内的一个连通域代表一条皱纹,位于皱纹区域内的连通域的数量为皱纹数量;
计算每个连通域的最小外接矩形,并将最小外接矩形的长度确定为皱纹的长度,将最小外接矩形的宽度确定为皱纹的宽度,从而得到每条皱纹的长度和宽度;
计算每个连通域在四个方向上的横截面的曲率,并将最大曲率值确定为皱纹的深度,从而得到每条皱纹的深度。
8.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,全脸皱纹体等级数的计算公式为:
F=∑length(i)*width(i)*Depth(i);
其中,F表示全脸皱纹体等级数,length(i)表示第i条皱纹的长度,width(i)表示第i条皱纹的宽度,Depth(i)表示第i条皱纹的深度。
9.根据权利要求1所述的一种基于高斯过程与随机变换的面部皱纹三维评价方法,其特征在于,三维皱纹体密度的计算公式为:
M=F/(x*y);
其中,M表示三维皱纹体密度,F表示全脸皱纹体等级数,x和y表示人脸区域的宽度和高度。
10.一种基于高斯过程与随机变换的面部皱纹三维评价系统,其特征在于,包括:
图像标准化处理模块,用于读取一张受试者的正面人脸原图,并对正面人脸原图进行标准化处理,得到正面标准人脸图;
坐标数据提取模块,用于基于自定义神经网络模型,在正面标准人脸图中定位面部五官及面部轮廓,得到面部五官坐标数据和面部轮廓坐标数据;
面部皮肤图确定模块,用于根据面部五官坐标数据和面部轮廓坐标数据,将面部五官区域和背景区域从正面标准人脸图中去除,得到面部皮肤图;
皱纹检测结果图确定模块,用于基于高斯过程与随机变换算法,对面部皮肤图进行面部皱纹检测,得到皱纹检测结果图;
人脸区域裁剪模块,用于提取正面人脸原图中的脸部位置信息,并根据脸部位置信息,从皱纹检测结果图中裁剪出人脸区域;
皱纹信息确定模块,用于对人脸区域进行图像处理,得到皱纹区域,并确定皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度;
三维皱纹体密度计算模块,用于根据皱纹区域内的皱纹数量以及每条皱纹的长度、宽度和深度,计算全脸皱纹体等级数,并根据全脸皱纹体等级数和人脸区域计算三维皱纹体密度;
三维评价模块,用于根据三维皱纹体密度,对受试者面部皱纹进行三维评价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310797782.5A CN116778559A (zh) | 2023-07-03 | 2023-07-03 | 基于高斯过程与随机变换的面部皱纹三维评价方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310797782.5A CN116778559A (zh) | 2023-07-03 | 2023-07-03 | 基于高斯过程与随机变换的面部皱纹三维评价方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116778559A true CN116778559A (zh) | 2023-09-19 |
Family
ID=87985816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310797782.5A Pending CN116778559A (zh) | 2023-07-03 | 2023-07-03 | 基于高斯过程与随机变换的面部皱纹三维评价方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778559A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117593780A (zh) * | 2024-01-12 | 2024-02-23 | 深圳市宗匠科技有限公司 | 一种皱纹深度指数确定方法、装置、电子设备及存储介质 |
-
2023
- 2023-07-03 CN CN202310797782.5A patent/CN116778559A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117593780A (zh) * | 2024-01-12 | 2024-02-23 | 深圳市宗匠科技有限公司 | 一种皱纹深度指数确定方法、装置、电子设备及存储介质 |
CN117593780B (zh) * | 2024-01-12 | 2024-05-17 | 深圳市宗匠科技有限公司 | 一种皱纹深度指数确定方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539912B (zh) | 基于人脸结构定位的健康指标评估方法、设备和存储介质 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
Jones | Facial Reconstruction Using Volumetric Data. | |
CN113436734B (zh) | 基于人脸结构定位的牙齿健康评估方法、设备和存储介质 | |
CN112215217B (zh) | 模拟医师阅片的数字图像识别方法及装置 | |
CN116778559A (zh) | 基于高斯过程与随机变换的面部皱纹三维评价方法及系统 | |
CN112085675A (zh) | 深度图像去噪方法、前景分割方法及人体运动监测方法 | |
JP2004521425A (ja) | 対象の3次元表面上にマップされた3次元メッシュモデルの適合性評価のための画像処理方法 | |
Liu et al. | Tracking-based deep learning method for temporomandibular joint segmentation | |
CN111080769A (zh) | 一种基于核磁共振数据的三维形变模型生成方法、系统及电子设备 | |
CN107169978B (zh) | 超声图像边缘检测方法及系统 | |
CN116725563B (zh) | 眼球突出度测量装置 | |
CN110555853B (zh) | 基于解剖学先验的分割算法评估的方法和装置 | |
Ji et al. | A novel artificial intelligence model for fetal facial profile marker measurement during the first trimester | |
CN115969400A (zh) | 眼球突出截面积测量装置 | |
Vicente et al. | Gradient‐based 3D skin roughness rendering from an in‐vivo skin image for dynamic haptic palpation | |
WO2021103048A1 (zh) | 测量肌肉肌纤维束线斜率和羽状角的方法及终端设备 | |
CN110400313B (zh) | 一种核磁共振影像的软组织分离方法和分离系统 | |
Nandanwar et al. | Analysis of pixel intensity variation by performing morphological operations for image segmentation on cervical cancer pap smear image | |
CN115797556B (zh) | 一种虚拟数字人面部轮廓3d重建装置 | |
CN117275130B (zh) | 基于人脸识别的智慧门禁验证系统 | |
CN110930414B (zh) | 医学影像的肺部区域阴影标记方法、装置、服务器及存储介质 | |
Wibisono | THE ESTIMATION OF SKIN THICKNESSON ANTHROPOLOGISTS POINT BASED ON SKULL CT IMAGE USING LAGRANGE INTERPOLATION | |
CN116402812B (zh) | 一种医疗用影像数据的处理方法及系统 | |
Wang et al. | Application of MP-YOLO for Segmentation and Visualization of Ovarian Ultrasound Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |