CN112465773A - 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法 - Google Patents

一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法 Download PDF

Info

Publication number
CN112465773A
CN112465773A CN202011345221.4A CN202011345221A CN112465773A CN 112465773 A CN112465773 A CN 112465773A CN 202011345221 A CN202011345221 A CN 202011345221A CN 112465773 A CN112465773 A CN 112465773A
Authority
CN
China
Prior art keywords
points
face
motion
grid
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011345221.4A
Other languages
English (en)
Inventor
王坚
曹智梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011345221.4A priority Critical patent/CN112465773A/zh
Publication of CN112465773A publication Critical patent/CN112465773A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,解决了面部神经麻痹疾病的检测诊断不能快速简易化的问题。该发明含有以下步骤:1、通过人脸检测算法获得相机视野中人脸的位置,采集图像数据,输出人脸图像;2、根据人脸图像重建3D模型;3、获取人脸3D模型上相关肌肉对应的网格点的坐标;4、对人脸图像进行角点检测,获得肌肉上的角点特征,并根据角点修正面部肌肉的运动特征;5、为人脸3Dmensh的网格点分配权重;6、根据面部肌肉运动特征和角点位置的变化特征获得面部肌肉的运动幅度。该技术可以方便快捷的部署在APP应用上,疑似患者通过APP来检测其是否患有面部神经麻痹疾病以及患病程度。

Description

一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测 方法
技术领域
本发明涉及机器视觉图像处理技术领域,特别是涉及一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法。
背景技术
面部神经麻痹疾病是以面部表情肌群运动功能障碍为主要特征的一种疾病,它是一种常见病、多发病,不受年龄限制,症状表现为口眼歪斜等,严重的患者往往连最基本的抬眉、闭眼、鼓嘴等动作都无法完成。这种疾病发现的越早、治疗越早恢复的就越快,并且不会留下后遗症,但是疑似有面部神经麻痹疾病的患者需要到医院或诊所去检测诊断才能获知是否有这种疾病,这样麻烦费时费钱,目前还没有一种快速自动诊断面部神经麻痹疾病的系统和方法。
发明内容
本发明克服了现有技术中面部神经麻痹疾病的检测诊断不能快速简易化的问题,提供一种的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法。
本发明的技术解决方案是,提供一种具有以下步骤的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法:含有以下步骤:步骤1、通过人脸检测算法获得相机视野中人脸的位置,采集图像数据,输出人脸图像;步骤2、根据人脸图像重建3D模型;步骤3、获取人脸3D模型上相关肌肉对应的网格点的坐标;步骤4、对人脸图像进行角点检测,获得肌肉上的角点特征,并根据角点修正面部肌肉的运动特征;步骤5、为人脸3D mensh的网格点分配权重;步骤6、根据面部肌肉运动特征和角点位置的变化特征获得面部肌肉的运动幅度。
优选地,所述步骤1中利用手机的前置相机采集用户的图像数据。
优选地,所述步骤2中通过PRNet、VRNet或2DASL深度神经网络获得面部的3D模型,通过2DASL深度神经获得3DMM模型的参数,输出的参数作用在该3DMM模型上,使其变形为和图像中人脸一样的形状和纹理。
优选地,所述步骤3中从人脸3D mensh上选取分布在双目下方、鼻子两侧、两嘴角周围和颧骨周围的所有网格点,其分布在口轮匝肌、咬肌、提上唇肌和颊肌上,通过肌肉上的网格点的位置变化来计算肌肉的运动特征。
优选地,所述步骤4含有以下分步骤:
步骤4.1、将角点和3D mensh的网格点相结合实现优势互补,将角点的位置融入3Dmensh;
1)人脸3D mensh是和人脸图像上的人脸对齐后,获取角点的位置,将该位置反向投影回3D mensh上,获得角点在3D mensh上对应的三维坐标P;
2)获取坐标P周围最近的四个网格点的位置为,构建一个序列ΔP={||PPi||2}i=1,2,3,4={||PP1||2,||PP2||2,||PP3||2,||PP4||2},||PPi||2表示坐标P和坐标Pi的欧式距离,i=1,2,3,4,序列ΔP反映坐标P与周围最近的四个网格点的欧式距离;
3)构建四个权重系数α1,α2,α3,α4,分别表示四个网格点对坐标位置P的关注程度,令:
Figure BDA0002799716640000021
Figure BDA0002799716640000022
sum(ΔP)表示对序列ΔP的元素求和,网格点Pi与坐标位置P的距离越近,αi就越大,说明Pi对P的关注程度越高,并且满足α1234=3;
4)对于网格点Pi,使用下式对其进行更新:Pi:=αiP+(1-αi)Pi
步骤4.2、对于第j个网格点,其在N帧图像上的位置序列为Dj={D1,j,D2,j,Di,j,…,DN,j},Di,j表示第j个网格点在第i帧图像上的位置,第j个网格点的运动幅度方法如下:
1)计算边缘的网格点的坐标的均值为
Figure BDA0002799716640000023
令:
Figure BDA0002799716640000024
符号“:=”表示将符号右边的表达式的结果赋值给符号左边的变量;
2)首先获得第j个网格点的在当前第i帧的最小运动幅度,方法如下:计算当前第i帧的第j个网格点Di,j与前i-1帧图像中每帧的第j个网格点的欧式距离Li,Li={Li,1,,Li,2,...,Li,m,...,Li,i-1},Li,m表示第i帧的第j个网格点Di,j与第m帧的第j个网格点Dm,j的欧式距离,即Li,m=||Di,jDm,j||2,设前i帧中第j个网格点的最小运动幅度为Lmini,则:Lmini=min(min(Li),Lmini-1),i>2,min(Li)表示序列Li中最小的元素值,Lmini-1表示前i-1帧中第j个网格点的最小运动幅度,其中Lmin2=||D2,jD1,j||2,Lmini表示前i帧中第j个网格点的最小运动范围,通常该值比较小,等于或趋近于0;
3)同理获得当前第i帧第j个关键点的最大运动程度Lmaxi,表示在前i帧中网格点最大的运动范围,Lmaxi与Lmini的算法一样;
4)则第j个网格点的运动幅度为Mj
5)Mj越大表示第j个网格点的运动范围越大,说明第j个网格点处的肌肉的运动能力越强。
优选地,所述步骤5含有以下分步骤:设有J个网格点,获得当前J个网格点的运动幅度M={M1,M2,...,Mj,...,MJ},Mj表示第j个网格点的运动幅度;对不同网格点施加以不同的权重w={w1,w2,…,wj,...,wJ},wj表示对第j个网格点施加的权重;设有A个正常人的人脸数据,A为超参数,越大越好,A取值为100到200之间;第i个人脸对应的J个网格点的运动幅度为
Figure BDA0002799716640000025
其中
Figure BDA0002799716640000026
表示第i个人脸上第j个网格点的运动幅度,A个人脸对应的第j个网格点的运动幅度为
Figure BDA0002799716640000027
Figure BDA0002799716640000028
对数据列表mj,首先剔除值为0的元素,然后利用均值漂移(Meanshift)算法进行聚类,该算法会输出数据分布密度较大的数据所构成的集合,设这个数据集合为
Figure BDA0002799716640000029
集合
Figure BDA00027997166400000210
中的元素依然表示的是第j个网格点的运动幅度;引入参量
Figure BDA00027997166400000211
令:
Figure BDA00027997166400000212
Figure BDA00027997166400000213
表示集合
Figure BDA00027997166400000217
中元素的均值,对于第j个网格点,不同人脸有不同的运动幅度,
Figure BDA00027997166400000215
表示这些运动幅度经过Meanshift聚类后获得的运动幅度的均值,对于所有的J个网格点,获得一个序列
Figure BDA00027997166400000216
运动幅度越小的网格点对应的肌肉运动越微小,其对应的网格点的权重越大,设第j个网格点的权重为wj,令:
Figure BDA0002799716640000031
其中,
Figure BDA0002799716640000032
Figure BDA0002799716640000033
表示对序列
Figure BDA00027997166400000314
里的元素取最大值,其中a、b为超参数,实施者根据所需设置,令a=8.7、b=-0.6,此时wj与xj遵循负相关关系,xj取值在0和1区间,wj大于0,小于1。
优选地,所述步骤6含有以下分步骤:利用当获得每个网格点的权重后,通过对所有网格点的运动幅度的加权求和获得人脸面部肌肉的运动幅度,设利用网格点获得的脸面部肌肉的运动幅度为B1,则:
Figure BDA0002799716640000034
Figure BDA0002799716640000035
设检测到n个角点,将n个角点映射到人脸3Dmensh上,获得n个角点在3D mensh上的三维坐标,根据角点的三维坐标的位置变化获得每个角点的运动幅度,运动幅度的计算方法和网格点的运动幅度计算方法一致,设第i个角点的运动幅度为Qi,与第i个角点距离最近的网格点的权重设为wi,则n个角点对应的肌肉运动幅度为B2,令:
Figure BDA0002799716640000036
最终的肌肉运动幅度为B,
Figure BDA0002799716640000037
其中
Figure BDA0002799716640000038
Figure BDA0002799716640000039
表示融合B1与B2后的肌肉运动幅度,γ是一个权重系数,n越小该权重系数越大:
Figure BDA00027997166400000310
c为超参数,在[1,4]区间取值,此处c=2;
Figure BDA00027997166400000311
是一个对n不敏感的数据,当检测到的角点数目多,即n较大时,B2的值较大,并且γ较小;当检测到的角点数目变少时,即n较小,B2的值较小,并且γ较大;B表示融合网格点的运动幅度B1与
Figure BDA00027997166400000312
的结果数据,b为权值,表示对
Figure BDA00027997166400000313
的关注程度,b是由角点分布决定,b为角点位置距3D mensh原点的距离的方差与J个网格点的位置到原点的距离的方差之比,若b=1,角点的分布接近肌肉网格点的分布,其中d是一个超参数,d=0.8。
与现有技术相比,本发明基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法具有以下优点:利用摄像机,例如手机的前置相机,采集人脸图像,通过重建人脸的三维模型,获得面部肌肉的运动特征,根据肌肉运动特征分析用户的患病情况;克服用于重建的三维模型可能对某些肌肉的运动不敏感等问题,通过人脸的角点来引入修正参数,并获得较为精确的诊断结果。将角点的位置信息融入人脸3D mesh中,使得人脸3D mesh上的网格运动更为准确。利用3D mesh上的网格点的运动幅度和角点的数量、分布以及角点运动幅度获得人脸面部肌肉的运动幅度,使得获得的运动幅度更加可靠准确。运动幅度的大小能够量化患病病情况,对疾病的检测和后续的治疗具有重要作用,
本发明可以方便快捷的部署在APP应用上,疑似患者可以通过手机APP使检测是否患有面部神经麻痹疾病以及患病程度,并给出治疗意见。
附图说明
图1是本发明的总体流程示意图;
图2是本发明中网格点平均运动幅度权重映射曲线示意图。
具体实施方式
下面结合附图和具体实施方式对本发明基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法作进一步说明:如图(1)所示,本实施例的大致步骤为:
1)采集图像数据,通过人脸检测算法获得相机视野中人脸的位置,并输出人脸图像。
2)根据人脸图像进行人脸3D重建,获得人脸的3D模型。所述的人脸3D模型是一个3D的mesh,它有很多网格点和网格构成构成,每个网格点对应着人脸上的一个位置坐标,这些网格点和网格能够反映人脸的结构和五官与面部肌肉位置。
3)获取人脸3D模型上相关肌肉对应的网格点的坐标。所述的相关肌肉包括嘴部的口轮匝肌、提上唇肌、皱眉肌等,具体肌肉可由实施者确定,本发明只获取口轮匝肌、提上唇肌等网格点进行分析计算,因为这些肌肉更能体现面部的表情变化,也是面部运动的主要参与对象。
4)对人脸图像进行角点检测,获得肌肉上的角点特征,并根据角点修正面部肌肉的运动特征,使得面部肌肉特征更为准确。
5)为人脸3D mesh的网格点分配权重。
6)根据面部肌肉运动特征和角点位置的变化特征获得面部肌肉的运动幅度,面部肌肉的运动幅度反映了面部神经麻痹疾病的发病程度,所述的面部神经麻痹疾病的发病程度是指疾病患者对面部肌肉的控制程度,如果患者能够灵活控制面部肌肉的运动,那么面部肌肉的运动幅度大,说明患者面部神经麻痹疾病的发病程度低,否则高。所述的运动幅度是指运动物体在某段时间的运动范围。
详细技术内容如下:
1.利用相机采集人脸的正视图像数据,本发明利用手机的前置相机采集患者(用户)的图像数据,这样做方便快捷。
2.本发明利用人脸检测算法获得图像中的人脸边界框,根据人脸的边界框裁切出人脸图像。如果视野中包括多个人脸边界框,那么只选取边界框面积最大的人脸进行后续的分析计算。
3.利用人脸图像获得人脸的3D模型,即人脸的3D重建。人脸3D重建的方法和DNN网络有很多,例如PRNet、VRNet、2DASL等,本发明使用2DASL获得面部的3D模型,即面部的3Dmensh。
4.2DASL是一种公开的人脸三维重建方法,它输入的是人脸图像和一幅特殊的单通道图像,这个单通道图像在人脸关键点处的像素值为1,其余位置为-1。输出的是3DMM模型的参数,所述的3DMM模型是一个可变形的3D人脸mesh,输出的参数作用在该mesh上使得mesh变形为和图像中人脸一样的形状和纹理,从而达到人脸的3D重建。
5.众所周知,人脸的面部肌肉对应3D mensh上的多个网格点,本发明通过肌肉上的网格点的位置变化来计算肌肉的运动特征。
6.人脸面部的肌肉有很多,例如鼻肌、皱眉肌、口轮匝肌、咬肌等,其中口轮匝肌、咬肌、提上唇肌、颊肌是人脸做表情时常用的肌肉,也是运动幅度或运动特征较为明显的肌肉,本发明通过分析这些肌肉的运动特征来进行面部神经麻痹疾病的诊断计算。后续所述的肌肉均指这几块肌肉,实施者也可以根据所需来指定其他肌肉。
7.面部的肌肉虽然在解刨学上是可以区分出来的,但是在视觉上人们是无法准确的区分出面部的每块肌肉的,只能根据确定肌肉在人脸上的大致位置。基于此,本发明人为的从人脸3D mesh上实现选取一些网格点,这些网格点包括分布在双目下方、鼻子两侧、两嘴角周围、颧骨周围的所有网格点,这些点大致时分布在口轮匝肌、咬肌、提上唇肌、颊肌上,这些点的运动特征也能反映这些肌肉的运动特征。具体大网格点选取需要实施者根据实际情况来选取。
8.利用3D mesh虽然能够还原人脸的三维信息,但是仍存在一些问题,例如有些面部肌肉处的网格点稀疏或分布不均匀,导致某块肌肉的某个位置点没有网格点分布,而且这个位置可能又恰恰能反映肌肉的运动情况。再例如一些肌肉的运动幅度较小时,其上的网格点运动幅度也比较小,又因为获得的3D mesh的网格点存在一定程度的误差,导致网格点不能描述肌肉的轻微运动情况。
9.基于上述本发明提出利用面部角点的特征来修正上述问题,方法如下:
1)获得人脸图像数据,利用角点检测算法获得面部的角点,常用的角点检测算法有很多,例如获得的角点包括Harris角点检测算法、FAST角点检测算法等,本发明使用Harris角点检测算法,该算法获得角点的特征值和角点的位置信息。
2)本发明只关注所述的口轮匝肌、咬肌、提上唇肌、颊肌上的角点。正如前述,获得的人脸3D mesh的网格点和网格能够反映人脸的结构和五官与面部肌肉位置,因此可以人为的事先确定口轮匝肌、咬肌、提上唇肌、颊肌对应的网格,将这些网格投影到图像平面上,获得这些肌肉的语义区域,最后只保留语义区域内的角点。这些角点的位置变化能反映肌肉的运动,本发明后续所述的角点均指这些角点。
3)上述提到了将网格投影到图像平面上,进而获得这些肌肉(口轮匝肌、咬肌、提上唇肌、颊肌)的语义区域,这种投影方法已在2DASL模型中公开,本发明不在过多叙述。实施者也可以利用语义分割网络获得口轮匝肌、咬肌、提上唇肌、颊肌的语义区域。
10.由于不同人的面部的细节不一样,有的人的人脸纹理多,从而角点也多,有的人的面部皮肤光滑,从而角点数量少。对于同一张人脸,不同光照和不同视角的脸部的角点数量也不一样,因此如果只利用角点来分析面部肌肉的运动特征的话,获得的结果对于用户来说是由个体差异的,但是将角点和3D mesh的网格点相结合的话就能实现优势互补:既利用了3D mesh的三维空间特征,又融入了可以精确定位的角点位置特征。
11.具体的将角点的位置融入3D mesh的方法为:
5)本发明获得的人脸3D mesh是和人脸图像上的人脸对齐的,即3D mesh上的一个点可以投射图像上的一个像素,图像上的一个像素对应也可以反向投影回3D mesh上。
6)获取角点的位置,将该位置反向投影回3D mesh上,获得角点在3D mesh上对应的三维坐标P。
7)获取坐标P周围最近的四个网格点的位置为P1、P2、P3、P4,构建一个序列ΔP={||PPi||2}i=1,2,3,4={||PP1||2,||PP2||2,||PP3||2,||PP4||2},||PPi||2表示坐标P和坐标Pi的欧式距离,i=1,2,3,4。可知序列ΔP反映的是坐标P与周围最近的四个网格点的欧式距离。
8)构建四个权重系数α1,α2,α3,α4,分别表示四个网格点P1、P2、P3、P4对坐标位置P的关注程度,令:
Figure BDA0002799716640000061
9)sum(ΔP)表示对序列ΔP的元素求和,网格点Pi与坐标位置P的距离越近,αi就越大,说明Pi对P的关注程度越高,并且满足α1234=3。
10)对于网格点Pi,本发明使用下式对其进行更新:
Pi:=αiP+(1-αi)Pi
11)综上所述,对于角点附近的网格点Pi,虽然它有一个原始的坐标值,但是由于本发明更关注角点的坐标值,因此需要将网格点的原始坐标值和角点的坐标进行融合,获得网格点Pi新的坐标值。这样做的有益效果是:当网格点Pi对应的肌肉轻微运动时,Pi的坐标值的变化不能精确反映肌肉的运动特征,但是将网格点和角点坐标融合后,网格点就能一定程度反映肌肉的运动。
12)需要注意的是,当网格点Pi有多个角点为其提供多个权重系数时,那么就对这多个权重系数求均值作为最终的权重系数αi,至此便可将检测到所有角点的位置信息融入到3D mesh中。
12.综上所述,本发明可以利用人脸3D mesh获得面部肌肉的位置信息,并将角点位置信息融入3D mesh中,提高3D mesh对肌肉运动信息的描述能力。
13.当需要检测用户的面部神经麻痹疾病时,用户对着相机做一些表情和动作,例如微笑、歪嘴、张嘴等,采集图像序列,采集的图像序列越长越好。对于每帧图像均可按照本发明的设计方法,获得人脸的3D mesh,这种3D mesh融入了人脸的角点位置信息。
14.对于第j个网格点,其在N帧图像上的位置序列为Dj={D1,j,D2,j,Di,j,...,DN,j},Di,j表示第j个网格点在第i帧图像上的位置。接下来分析第j个网格点的运动幅度方法如下:
6)需要说明的是,人脸的3D mesh不是一个闭合的mesh,该mesh存在边缘,边缘上的网格点是不会随着面部的表情变化而运动的。计算边缘的网格点的坐标的均值为
Figure BDA0002799716640000062
令:
Figure BDA0002799716640000063
符号“:=”表示将符号右边的表达式的结果赋值给符号左边的变量,这样计算的目的是使得Di,j变化只反应面部肌肉的运动,与整个人脸的运动无关。
7)首先获得第j个网格点的在当前第i帧的最小运动幅度,方法如下:
a)计算当前第i帧的第j个网格点Di,j与前i-1帧图像中每帧的第j个网格点的欧式距离Li
Li={Li,1,,Li,2,...,Li,m,...,Li,i-1}
b)Li,m表示第i帧的第j个网格点Di,j与第m帧的第j个网格点Dm,j的欧式距离,即
Li,m=||Di,jDm,j||2
c)设前i帧中第j个网格点的最小运动幅度为Lmini,则:
Lmini=min(min(Li),Lmini-1),i>2
min(Li)表示序列Li中最小的元素值,Lmini-1表示前i-1帧中第j个网格点的最小运动幅度。
d)上式是一个递推公式,利用递推公式的好处时可以边采集图像边计算数据,不用将所有图像采集完再进行计算,能够节省计算机的存储空间。其中Lmin2=||D2,jD1,j||2,Lmini表示前i帧中第j个网格点的最小运动范围,通常该值比较小,等于或趋近于0。
8)同理获得当前第i帧第j个关键点的最大运动程度Lmaxi,Lmaxi表示的是在前i帧中网格点最大的运动范围。Lmaxi与Lmini的算法一样。
9)则第j个网格点的运动幅度为Mj:Mj=Lmaxi-Lmini,Mj越大表示第j个网格点的运动范围越大,说明第j个网格点处的肌肉的运动能力越强。
15.设有J个网格点,可以获得当前J个网格点的运动幅度M={M1,M2,...,Mj,...,MJ},Mj表示第j个网格点的运动幅度。由于不同位置的网格点对应不同肌肉的不同位置,本发明的目的是要根据肌肉的运动情况诊断是否有面部神经麻痹疾病。普遍的,有该种疾病的患者和无该种疾病的正常人,其面部的口轮匝肌和咬肌等肌肉的运动幅度都较大,差异不太明显;而有一些面部肌肉在正常人和该疾病患者的脸上表现出的运动差异失很明显的,例如提上唇肌、颊肌等,因此本发明对不同网格点施加以不同的权重w={w1,w2,...,wj,...,wJ},wj表示对第j个网格点施加的权重。
16.权重w可以人为指定,本发明采用如下方法获得这个权重:
1)采集不同的正常的人脸做一些表情动作时的图像序列;
2)对于每个人脸,利用本发明所设计的系统获得所述的J个网格点的运动幅度;
3)对于多个不同的正常人的人脸,可以获得多组运动幅度数据;
4)具体的,设有A个正常人的人脸数据,A为超参数,越大越好,本发明建议A取值为100到200之间。
5)第i个人脸对应的所述的J个网格点的运动幅度为
Figure BDA0002799716640000071
其中
Figure BDA0002799716640000072
表示第i个人脸上第j个网格电的运动幅度;
6)可知,A个人脸对应的第j个网格点的运动幅度为
Figure BDA0002799716640000073
7)对数据列表mj,首先剔除值为0的元素,然后利用均值漂移(Meanshift)算法进行聚类,该算法会输出数据分布密度较大的数据所构成的集合,设这个数据集合为
Figure BDA0002799716640000074
集合
Figure BDA0002799716640000075
中的元素依然表示的是第j个网格点的运动幅度,只是这些元素分布较为集中。
8)引入参量
Figure BDA0002799716640000076
令:
Figure BDA0002799716640000077
Figure BDA0002799716640000078
表示集合
Figure BDA0002799716640000079
中元素的均值;
9)综上所述,对于第j个网格点,不同人脸有不同的运动幅度,
Figure BDA00027997166400000710
表示的就是这些运动幅度经过Meanshift聚类后获得的运动幅度的均值。因此本发明利用表示第j个网格点的平均运动幅度。
10)对于所有的J个网格点,获得一个序列
Figure BDA00027997166400000713
Figure BDA00027997166400000712
表示的就是J个网格点平均运动幅度的均值的序列。
11)正如前述,运动幅度越小的网格点对应的肌肉运动越微小,这些运动幅度微小的肌肉更能反映人脸对肌肉的控制能力,这些运动幅度微小的肌肉对应的网格点应有一个较大的权重,这种权重可以视为对网格点的关注程度,设第j个网格点的权重为wj,令:
Figure BDA0002799716640000081
wj是xj的权重,也可以看做wj是对xj的关注程度,即wj表示的是对第j个网格点的关注程度。
其中
Figure BDA0002799716640000082
Figure BDA0002799716640000088
表示对序列
Figure BDA0002799716640000087
里的元素取最大值,可知xj实质上是对
Figure BDA0002799716640000085
的归一化处理,使得0≤xj≤1,因此xj也是表示第j个网格点的平均运动幅度。
12)其中a、b为超参数,实施者根据所需设置,在本发明中令a=8.7、b=-0.6,此时wj与xj的关系如下,两者遵循负相关关系,xj取值在0和1区间,wj大于0,小于1。
如图2所示,反映的是第j个网格点的平均运动幅度xj与第j个网格点的关注程度wj的映射曲线。该曲线表示当第j个网格点的平均运动幅度xj取值较小时,对应的关注程度wj取值较大,例如xj小于0.3时,wj会是大于0.9的数值;当第j个网格点的平均运动幅度xj取值较大时,对应的关注程度wj取值较小,例如xj大于0.9时,wj会是小于0.1的数值。总体而言xj与wj呈负相关关系,并且wj大于0小于1。
13)至此获得每个网格点的权重。这些权重是事先获得的,只用获得一次,一旦确定权重之后就无需再改动了。
14)总的来说这些权重是统计获得的,具体实施时需要考虑到A个人脸样本如何获取,如何使A个人脸样本具有代表性等问题,这些取样的方法不是本发明的重点,不再一一提出解决方案。
17.利用当获得每个网格点的权重后,通过对所有网格点的运动幅度的加权求和可以获得人脸面部肌肉的运动幅度,这个运动幅度能够反映用户对面部肌肉的控制程度,设利用网格点获得的脸面部肌肉的运动幅度为B1,则:
Figure BDA0002799716640000086
18.需要说明的是,运动幅度大的网格点对应的权值小,因此对每个网格点的运动幅度加权后获得的结果,这些结果的差异是不大的,即当j取不同值时,wjMj差异也不会太大。
19.总的来说本发明通过将角点的位置特征融入人脸3D mesh中可以较为精准的结果,但是这种结果还是受限于人脸3D mesh的精度,而上述获得的角点虽然存在角点数量少、角点分布不均匀、不同人脸角点分布不一致的问题,但是这些角点却能较为精确的反映肌肉的运动。
20.本发明认为当检测到的角点较多,而且所有肌肉都可检测到角点时,此时角点更能描述肌肉的运动。
21.设检测到n个角点,可以将n个角点映射到人脸3D mesh上,获得n个角点在3Dmesh上的三维坐标,根据角点的三维坐标的位置变化可以获得每个角点的运动幅度,运动幅度的计算方法和网格点的运动幅度计算方法一致。
22.设第i个角点的运动幅度为Qi,与第i个角点距离最近的网格点的权重设为wi,则n个角点对应的肌肉运动幅度为B2,令:
Figure BDA0002799716640000091
23.最终的肌肉运动幅度为B:
Figure BDA0002799716640000092
其中
Figure BDA0002799716640000093
24.
Figure BDA0002799716640000094
表示融合B1与B2后的肌肉运动幅度,γ是一个权重系数,n越小该权重系数越大:
Figure BDA0002799716640000095
c为超参数,建议在[1,4]区间取值,本发明c=2。
Figure BDA0002799716640000096
是一个对n不敏感的数据,当检测到的角点数目多,即n较大时,B2的值较大,并且γ较小;当检测到的角点数目变少时,即n较小,B2的值较小,并且γ较大。总的来说,
Figure BDA0002799716640000097
对n的变化不敏感,即n有较大的变化时,
Figure BDA0002799716640000098
也不会有太大变化。因此即便检测人脸时,人脸上的网格点数目发生变化
Figure BDA00027997166400000915
仍能保持稳定,不会因角点变化而使得
Figure BDA00027997166400000910
变化从而造成
Figure BDA00027997166400000911
的剧烈波动。引入γ后
Figure BDA00027997166400000912
的变化只是反映网格点的位置变化,与角点的数目变化无关。
25.B表示的就是融合网格点的运动幅度B1与
Figure BDA00027997166400000913
的结果数据。b为权值,表示的是对
Figure BDA00027997166400000914
的关注程度,b是由角点分布决定的,如果角点分布在不同肌肉的不同位置那么认为角点的运动更能体现肌肉的运动,本发明的b的值设为:角点位置距3D mesh原点的距离的方差与J个网格点的位置到原点的距离的方差之比。如果b=1,说明角点的分布就接近肌肉网格点的分布。其中d是一个超参数,本发明d=0.8。
26.至此获得了B,B表示的就是人脸上面肌肉的运动幅度。这种运动幅度表示人对面部的控制程度。对于正常的人脸,面部的肌肉额运动幅度较大,对于有面部神经麻痹疾病的人,其面部肌肉运动幅度较小,可根据人脸上面肌肉的运动幅度B的大小判断是否有面部神经麻痹疾病,并且根据B的大小提出疾病的治疗方案。由于后续都是简单的逻辑与判断本发明不再对数据B进行下一步的计算与分析。
27.至此本发明完成。

Claims (7)

1.一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:含有以下步骤:
步骤1、通过人脸检测算法获得相机视野中人脸的位置,采集图像数据,输出人脸图像;
步骤2、根据人脸图像重建3D模型;
步骤3、获取人脸3D模型上相关肌肉对应的网格点的坐标;
步骤4、对人脸图像进行角点检测,获得肌肉上的角点特征,并根据角点修正面部肌肉的运动特征;
步骤5、为人脸3D mensh的网格点分配权重;
步骤6、根据面部肌肉运动特征和角点位置的变化特征获得面部肌肉的运动幅度。
2.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤1中利用手机的前置相机采集用户的图像数据。
3.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤2中通过PRNet、VRNet或2DASL深度神经网络获得面部的3D模型,通过2DASL深度神经获得3DMM模型的参数,输出的参数作用在该3DMM模型上,使其变形为和图像中人脸一样的形状和纹理。
4.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤3中从人脸3D mensh上选取分布在双目下方、鼻子两侧、两嘴角周围和颧骨周围的所有网格点,其分布在口轮匝肌、咬肌、提上唇肌和颊肌上,通过肌肉上的网格点的位置变化来计算肌肉的运动特征。
5.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤4含有以下分步骤:
步骤4.1、将角点和3D mensh的网格点相结合实现优势互补,将角点的位置融入3Dmensh;
1)人脸3D mensh是和人脸图像上的人脸对齐后,获取角点的位置,将该位置反向投影回3D mensh上,获得角点在3D mensh上对应的三维坐标P;
2)获取坐标P周围最近的四个网格点的位置为,构建一个序列ΔP={||PPi||2}i=1,2,3,4={||PP1||2,||PP2||2,||PP3||2,||PP4||2},||PPi||2表示坐标P和坐标Pi的欧式距离,i=1,2,3,4,序列ΔP反映坐标P与周围最近的四个网格点的欧式距离;
3)构建四个权重系数α1,α2,α3,α4,分别表示四个网格点对坐标位置P的关注程度,令:
Figure FDA0002799716630000011
Figure FDA0002799716630000012
i=1,2,3,4;sum(ΔP)表示对序列ΔP的元素求和,网格点Pi与坐标位置P的距离越近,αi就越大,说明Pi对P的关注程度越高,并且满足α1234=3;
4)对于网格点Pi,使用下式对其进行更新:Pi:=αiP+(1-αi)Pi
步骤4.2、对于第j个网格点,其在N帧图像上的位置序列为Dj={D1,j,D2,j,Di,j,...,DN,j},Di,j表示第j个网格点在第i帧图像上的位置,第j个网格点的运动幅度方法如下:
1)计算边缘的网格点的坐标的均值为
Figure FDA0002799716630000013
令:
Figure FDA0002799716630000014
符号“:=”表示将符号右边的表达式的结果赋值给符号左边的变量;
2)首先获得第j个网格点的在当前第i帧的最小运动幅度,方法如下:计算当前第i帧的第j个网格点Di,j与前i-1帧图像中每帧的第j个网格点的欧式距离Li,Li={Li,1,Li,2,...,Li,m,...,Li,i-1},Li,m表示第i帧的第j个网格点Di,j与第m帧的第j个网格点Dm,j的欧式距离,即Li,m=||Di,jDm,j||2,设前i帧中第j个网格点的最小运动幅度为Lmini,则:Lmini=min(min(Li),Lmini-1),i>2,min(Li)表示序列Li中最小的元素值,Lmini-1表示前i-1帧中第j个网格点的最小运动幅度,其中Lmin2=||D2,jD1,j||2,Lmini表示前i帧中第j个网格点的最小运动范围,通常该值比较小,等于或趋近于0;
3)同理获得当前第i帧第j个关键点的最大运动程度Lmaxi,表示在前i帧中网格点最大的运动范围,Lmaxi与Lmini的算法一样;
4)则第j个网格点的运动幅度为Mj
5)Mj越大表示第j个网格点的运动范围越大,说明第j个网格点处的肌肉的运动能力越强。
6.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤5含有以下分步骤:设有J个网格点,获得当前J个网格点的运动幅度M={M1,M2,...,Mj,...,MJ},Mj表示第j个网格点的运动幅度;对不同网格点施加以不同的权重w={w1,w2,...,wj,...,wJ},wj表示对第j个网格点施加的权重;设有A个正常人的人脸数据,A为超参数,越大越好,A取值为100到200之间;第i个人脸对应的J个网格点的运动幅度为
Figure FDA0002799716630000021
其中
Figure FDA0002799716630000022
表示第i个人脸上第j个网格点的运动幅度,A个人脸对应的第j个网格点的运动幅度为
Figure FDA0002799716630000023
Figure FDA0002799716630000024
对数据列表mj,首先剔除值为0的元素,然后利用均值漂移Meanshift算法进行聚类,该算法会输出数据分布密度较大的数据所构成的集合,设这个数据集合为
Figure FDA0002799716630000025
集合
Figure FDA0002799716630000026
中的元素依然表示的是第j个网格点的运动幅度;引入参量
Figure FDA0002799716630000027
令:
Figure FDA0002799716630000028
Figure FDA0002799716630000029
表示集合
Figure FDA00027997166300000218
中元素的均值,对于第j个网格点,不同人脸有不同的运动幅度,
Figure FDA00027997166300000211
表示这些运动幅度经过Meanshift聚类后获得的运动幅度的均值,对于所有的J个网格点,获得一个序列
Figure FDA00027997166300000212
运动幅度越小的网格点对应的肌肉运动越微小,其对应的网格点的权重越大,设第j个网格点的权重为wj,令:
Figure FDA00027997166300000213
其中,
Figure FDA00027997166300000214
Figure FDA00027997166300000215
表示对序列
Figure FDA00027997166300000216
里的元素取最大值,其中a、b为超参数,实施者根据所需设置,令a=8.7、b=-0.6,此时wj与xj遵循负相关关系,xj取值在0和1区间,wj大于0,小于1。
7.根据权利要求1所述的基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法,其特征在于:所述步骤6含有以下分步骤:利用当获得每个网格点的权重后,通过对所有网格点的运动幅度的加权求和获得人脸面部肌肉的运动幅度,设利用网格点获得的脸面部肌肉的运动幅度为B1,则:
Figure FDA00027997166300000217
设检测到n个角点,将n个角点映射到人脸3D mensh上,获得n个角点在3D mensh上的三维坐标,根据角点的三维坐标的位置变化获得每个角点的运动幅度,运动幅度的计算方法和网格点的运动幅度计算方法一致,设第i个角点的运动幅度为Qi,与第i个角点距离最近的网格点的权重设为wi,则n个角点对应的肌肉运动幅度为B2,令:
Figure FDA0002799716630000031
最终的肌肉运动幅度为B,
Figure FDA0002799716630000032
其中
Figure FDA0002799716630000033
Figure FDA0002799716630000034
Figure FDA0002799716630000035
表示融合B1与B2后的肌肉运动幅度,γ是一个权重系数,n越小该权重系数越大:
Figure FDA0002799716630000036
Figure FDA0002799716630000037
c为超参数,在[1,4]区间取值,此处c=2;
Figure FDA0002799716630000038
是一个对n不敏感的数据,当检测到的角点数目多,即n较大时,B2的值较大,并且γ较小;当检测到的角点数目变少时,即n较小,B2的值较小,并且γ较大;B表示融合网格点的运动幅度B1与
Figure FDA0002799716630000039
的结果数据,b为权值,表示对
Figure FDA00027997166300000310
的关注程度,b是由角点分布决定,b为角点位置距3D mensh原点的距离的方差与J个网格点的位置到原点的距离的方差之比,若b=1,角点的分布接近肌肉网格点的分布,其中d是一个超参数,d=0.8。
CN202011345221.4A 2020-11-25 2020-11-25 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法 Withdrawn CN112465773A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011345221.4A CN112465773A (zh) 2020-11-25 2020-11-25 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011345221.4A CN112465773A (zh) 2020-11-25 2020-11-25 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法

Publications (1)

Publication Number Publication Date
CN112465773A true CN112465773A (zh) 2021-03-09

Family

ID=74808475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011345221.4A Withdrawn CN112465773A (zh) 2020-11-25 2020-11-25 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法

Country Status (1)

Country Link
CN (1) CN112465773A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583182A (zh) * 2020-04-10 2020-08-25 中日友好医院(中日友好临床医学研究所) 面神经麻痹的语言功能区功能连接的fMRI数据处理方法
CN113240660A (zh) * 2021-05-31 2021-08-10 广州踢桃科技有限公司 基于医疗大数据的面部肌肉痉挛评估系统
CN117352161A (zh) * 2023-10-11 2024-01-05 凝动万生医疗科技(武汉)有限公司 一种面部运动功能障碍量化评估方法及系统
CN117352161B (zh) * 2023-10-11 2024-07-05 凝动万生医疗科技(武汉)有限公司 一种面部运动功能障碍量化评估方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583182A (zh) * 2020-04-10 2020-08-25 中日友好医院(中日友好临床医学研究所) 面神经麻痹的语言功能区功能连接的fMRI数据处理方法
CN111583182B (zh) * 2020-04-10 2023-05-12 中日友好医院(中日友好临床医学研究所) 面神经麻痹的语言功能区功能连接的fMRI数据处理方法
CN113240660A (zh) * 2021-05-31 2021-08-10 广州踢桃科技有限公司 基于医疗大数据的面部肌肉痉挛评估系统
CN113240660B (zh) * 2021-05-31 2022-11-08 广州踢桃科技有限公司 基于医疗大数据的面部肌肉痉挛评估系统
CN117352161A (zh) * 2023-10-11 2024-01-05 凝动万生医疗科技(武汉)有限公司 一种面部运动功能障碍量化评估方法及系统
CN117352161B (zh) * 2023-10-11 2024-07-05 凝动万生医疗科技(武汉)有限公司 一种面部运动功能障碍量化评估方法及系统

Similar Documents

Publication Publication Date Title
Liu et al. Attribute-aware face aging with wavelet-based generative adversarial networks
CN112766160B (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN110348330B (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
CN104851123B (zh) 一种三维人脸变化模拟方法
CN109767440A (zh) 一种面向深度学习模型训练和学习的影像图像数据扩充方法
CN111598998A (zh) 三维虚拟模型重建方法、装置、计算机设备和存储介质
CN110728729B (zh) 一种基于注意机制的无监督ct投影域数据恢复方法
CN110310285B (zh) 一种精确的基于三维人体重建的烧伤面积计算方法
CN113781640A (zh) 基于弱监督学习的三维人脸重建模型建立方法及其应用
CN112200306A (zh) 一种基于深度学习的电阻抗成像方法
CN112465773A (zh) 一种基于人脸面部肌肉运动特征的面部神经麻痹疾病检测方法
CN111709446B (zh) 基于改进的密集连接网络的x线胸片分类装置
WO2023202265A1 (zh) 用于伪影去除的图像处理方法、装置、设备、产品和介质
CN108416253A (zh) 基于人脸图像的体重监测方法、系统及移动终端
CN113782184A (zh) 一种基于面部关键点与特征预学习的脑卒中辅助评估系统
CN111524109A (zh) 头部医学影像的评分方法和装置、电子设备及存储介质
CN113362924A (zh) 一种基于医疗大数据的面瘫康复任务辅助生成方法及系统
CN116645283A (zh) 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法
CN111553250B (zh) 一种基于人脸特征点的精准面瘫程度评测方法及装置
CN113850796A (zh) 基于ct数据的肺部疾病识别方法及装置、介质和电子设备
CN112562850A (zh) 基于人工智能的面部神经麻痹康复检测系统
CN113421250A (zh) 一种基于无病变影像训练的眼底疾病智能诊断方法
CN115346091B (zh) 一种Mura缺陷图像数据集的生成方法和生成装置
CN114041758B (zh) 桡动脉触诊定位方法、装置、电子设备和存储介质
CN111553249B (zh) 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210309