CN111553249A - 一种cv下基于h-b分级的精准面瘫程度评测方法及装置 - Google Patents

一种cv下基于h-b分级的精准面瘫程度评测方法及装置 Download PDF

Info

Publication number
CN111553249A
CN111553249A CN202010335998.6A CN202010335998A CN111553249A CN 111553249 A CN111553249 A CN 111553249A CN 202010335998 A CN202010335998 A CN 202010335998A CN 111553249 A CN111553249 A CN 111553249A
Authority
CN
China
Prior art keywords
facial paralysis
theta
points
key
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010335998.6A
Other languages
English (en)
Other versions
CN111553249B (zh
Inventor
冯少华
李伟中
李健
金波
邓利平
冼上轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen DJ Innovation Industry Co Ltd
Original Assignee
Shenzhen DJ Innovation Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen DJ Innovation Industry Co Ltd filed Critical Shenzhen DJ Innovation Industry Co Ltd
Priority to CN202010335998.6A priority Critical patent/CN111553249B/zh
Publication of CN111553249A publication Critical patent/CN111553249A/zh
Application granted granted Critical
Publication of CN111553249B publication Critical patent/CN111553249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种CV下基于H‑B分级的精准面瘫程度评测方法及装置。该方法包括:建立面瘫关键点检测模型;获取待检测数据并对待检测数据进行处理:将无表情自然状态静态图像、序列图像一、序列图像二、序列图像三以及序列图像四依次输入至面瘫关键点检测模型中以输出相应的多组人脸形状,更新多组人脸形状;对待检测用户的面瘫程度进行评测:计算θ1、θ2、θ3、θ4、θ5、θ6、θ7、θ8、θ9、θ10、θ11并分别与其阈值比较;通过比较结果对待检测用户的面瘫程度进行判定,并计算面瘫指数。本发明可以使检测模型具有较高的检测定位精度,大大提升待检测用户面瘫程度综合评价及检测的精度及准度,为面瘫患者的预防发现及治疗提供有力支撑。

Description

一种CV下基于H-B分级的精准面瘫程度评测方法及装置
技术领域
本发明涉及面瘫识别技术领域的一种精准面瘫程度评测方法,尤其涉及一种CV下基于H-B分级的精准面瘫程度评测方法,还涉及应用该方法的CV下基于H-B分级的精准面瘫程度评测装置。
背景技术
面瘫,一种面部肌肉运动功能受阻的常见病,患者往往难以正常完成如闭眼、抬眉、鼓腮、皱鼻或张嘴等基本面部动作,而且在我国是发病率较高的地区。面瘫一般称为面神经麻痹,一般症状是口眼歪斜,患者往往连最基本的抬眉、闭眼、鼓嘴等动作都无法完成。
目前,面瘫诊断相关的面神经功能评价方法有将近20多种,如H-B分级法、线性测量指数、诺丁汉分级系统及多伦多分级法等,但这些系统在评价面瘫程度的评价标准普遍都存在一定的缺陷,如评价结果很大程度上由于人工操作的过程中所带有的专家主观性评判,不仅效率较低而且存在较大的误差,由此大大影响了对面瘫患者的面瘫程度的评估结果,同时对面瘫患者的治疗过程及恢复情况没有信息化的统计记录而难于准确评价治疗效果,从而对面瘫患者的后续治疗带来了较大的阻力。因此,需要一种利用现有计算视觉等技术而实现面瘫程度评测方法,该方法能够应用于面瘫检测设备中,作为医疗设备的检测方法对面瘫患者的面瘫程度进行检测,并且能够大规模、广泛地进行产业化应用,例如可以作为独立的程序应用在手机端、客户端中,可供面瘫患者在非治疗时期进行纠正和检查,同时也可以供非面瘫患者做预防方法使用。
发明内容
为解决现有的面瘫程度评测方法存在误差大,评测效率低的技术问题,本发明提供一种CV下基于H-B分级的精准面瘫程度评测方法及装置。
本发明采用以下技术方案实现:一种CV下基于H-B分级的精准面瘫程度评测方法,其包括以下步骤:
(1)确定左眉毛的面瘫关键点s1、s24、s25,右眉毛的面瘫关键点s2、s26、s27,鼻子的面瘫关键点s3、s4、s5、s6、s7,嘴唇的面瘫关键点s8、s9、s10、s11、s12、s13,左眼的面瘫关键点s14、s15、s16、s17、s18,右眼的面瘫关键点s19、s20、s21、s22、s23;定义(xsm,ysm)为面瘫关键点sm的坐标,m={1,2,...,27},以所有面瘫关键点为元素形成的集合表示人脸形状;
(2)获取待检测用户整个人脸在无表情自然状态、做皱眉动作全过程、做闭眼动作全过程以及做吹哨动作全过程中产生的多组人脸形状;
对多组人脸形状依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5
对多组人脸形状依次分别基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1
设置向量
Figure BDA0002466632200000021
向量
Figure BDA0002466632200000022
向量
Figure BDA0002466632200000023
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2
基于面瘫关键点s9、s10、s12,计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),k4=(xs9 2+ys9 2)(xs12ys10-xs10ys12)+(xs10 2+ys10 2)(xs9ys12-xs12ys9)+(xs12 2+ys12 2)(xs10ys9-xs9ys10),R=(k2 2+k3 2-4k1k4)/4k1 2
基于面瘫关键点s1、s24、s25进行曲线拟合获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d;
将点p0、点p1、向量
Figure BDA0002466632200000031
向量
Figure BDA0002466632200000032
向量
Figure BDA0002466632200000033
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状;
(3)对于更新后的无表情自然状态人脸形状S0,计算:
Figure BDA0002466632200000034
Figure BDA0002466632200000035
式中,
Figure BDA0002466632200000036
分别为人脸形状S0的向量
Figure BDA0002466632200000037
在横纵坐标轴上的投影值,
Figure BDA0002466632200000038
分别为人脸形状S0的向量
Figure BDA0002466632200000039
在横纵坐标轴上的投影值,
Figure BDA00024666322000000310
对应人脸形状S0的面积n1、n2
对于更新后的皱眉动作人脸形状Sa1,Sa2,……,San,先依次分别统计由相应的曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure BDA00024666322000000311
并依次分别统计由相应的曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure BDA00024666322000000312
再计算:
Figure BDA00024666322000000313
Figure BDA00024666322000000314
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|;
对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure BDA00024666322000000315
Figure BDA00024666322000000316
再计算
Figure BDA00024666322000000317
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|;
对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure BDA00024666322000000318
Figure BDA0002466632200000041
Figure BDA0002466632200000042
并依次分别计算面积
Figure BDA0002466632200000043
Figure BDA0002466632200000044
再计算
Figure BDA0002466632200000045
Figure BDA0002466632200000046
Figure BDA0002466632200000047
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|;
对于更新后的吹哨动作人脸形状Sd1,Sd2,……,Sdn,先计算max(Rd1,Rd2,...,Rdn),
Figure BDA0002466632200000048
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|;
将θ1、θ2、θ3、θ4、θ5、θ6、θ7、θ8、θ9、θ10、θ11分别与其阈值比较;
通过比较结果对待检测用户的面瘫程度进行判定,并计算面瘫指数。
本发明先通过确定面瘫关键点,再获取人脸形状并进行更新,最后根据更新后人脸形状对其面瘫程度进行评测,这样获取待检测用户脸部的静态图像及动态视频,可以分别在静态图像及动态视频中提取待检测用户脸部的静态图像及动态视频的所有关键点,根据待检测用户在不同表情下面部对应关键区域面积关系综合评价检测用户面瘫程度,可以使检测模型具有较高的检测定位精度,结合优选的基于关键点相似性测度距离,大大提升待检测用户面瘫程度综合评价及检测的精度及准度,解决了现有的面瘫程度评测方法存在误差大,评测效率低的技术问题,得到了面瘫程度探测准确性高,评测效率高,可大规模、产业化应用在面瘫识别和程度评测设备中的技术效果。
作为上述方案的进一步改进,步骤(1)还包括:建立面瘫关键点检测模型;在所述面瘫关键点检测模型中,一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23,面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27
进一步地,步骤(2)还包括:获取待检测用户整个人脸的待检测数据;其中,所述待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及所述待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四。
再进一步地,步骤(2)还包括:将所述无表情自然状态静态图像、所述序列图像一、所述序列图像二、所述序列图像三以及所述序列图像四依次输入至所述面瘫关键点检测模型中以输出相应的多组人脸形状。
再进一步地,更新后人脸形状依次为:
Figure BDA0002466632200000051
Figure BDA0002466632200000052
Figure BDA0002466632200000053
Figure BDA0002466632200000054
Figure BDA0002466632200000061
Figure BDA0002466632200000062
Figure BDA0002466632200000063
Figure BDA0002466632200000064
Figure BDA0002466632200000065
Figure BDA0002466632200000066
Figure BDA0002466632200000067
Figure BDA0002466632200000068
Figure BDA0002466632200000069
再进一步地,步骤(3)还包括:设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11;其中,阈值θ’1、θ’2、θ’4、θ’6、θ’8、θ’10、θ’11分别根据外部实现情况预设。
再进一步地,步骤(3)还包括:若θ1>θ’1或θ2<θ’2,则判定所述待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119);
若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,则判定所述待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11
若θ10≠0,则判定所述待检测用户存在面瘫症状且属于半脸面瘫。
再进一步地,步骤(3)还包括:若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,则判定所述待检测用户不存在面瘫症状。
再进一步地,所述面瘫关键点检测模型的建立方法包括以下步骤:
(1.1)创建深度全卷积网络模型;
(1.2)通过多个已标定训练样本以获取模型训练集;
(1.3)在所述模型训练集中选取一组已标定训练样本输入至所述深度全卷积网络模型中进行训练;以及
(1.4)判断步骤(1.3)的执行次数是否达到一个预设的最大训练次数;
在所述执行次数未达到所述最大训练次数时,获取所述深度全卷积网络模型一个周期的损失值,并判断所述损失值是否大于模型目标损失阈值;
在所述损失值大于所述模型目标损失阈值时,执行步骤(1.3);
在所述损失值小于所述模型目标损失阈值或所述执行次数达到所述最大训练次数时,将所述深度全卷积网络模型作为面瘫关键点检测模型;
或,
在所述深度全卷积网络模型中,下采样及上采样层数均为N0,N0为正整数;相邻的下采样及上采样间,或下采样与下采样间,或上采样与上采样间均堆叠多层卷积层;输入层通道数为3或1;
或,
在所述深度全卷积网络模型中,输入层没有激活函数,输出层的激活函数为sigmoid函数,紧邻输出层的卷积层的激活函数为tanh函数,其他所有卷积层的激活函数均为Rule函数;
或,
利用高斯分布随机数初始化所述深度全卷积网络模型的所有权值和阈值,学习率初始化为le,模型目标Loss阈值设置为m,模型最大训练次数设置为T,并通过贝叶斯正则化或动量梯度下降进行优化,损失函数为Binary Cross Entropy、Focal Loss、MSE中的一种;
或,
所述已标定训练样本的获取方法包括以下步骤:先通过至少一个摄影设备获取包含人脸的图像Im作为所述模型训练集中一个训练样本的数据,再标定图像Im中所有人脸的关键点的坐标值并作为训练样本的标签,并重复进行以获得多个已标定训练样本;
或,
按照一个预设前向传播公式计算所述深度全卷积网络模型的输出,按照一个预设误差公式计算出该所述已标定训练样本输入到所述深度全卷积网络模型后的模型输出和所述已标定训练样本标签间的误差,并通过反向传播更新所述深度全卷积网络模型所有权值和阈值;
或,
定义面瘫关键点s14、s15、s16、s17、s18位于所述面瘫关键点检测模型中整个人脸的右脸,面瘫关键点s19、s20、s21、s22、s23位于所述面瘫关键点检测模型中整个人脸的左脸;则在步骤(3.7)中,
若θ10>0,则判定所述待检测用户的面瘫部位为右脸;
若θ10<0,则判定所述待检测用户的面瘫部位为右脸;
或,
所述深度全卷积网络模型的下采样及上采样层数均为3各相邻上采样或下采样间分别间隔由多层卷积层堆叠的卷积层模块,输入层通道数为3,输出层通道数为27,学习率初始化为0.001,模型目标Loss阈值为0.1,模型最大训练次数设置为20000。
本发明还提供一种CV下基于H-B分级的精准面瘫程度评测装置,其应用上述任意所述的CV下基于H-B分级的精准面瘫程度评测方法,其包括:
检测模型建立模块,其用于建立面瘫关键点检测模型;在所述面瘫关键点检测模型中,定义一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23,面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27,以所有面瘫关键点为元素形成的集合表示人脸形状;
数据获取模块,其用于获取待检测数据;其中,所述待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及所述待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四;
数据处理模块,其用于对所述待检测数据进行处理;所述数据处理模块包括输入单元和更新单元;所述输入单元用于将所述无表情自然状态静态图像、所述序列图像一、所述序列图像二、所述序列图像三以及所述序列图像四依次输入至所述面瘫关键点检测模型中以输出相应的多组人脸形状;所述更新单元用于对多组人脸形状依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5;所述更新单元还用于基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1;所述更新单元还用于设置向量
Figure BDA0002466632200000101
向量
Figure BDA0002466632200000102
向量
Figure BDA0002466632200000103
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2;所述更新单元还用于基于面瘫关键点s9、s10、s12先计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12)+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),k4=(xs9 2+ys9 2)(xs12ys10-xs10ys12)+(xs10 2+ys10 2)(xs9ys12-xs12ys9)+(xs12 2+ys12 2)(xs10ys9-xs9ys10),再计算:R=(k2 2+k3 2-4k1k4)/4k1 2;所述更新单元还用于基于面瘫关键点s1、s24、s25进行曲线拟合获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d;所述更新单元还用于将点p0、点p1、向量
Figure BDA0002466632200000104
向量
Figure BDA0002466632200000105
向量
Figure BDA0002466632200000106
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状;
面瘫程度综合评测模块,其用于对待检测用户的面瘫程度进行评测;所述面瘫程度综合评测模块包括计算单元一、计算单元二、计算单元三、计算单元四、计算单元五、设置比较单元以及判定单元;所述计算单元一用于对于更新后的无表情自然状态人脸形状S0,计算:
Figure BDA0002466632200000107
Figure BDA0002466632200000108
所述计算单元二用于对于更新后的皱眉动作人脸形状Sa1,Sa2,……,San,先依次分别统计由曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure BDA0002466632200000111
并依次分别统计由曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure BDA0002466632200000112
再计算:
Figure BDA0002466632200000113
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|;所述计算单元三用于对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure BDA0002466632200000114
Figure BDA0002466632200000115
再计算
Figure BDA0002466632200000116
Figure BDA0002466632200000117
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|;所述计算单元四用于对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure BDA0002466632200000118
Figure BDA0002466632200000119
并依次分别计算面积
Figure BDA00024666322000001110
Figure BDA00024666322000001111
再计算
Figure BDA00024666322000001112
Figure BDA00024666322000001113
Figure BDA00024666322000001114
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|;所述计算单元五用于对于更新后的吹哨动作人脸形状Sd1,Sd2,……,Sdn,先计算max(Rd1,Rd2,...,Rdn),
Figure BDA00024666322000001115
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|;所述设置比较模块用于设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11;所述判定单元用于根据所述设置比较模块的比较结果进行判定;若θ1>θ’1或θ2<θ’2,所述判定单元则判定所述待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119);若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,所述判定单元则判定所述待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11;若θ10≠0,所述判定单元则判定所述待检测用户存在面瘫症状且属于半脸面瘫;若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,所述判定单元则判定所述待检测用户不存在面瘫症状。
相较于现有的面瘫程度评测方法,本发明的CV下基于H-B分级的精准面瘫程度评测方法及装置具有以下有益效果:
该CV下基于H-B分级的精准面瘫程度评测方法,其先建立面瘫关键点检测模型,并在模型中选取面部中的眉毛、眼睛、鼻子、嘴唇等的面瘫关键点,再获取待检测用户的待检测数据并对所述待检测数据进行处理,采集用户在无表情、皱眉、闭眼、微笑以及吹哨过程中的图像,并将图像输入至面瘫关键点检测模型中输出多组人脸形状,随后分别对各组人脸形状进行线性回归等操作,获得一系列面瘫关联元素并对人脸形状进行更新,最后计算更新后的各组人脸形状的各种特征值,并针对特征值之间的关系对待检测用户的面瘫程度进行评测,实现对用户面瘫程度的精确评测。这样获取待检测用户脸部的静态图像及动态视频,利用面瘫关键点检测模型分别在静态图像及动态视频中提取待检测用户脸部的静态图像及动态视频的所有关键点,根据待检测用户在不同表情下面部对应关键区域面积关系综合评价检测用户面瘫程度,可以使检测模型具有较高的检测定位精度,结合优选的不同表情下面部对应关键区域面积关系,大大提升待检测用户面瘫程度综合评价及检测的精度及准度,为面瘫患者的预防发现及治疗提供有力支撑。
而且,该CV下基于H-B分级的精准面瘫程度评测方法由于可以采用计算机视觉技术检测用户的面部图像,并通过计算机执行其他步骤,这样在应用时可以直接使用在现有的手机、计算机等设备中,也可以使用在专门评估用户的面瘫程度的医疗设备中,还可以作为独立模块进行产品化应用,可以大规模、产业化应用在面瘫识别和程度评测设备中,提高现有的医疗设备的评测效率和准确性。
该CV下基于H-B分级的精准面瘫程度评测装置,其有益效果与上述的CV下基于H-B分级的精准面瘫程度评测方法的有益效果相同,在此不再做赘述。
附图说明
图1为本发明实施例1的CV下基于H-B分级的精准面瘫程度评测方法的流程图。
图2为本发明实施例1的CV下基于H-B分级的精准面瘫程度评测方法所建立的面瘫关键点检测模型中面瘫关键点在人脸中具体位置分布图。
图3为本发明实施例2的CV下基于H-B分级的精准面瘫程度评测方法所建立的深度全卷积网络模型的结构示例图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
请参阅图1,本实施例提供了一种CV下基于H-B分级的精准面瘫程度评测方法,该方法能够应用于面瘫检测设备中,作为医疗设备的检测方法对面瘫患者的面瘫程度进行检测,并且能够大规模、广泛地进行产业化应用,例如可以作为独立的程序应用在手机端、客户端中,可供面瘫患者在非治疗时期进行纠正和检查,同时也可以供非面瘫患者做预防方法使用。其中,该精准面瘫程度评测方法包括以下这些步骤,即步骤(1)-(3)。
步骤(1):建立面瘫关键点检测模型。在本实施例中,面瘫关键点检测模型的建立方法包括以下这些步骤,即步骤(1.1)-(1.4)。
(1.1)创建深度全卷积网络模型。在深度全卷积网络模型中,下采样及上采样层数均为N0,N0为正整数。相邻的下采样及上采样间,或下采样与下采样间,或上采样与上采样间均堆叠多层卷积层(层数大于等于1),输入层通道数为3或1,输出层通道数与面瘫关键点检测模型所需检测的关键点个数相同,输出层中每一个通道一一对应且仅表示面瘫关键点检测中一个具体的关键点。而且,在深度全卷积网络模型中,输出层采用one-hot编码,输入层没有激活函数,输出层的激活函数为sigmoid函数,紧邻输出层的卷积层的激活函数为tanh函数,其他所有卷积层的激活函数均为Rule函数。并且,利用高斯分布随机数初始化深度全卷积网络模型的所有权值和阈值,学习率初始化为le,模型目标Loss阈值设置为m,模型最大训练次数设置为T,并通过贝叶斯正则化或动量梯度下降进行优化,损失函数为BinaryCrossEntropy、FocalLoss、MSE中的一种。
(1.2)通过多个已标定训练样本以获取模型训练集。在本实施例中,已标定训练样本的获取方法包括以下步骤:先通过至少一个摄影设备获取包含人脸的图像Im作为模型训练集中一个训练样本的数据,再标定图像Im中所有人脸的关键点的坐标值并作为训练样本的标签,并重复进行以获得多个已标定训练样本,即重复该步骤N1次以获取N1个已标定训练样本组成训练集P,其中N1可以根据用户实际应用需要而自定义。
(1.3)在模型训练集中选取一组已标定训练样本输入至深度全卷积网络模型中进行训练。在本实施例中,按照一个预设前向传播公式计算深度全卷积网络模型的输出,按照一个预设误差公式计算出该已标定训练样本输入到深度全卷积网络模型后的模型输出和已标定训练样本标签间的误差,并通过反向传播更新深度全卷积网络模型所有权值和阈值。
(1.4)判断步骤(1.3)的执行次数是否达到一个预设的最大训练次数;在执行次数未达到最大训练次数时,获取深度全卷积网络模型一个周期的损失值,并判断损失值是否大于模型目标损失阈值;在损失值大于模型目标损失阈值时,执行步骤(1.3);在损失值小于模型目标损失阈值或执行次数达到最大训练次数时,将深度全卷积网络模型作为面瘫关键点检测模型。在本步骤中,实际上为不断重复步骤(1.3),每执行一次步骤(1.3)后获取模型一个epoch的Loss值M,若M小于模型目标Loss阈值m,或重复执行步骤(1.3)的次数达到模型最大训练次数T,则不再执行步骤(1.3),深度全卷积网络模型训练完成,选取该已训练完成的深度全卷积网络模型作为面瘫关键点检测模型。
请参阅图2,在面瘫关键点检测模型中,定义一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23。面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27。在本实施例中,定义面瘫关键点s14、s15、s16、s17、s18位于面瘫关键点检测模型中整个人脸的右脸,面瘫关键点s19、s20、s21、s22、s23位于面瘫关键点检测模型中整个人脸的左脸。这里需要指出的是,以所有面瘫关键点为元素形成的集合表示人脸形状。这里的左右关系是相对于待检测用户而言,而非他人所看到的待检测用户的面部情况。
步骤(2):获取待检测数据并对待检测数据进行处理。其中,待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四。在本实施例中,通过摄影设备,获取:包含待检测用户整个人脸的1张无表情自然状态静态图像Img0;包含待检测用户整个人脸的1组(包含n张)待检测用户在做皱眉动作全过程的序列图像Imga1,Imga2,……,Imgan;包含待检测用户整个人脸的1组(包含n张)待检测用户在做闭眼动作全过程的序列图像Imgb1,Imgb2,……,Imgbn;包含待检测用户整个人脸的1组(包含n张)待检测用户在做微笑动作全过程的序列图像Imgc1,Imgc2,……,Imgcn;包含待检测用户整个人脸的1组(包含n张)待检测用户在做吹哨动作全过程的序列图像Imgd1,Imgd2,……,Imgdn,其中n可以根据用户实际应用需要而自定义。而待检测数据的处理方法包括以下这些步骤,即步骤(2.1)和步骤(2.2),步骤(2.2)还可以拆分为多个子步骤单独执行。
(2.1)将无表情自然状态静态图像、序列图像一、序列图像二、序列图像三以及序列图像四依次输入至面瘫关键点检测模型中以输出相应的多组人脸形状。即:将图像Img0,Imga1,Imga2……Imgan,Imgb1,Imgb2……Imgbn,Imgc1,Imgc2……Imgcn,Imgd1,Imgd2……Imgdn依次输入至面瘫关键点检测模型获得对应输出人脸形状S0,Sa1,Sa2,……,San,Sb1,Sb2,……,Sbn,Sc1,Sc2,,……,Scn,Sd1,Sd2,……,Sdn
其中:
Figure BDA0002466632200000161
Figure BDA0002466632200000162
Figure BDA0002466632200000163
Figure BDA0002466632200000164
Figure BDA0002466632200000165
Figure BDA0002466632200000166
Figure BDA0002466632200000167
Figure BDA0002466632200000168
Figure BDA0002466632200000169
Figure BDA00024666322000001610
Figure BDA00024666322000001611
Figure BDA0002466632200000171
Figure BDA0002466632200000172
(2.2)首先,对多组人脸形状(S0,Sa1,Sa2,……,San,Sb1,Sb2,……,Sbn,Sc1,Sc2,……,Scn,Sd1,Sd2,……,Sdn)依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5。其次,基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1。然后,设置向量
Figure BDA0002466632200000173
向量
Figure BDA0002466632200000174
向量
Figure BDA0002466632200000175
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2。再然后,基于面瘫关键点s9、s10、s12先计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12)+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),k4=(xs9 2+ys9 2)(xs12ys10-xs10ys12)+(xs10 2+ys10 2)(xs9ys12-xs12ys9)+(xs12 2+ys12 2)(xs10ys9-xs9ys10),再计算:R=(k2 2+k3 2-4k1k4)/4k1 2。再然后,基于面瘫关键点s1、s24、s25进行曲线拟合(如通过SmoothingSpline算法进行拟合)获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d。最后,将点p0、点p1、向量
Figure BDA0002466632200000176
向量
Figure BDA0002466632200000177
向量
Figure BDA0002466632200000178
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状。其中,更新后的人脸形状依次为:
Figure BDA0002466632200000181
Figure BDA0002466632200000182
Figure BDA0002466632200000183
Figure BDA0002466632200000184
Figure BDA0002466632200000185
Figure BDA0002466632200000186
Figure BDA0002466632200000187
Figure BDA0002466632200000188
Figure BDA0002466632200000189
Figure BDA00024666322000001810
Figure BDA00024666322000001811
Figure BDA0002466632200000191
Figure BDA0002466632200000192
Figure BDA0002466632200000193
步骤(3):待检测用户的面瘫程度进行评测。其中,评测方法包括以下这些步骤,即步骤(3.1)-(3.7)。
(3.1)对于更新后的无表情自然状态人脸形状S0
Figure BDA0002466632200000194
计算:
Figure BDA0002466632200000195
Figure BDA00024666322000001915
(3.2)先依次分别统计由曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure BDA0002466632200000196
并依次分别统计由曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure BDA0002466632200000197
再计算:
Figure BDA0002466632200000198
Figure BDA0002466632200000199
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|。
(3.3)对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure BDA00024666322000001910
再计算
Figure BDA00024666322000001911
Figure BDA00024666322000001912
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|。
(3.4)对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure BDA00024666322000001913
Figure BDA00024666322000001914
Figure BDA0002466632200000201
并依次分别计算面积
Figure BDA0002466632200000202
Figure BDA0002466632200000203
再计算
Figure BDA0002466632200000204
Figure BDA0002466632200000205
Figure BDA0002466632200000206
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|。
(3.5)对于更新后的吹哨动作人脸形状Sd1,Sd2,……,San,先计算max(Rd1,Rd2,...,Rdn),
Figure BDA0002466632200000207
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|。
(3.6)设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11。其中,阈值θ’1、θ’2、θ’4、θ’6、θ’8、θ’10、θ’11分别根据外部实现情况预设。
(3.7)若θ1>θ’1或θ2<θ’2,则判定待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119)。若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,则判定待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11。若θ10≠0,则判定待检测用户存在面瘫症状且属于半脸面瘫。若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,则判定待检测用户不存在面瘫症状。在本实施例中,若θ10>0,则判定待检测用户的面瘫部位为右脸。若θ10<0,则判定待检测用户的面瘫部位为右脸。
综上所述,相较于现有的面瘫程度评测方法,本实施例的CV下基于H-B分级的精准面瘫程度评测方法具有以下优点:
该CV下基于H-B分级的精准面瘫程度评测方法,其先建立面瘫关键点检测模型,并在模型中选取面部中的眉毛、眼睛、鼻子、嘴唇等的面瘫关键点,再获取待检测用户的待检测数据并对待检测数据进行处理,采集用户在无表情、皱眉、闭眼、微笑以及吹哨过程中的图像,并将图像输入至面瘫关键点检测模型中输出多组人脸形状,随后分别对各组人脸形状进行线性回归等操作,获得一系列面瘫关联元素并对人脸形状进行更新,最后计算更新后的各组人脸形状的各种特征值,并针对特征值之间的关系对待检测用户的面瘫程度进行评测,实现对用户面瘫程度的精确评测。这样获取待检测用户脸部的静态图像及动态视频,利用面瘫关键点检测模型分别在静态图像及动态视频中提取待检测用户脸部的静态图像及动态视频的所有关键点,根据待检测用户在不同表情下面部对应关键区域面积关系综合评价检测用户面瘫程度,可以使检测模型具有较高的检测定位精度,结合优选的不同表情下面部对应关键区域面积关系,大大提升待检测用户面瘫程度综合评价及检测的精度及准度,为面瘫患者的预防发现及治疗提供有力支撑。
而且,该CV下基于H-B分级的精准面瘫程度评测方法由于可以采用计算机视觉技术检测用户的面部图像,并通过计算机执行其他步骤,这样在应用时可以直接使用在现有的手机、计算机等设备中,也可以使用在专门评估用户的面瘫程度的医疗设备中,还可以作为独立模块进行产品化应用,可以大规模、产业化应用在面瘫识别和程度评测设备中,提高现有的医疗设备的评测效率和准确性。
实施例2
请参阅图3,本实施例提供了一种CV下基于H-B分级的精准面瘫程度评测方法,该方法与实施例1的相似,区别在于本实施例的深度全卷积网络模型不同。本实施例的深度全卷积网络模型的具体结构,可根据用户具体要求而单独设计,为方便进一步介绍,现设计一个深度全卷积网络模型结构示例如图3所示。深度全卷积网络模型的下采样及上采样层数均为3层,下采样均采用maxpooling最大值池化方式,池化层尺寸均为2×2且步长均为2,上采样均采用dconv反卷积方式,反卷积层尺寸均为2×2且步长均为2,各相邻上采样或下采样间分别间隔由多层卷积层堆叠的卷积层模块conv1、conv2、conv3、conv4、conv5和conv6。其中,conv1由9层卷积层堆叠组成,conv1第一层卷积层如“64@1×1,1”表示conv1所组成的第一层卷积层的卷积核大小为1×1,数量为64,步长为1。conv1第二层卷积层如“64@3×3,1”表示conv1所组成的第二层卷积层的卷积核大小为3×3,数量为64,步长为1。conv1第三层卷积层如“128@1×1,1”表示conv1所组成的第三层卷积层的卷积核大小为1×1,数量为128,步长为1。conv1第四层卷积层如“64@1×1,1”表示conv1所组成的第四层卷积层的卷积核大小为1×1,数量为64,步长为1。conv1第五层卷积层如“64@3×3,1”表示conv1所组成的第五层卷积层的卷积核大小为3×3,数量为64,步长为1。conv1第六层卷积层如“128@1×1,1”表示conv1所组成的第六层卷积层的卷积核大小为1×1,数量为128,步长为1。conv1第七层卷积层如“64@1×1,1”表示conv1所组成的第七层卷积层的卷积核大小为1×1,数量为64,步长为1。conv1第八层卷积层如“64@3×3,1”表示conv1所组成的第八层卷积层的卷积核大小为3×3,数量为64,步长为1。conv1第九层卷积层如“128@1×1,1”表示conv1所组成的第九层卷积层的卷积核大小为1×1,数量为128,步长为1。对于其他卷积层模块conv2、conv3、conv4、conv5和conv6均具有相同规律,在此不再赘述。输入层通道数为3,输出层通道数为27,输出层采用one-hot编码并且输出层中每一个通道一一对应并仅表示面瘫关键点检测中一个具体的关键点,输入层没有激活函数,输出层的激活函数为sigmoid函数,紧邻输出层的卷积层的激活函数为tanh函数,其他所有卷积层的激活函数均为Rule函数。另外,利用高斯分布随机数初始化深度全卷积网络模型的所有权值和阈值,学习率初始化为0.001,模型目标Loss阈值为0.1,模型最大训练次数设置为20000,并通过Adam进行优化,损失函数为BinaryCrossEntropy。
实施例3
本实施例提供了一种CV下基于H-B分级的精准面瘫程度评测装置,该装置应用实施例1或实施例2的CV下基于H-B分级的精准面瘫程度评测方法。其中,精准面瘫程度评测装置包括检测模型建立模块、数据获取模块、数据处理模块以及面瘫程度综合评测模块,数据获取模块和数据处理模块可以组成一个待检测数据获取及处理模块。这些模块可以作为计算机程序模块,也可以作为硬件模块,其能够执行实施例1或实施例2中所介绍的相关步骤。
检测模型建立模块用于建立面瘫关键点检测模型,其实际上用于执行实施例1中的步骤(1)。在面瘫关键点检测模型中,定义一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23,面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27,可以以所有面瘫关键点为元素形成的集合表示人脸形状。
数据获取模块用于获取待检测数据,该数据为待检测用户的面部数据。其中,待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四。
数据处理模块用于对待检测数据进行处理,而且数据处理模块包括输入单元和更新单元。输入单元用于将无表情自然状态静态图像、序列图像一、序列图像二、序列图像三以及序列图像四依次输入至面瘫关键点检测模型中以输出相应的多组人脸形状。更新单元用于对多组人脸形状依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5。更新单元还用于基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1。更新单元还用于设置向量
Figure BDA0002466632200000241
向量
Figure BDA0002466632200000242
向量
Figure BDA0002466632200000243
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2。更新单元还用于基于面瘫关键点s9、s10、s12先计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12)+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),k4=(xs9 2+ys9 2)(xs12ys10-xs10ys12)+(xs10 2+ys10 2)(xs9ys12-xs12ys9)+(xs12 2+ys12 2)(xsi0ys9-xs9ysi0),再计算:R=(k2 2+k3 2-4k1k4)/4k1 2。更新单元还用于基于面瘫关键点s1、s24、s25进行曲线拟合获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d。更新单元还用于将点p0、点p1、向量
Figure BDA0002466632200000244
向量
Figure BDA0002466632200000245
向量
Figure BDA0002466632200000246
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状。
面瘫程度综合评测模块用于对待检测用户的面瘫程度进行评测。面瘫程度综合评测模块包括计算单元一、计算单元二、计算单元三、计算单元四、计算单元五、设置比较单元以及判定单元。面瘫程度综合评测模块实际上用于执行实施例1中的步骤(3),而各个单元则分别用于执行步骤(3.1)-(3.7)。
计算单元一用于对于更新后的无表情自然状态人脸形状S0,计算:
Figure BDA0002466632200000247
Figure BDA0002466632200000251
计算单元二用于对于更新后的皱眉动作人脸形状Sa1,Sa2,……,San,先依次分别统计由曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure BDA0002466632200000252
并依次分别统计由曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure BDA0002466632200000253
再计算:
Figure BDA0002466632200000254
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|。
计算单元三用于对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure BDA0002466632200000255
再计算
Figure BDA0002466632200000256
Figure BDA0002466632200000257
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|。计算单元四用于对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure BDA0002466632200000258
Figure BDA0002466632200000259
Figure BDA00024666322000002510
并依次分别计算面积
Figure BDA00024666322000002511
Figure BDA00024666322000002512
再计算
Figure BDA00024666322000002513
Figure BDA00024666322000002514
Figure BDA00024666322000002515
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|。
计算单元五用于对于更新后的吹哨动作人脸形状Sd1,Sd2,……,Sdn,先计算max(Rd1,Rd2,...,Rdn),
Figure BDA00024666322000002516
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|。设置比较模块用于设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11。其中,阈值θ’1、θ’2、θ’4、θ’6、θ’10、θ’11分别根据外部实现情况预设,即根据需要情况进行确定。判定单元用于根据设置比较模块的比较结果进行判定。若θ1>θ’1或θ2<θ’2,判定单元则判定待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119)。若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,判定单元则判定待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11。若θ10≠0,判定单元则判定待检测用户存在面瘫症状且属于半脸面瘫。若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,判定单元则判定待检测用户不存在面瘫症状。
该CV下基于H-B分级的精准面瘫程度评测装置相较于现有面瘫程度评测设备,其所具有的优点与实施例1中的CV下基于H-B分级的精准面瘫程度评测方法的优点相同,在此不再做赘述。
实施例4
本实施例提供一种计算机终端,其包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序。处理器执行程序时实现实施例1的CV下基于H-B分级的精准面瘫程度评测方法的步骤。
实施例1的方法在应用时,可以软件的形式进行应用,如设计成独立运行的程序,安装在计算机终端上,计算机终端可以是电脑、智能手机、控制系统以及其他物联网设备等。实施例1的方法也可以设计成嵌入式运行的程序,安装在计算机终端上,如安装在单片机上。
实施例5
本实施例提供一种计算机可读存储介质,其上存储有计算机程序。程序被处理器执行时,实现实施例1的CV下基于H-B分级的精准面瘫程度评测方法的步骤。
实施例1的方法在应用时,可以软件的形式进行应用,如设计成计算机可读存储介质可独立运行的程序,计算机可读存储介质可以是U盘,设计成U盾,通过U盘设计成通过外在触发启动整个方法的程序。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,其包括以下步骤:
(1)确定左眉毛的面瘫关键点s1、s24、s25,右眉毛的面瘫关键点s2、s26、s27,鼻子的面瘫关键点s3、s4、s5、s6、s7,嘴唇的面瘫关键点s8、s9、s10、s11、s12、s13,左眼的面瘫关键点s14、s15、s16、s17、s18,右眼的面瘫关键点s19、s20、s21、s22、s23;定义(xsm,ysm)为面瘫关键点sm的坐标,m={1,2,...,27},以所有面瘫关键点为元素形成的集合表示人脸形状;
(2)获取待检测用户整个人脸在无表情自然状态、做皱眉动作全过程、做闭眼动作全过程以及做吹哨动作全过程中产生的多组人脸形状;
对多组人脸形状依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5
对多组人脸形状依次分别基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1
设置向量
Figure FDA0002466632190000011
向量
Figure FDA0002466632190000012
向量
Figure FDA0002466632190000013
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2
基于面瘫关键点s9、s10、s12,计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),
Figure FDA0002466632190000014
Figure FDA0002466632190000015
Figure FDA0002466632190000016
R=(k2 2+k3 2-4k1k4)/4k1 2
基于面瘫关键点s1、s24、s25进行曲线拟合获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d;
将点p0、点p1、向量
Figure FDA0002466632190000021
向量
Figure FDA0002466632190000022
向量
Figure FDA0002466632190000023
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状;
(3)对于更新后的无表情自然状态人脸形状S0,计算:
Figure FDA0002466632190000024
Figure FDA0002466632190000025
式中,
Figure FDA0002466632190000026
分别为人脸形状S0的向量
Figure FDA0002466632190000027
在横纵坐标轴上的投影值,
Figure FDA0002466632190000028
分别为人脸形状S0的向量
Figure FDA0002466632190000029
在横纵坐标轴上的投影值,
Figure FDA00024666321900000210
对应人脸形状S0的面积n1、n2
对于更新后的皱眉动作人脸形状Sa1,Sa2,……,San,先依次分别统计由相应的曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure FDA00024666321900000211
并依次分别统计由相应的曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure FDA00024666321900000212
再计算:
Figure FDA00024666321900000213
Figure FDA00024666321900000214
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|;
对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure FDA00024666321900000215
Figure FDA00024666321900000216
再计算
Figure FDA00024666321900000217
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|;
对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure FDA00024666321900000218
Figure FDA0002466632190000031
Figure FDA0002466632190000032
并依次分别计算面积
Figure FDA0002466632190000033
Figure FDA0002466632190000034
再计算
Figure FDA0002466632190000035
Figure FDA0002466632190000036
Figure FDA0002466632190000037
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|;
对于更新后的吹哨动作人脸形状Sd1,Sd2,……,Sdn,先计算max(Rd1,Rd2,...,Rdn),
Figure FDA0002466632190000038
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|;
将θ1、θ2、θ3、θ4、θ5、θ6、θ7、θ8、θ9、θ10、θ11分别与其阈值比较;
通过比较结果对待检测用户的面瘫程度进行判定,并计算面瘫指数。
2.如权利要求1所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(1)还包括:建立面瘫关键点检测模型;在所述面瘫关键点检测模型中,一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23,面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27
3.如权利要求2所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(2)还包括:获取待检测用户整个人脸的待检测数据;其中,所述待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及所述待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四。
4.如权利要求3所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(2)还包括:将所述无表情自然状态静态图像、所述序列图像一、所述序列图像二、所述序列图像三以及所述序列图像四依次输入至所述面瘫关键点检测模型中以输出相应的多组人脸形状。
5.如权利要求4所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,更新后人脸形状依次为:
Figure FDA0002466632190000041
Figure FDA0002466632190000042
Figure FDA0002466632190000043
Figure FDA0002466632190000044
Figure FDA0002466632190000045
Figure FDA0002466632190000046
Figure FDA0002466632190000051
Figure FDA0002466632190000052
Figure FDA0002466632190000053
Figure FDA0002466632190000054
Figure FDA0002466632190000055
Figure FDA0002466632190000056
Figure FDA0002466632190000057
Figure FDA0002466632190000058
6.如权利要求5所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(3)还包括:设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11;其中,阈值θ’1、θ’2、θ’4、θ’6、θ’8、θ’10、θ’11分别根据外部实现情况预设。
7.如权利要求6所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(3)还包括:若θ1>θ’1或θ2<θ’2,则判定所述待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119);
若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,则判定所述待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11
若θ10≠0,则判定所述待检测用户存在面瘫症状且属于半脸面瘫。
8.如权利要求7所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,步骤(3)还包括:若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,则判定所述待检测用户不存在面瘫症状。
9.如权利要求8所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,所述面瘫关键点检测模型的建立方法包括以下步骤:
(1.1)创建深度全卷积网络模型;
(1.2)通过多个已标定训练样本以获取模型训练集;
(1.3)在所述模型训练集中选取一组已标定训练样本输入至所述深度全卷积网络模型中进行训练;以及
(1.4)判断步骤(1.3)的执行次数是否达到一个预设的最大训练次数;
在所述执行次数未达到所述最大训练次数时,获取所述深度全卷积网络模型一个周期的损失值,并判断所述损失值是否大于模型目标损失阈值;
在所述损失值大于所述模型目标损失阈值时,执行步骤(1.3);
在所述损失值小于所述模型目标损失阈值或所述执行次数达到所述最大训练次数时,将所述深度全卷积网络模型作为面瘫关键点检测模型;
或,
在所述深度全卷积网络模型中,下采样及上采样层数均为N0,N0为正整数;相邻的下采样及上采样间,或下采样与下采样间,或上采样与上采样间均堆叠多层卷积层;输入层通道数为3或1;
或,
在所述深度全卷积网络模型中,输入层没有激活函数,输出层的激活函数为sigmoid函数,紧邻输出层的卷积层的激活函数为tanh函数,其他所有卷积层的激活函数均为Rule函数;
或,
利用高斯分布随机数初始化所述深度全卷积网络模型的所有权值和阈值,学习率初始化为le,模型目标Loss阈值设置为m,模型最大训练次数设置为T,并通过贝叶斯正则化或动量梯度下降进行优化,损失函数为Binary Cross Entropy、Focal Loss、MSE中的一种;
或,
所述已标定训练样本的获取方法包括以下步骤:先通过至少一个摄影设备获取包含人脸的图像Im作为所述模型训练集中一个训练样本的数据,再标定图像Im中所有人脸的关键点的坐标值并作为训练样本的标签,并重复进行以获得多个已标定训练样本;
或,
按照一个预设前向传播公式计算所述深度全卷积网络模型的输出,按照一个预设误差公式计算出该所述已标定训练样本输入到所述深度全卷积网络模型后的模型输出和所述已标定训练样本标签间的误差,并通过反向传播更新所述深度全卷积网络模型所有权值和阈值;
或,
定义面瘫关键点s14、s15、s16、s17、s18位于所述面瘫关键点检测模型中整个人脸的右脸,面瘫关键点s19、s20、s21、s22、s23位于所述面瘫关键点检测模型中整个人脸的左脸;则在步骤(3.7)中,
若θ10>0,则判定所述待检测用户的面瘫部位为右脸;
若θ10<0,则判定所述待检测用户的面瘫部位为右脸;
或,
所述深度全卷积网络模型的下采样及上采样层数均为3各相邻上采样或下采样间分别间隔由多层卷积层堆叠的卷积层模块,输入层通道数为3,输出层通道数为27,学习率初始化为0.001,模型目标Loss阈值为0.1,模型最大训练次数设置为20000。
10.一种CV下基于H-B分级的精准面瘫程度评测装置,其应用于如权利要求1-9中任意一项所述的CV下基于H-B分级的精准面瘫程度评测方法,其特征在于,其包括:
检测模型建立模块,其用于建立面瘫关键点检测模型;在所述面瘫关键点检测模型中,定义一对眉毛的邻近两点为面瘫关键点s1、s2,鼻子的鼻根点为面瘫关键点s3,鼻子的鼻梁上下两点为面瘫关键点s4、s5,鼻子的准头点为面瘫关键点s6,鼻子的鼻尖为面瘫关键点s7,上唇的中部顶点为面瘫关键点s8,下唇的中部低点为面瘫关键点s9,嘴角两点为面瘫关键点s10、s13,上唇的两个最高点为面瘫关键点s11、s12,一对眼睛的相邻两点为面瘫关键点s14、s19,其中一只眼睛的眼球与眼眶的四个交点为面瘫关键点s15、s16、s17、s18,其中另一只眼睛的眼球与眼眶的四个交点为面瘫关键点s20、s21、s22、s23,面瘫关键点s1所在的眉毛上另外两点为面瘫关键点s24、s25,面瘫关键点s2所在的眉毛上另外两点为面瘫关键点s26、s27,以所有面瘫关键点为元素形成的集合表示人脸形状;
数据获取模块,其用于获取待检测数据;其中,所述待检测数据包括待检测用户整个人脸的无表情自然状态静态图像以及所述待检测用户在做皱眉动作全过程中所产生的序列图像一,在做闭眼动作全过程的序列图像二,在做微笑动作全过程的序列图像三,在做吹哨动作全过程的序列图像四;
数据处理模块,其用于对所述待检测数据进行处理;所述数据处理模块包括输入单元和更新单元;所述输入单元用于将所述无表情自然状态静态图像、所述序列图像一、所述序列图像二、所述序列图像三以及所述序列图像四依次输入至所述面瘫关键点检测模型中以输出相应的多组人脸形状;所述更新单元用于对多组人脸形状依次分别基于面瘫关键点s14、s19进行线性回归获得直线l1,并确定面瘫关键点s14、s19的中点p5;所述更新单元还用于基于面瘫关键点s3、s4、s5、s6、s7、s8及点p5进行线性回归获得直线l0,并确定直线l0与直线l1的交点p0,还确定面瘫关键点s11与s12的中点p1;所述更新单元还用于设置向量
Figure FDA0002466632190000091
向量
Figure FDA0002466632190000092
向量
Figure FDA0002466632190000093
并基于面瘫关键点s15、s16、s17、s18统计由其构成的矩形最小包围盒中所包含的像素点个数n1,基于面瘫关键点s20、s21、s22、s23统计由其构成矩形最小包围盒中所包含的像素点个数n2;所述更新单元还用于基于面瘫关键点s9、s10、s12先计算:k1=xs9(ys10-ys12)-ys9(xs10-xs12)+xs10ys12-xs12ys10,k2=(xs9 2+ys9 2)(ys12-ys10)+(xs10 2+ys10 2)(ys9-ys12)+(xs12 2+ys12 2)(ys10-ys9),k3=(xs9 2+ys9 2)(xs10-xs12)+(xs10 2+ys10 2)(xs12-xs9)+(xs12 2+ys12 2)(xs9-xs10),k4=(xs9 2+ys9 2)(xs12ys10-xs10ys12)+(xs10 2+ys10 2)(xs9ys12-xs12ys9)+(xs12 2+ys12 2)(xs10ys9-xs9ys10),再计算:R=(k2 2+k3 2-4k1k4)/4k1 2;所述更新单元还用于基于面瘫关键点s1、s24、s25进行曲线拟合获得曲线l2,基于面瘫关键点s2、s26、s27进行曲线拟合获得曲线l3,并确定:与直线l0平行且经过关键点s17的直线l4,与直线l0平行且经过关键点s14的直线为l5,与直线l0平行且经过关键点s19的直线为l6,与直线l0平行且经过关键点s23的直线为l7,面瘫关键点s14与s19的欧氏距离为d;所述更新单元还用于将点p0、点p1、向量
Figure FDA0002466632190000094
向量
Figure FDA0002466632190000095
向量
Figure FDA0002466632190000096
面积n1、面积n2、半径R、距离d、曲线l2、曲线l3、直线l4、直线l5、直线l6及直线l7作为元素加入至对应的人脸形状中以获得更新后人脸形状;
面瘫程度综合评测模块,其用于对待检测用户的面瘫程度进行评测;所述面瘫程度综合评测模块包括计算单元一、计算单元二、计算单元三、计算单元四、计算单元五、设置比较单元以及判定单元;所述计算单元一用于对于更新后的无表情自然状态人脸形状S0,计算:
Figure FDA0002466632190000097
Figure FDA0002466632190000098
所述计算单元二用于对于更新后的皱眉动作人脸形状Sa1,Sa2,……,San,先依次分别统计由曲线l2、直线l4、直线l5所包围封闭区域的像素点个数
Figure FDA0002466632190000101
并依次分别统计由曲线l3、直线l6、直线l7所包围封闭区域的像素点个数
Figure FDA0002466632190000102
再计算:
Figure FDA0002466632190000103
最后计算θ3=min(b1,b2),θ4=|b1+b2|/|b1-b2|;所述计算单元三用于对于更新后的闭眼动作人脸形状Sb1,Sb2,……,Sbn,先计算
Figure FDA0002466632190000104
Figure FDA0002466632190000105
再计算
Figure FDA0002466632190000106
Figure FDA0002466632190000107
最后计算θ5=max(d1,d2),θ6=|d1+d2|/|d1-d2|;所述计算单元四用于对于更新后的微笑动作人脸形状Sc1,Sc2,……,Scn,先依次分别计算面积
Figure FDA0002466632190000108
Figure FDA0002466632190000109
Figure FDA00024666321900001010
并依次分别计算面积
Figure FDA00024666321900001011
Figure FDA00024666321900001012
再计算
Figure FDA00024666321900001013
Figure FDA00024666321900001014
Figure FDA00024666321900001015
最后计算θ7=|e3+e4|/|e3-e4|,θ8=|e1+e2|/|e1-e2|;所述计算单元五用于对于更新后的吹哨动作人脸形状Sd1,Sd2,……,Sdn,先计算max(Rd1,Rd2,...,Rdn),
Figure FDA00024666321900001016
再计算θ9=|f1+R0|/|f1-R0|,θ10=arccos(f2),θ11=|θ10|;所述设置比较模块用于设置θ1对应的阈值θ’1,θ2对应的阈值θ’2,θ4对应的阈值θ’4,θ6对应的阈值θ’6,θ8对应的阈值θ’8,θ10对应的阈值θ’10,θ11对应的阈值θ’11,并比较θ1与θ’1,θ2与θ’2,θ4与θ’4,θ6与θ’6,θ8与θ’8,θ10与θ’10,θ11与θ’11;所述判定单元用于根据所述设置比较模块的比较结果进行判定;若θ1>θ’1或θ2<θ’2,所述判定单元则判定所述待检测用户存在面瘫症状且属于严重面瘫,并计算相应的面瘫指数K1=(0.2θ12)+(0.1d03)+(0.1/θ4)+(0.3θ56)+(0.3/θ7)+(0.3/θ8)+(0.1θ119);若θ1≤θ’1且θ2≥θ’2,同时满足θ6<θ’6或θ8<θ’8或θ11>θ’11时,所述判定单元则判定所述待检测用户存在面瘫症状但不属于严重面瘫,并计算相应的面瘫指数K2=(0.1/θ4)+(0.3/θ6)+(0.3/θ8)+0.1θ11;若θ10≠0,所述判定单元则判定所述待检测用户存在面瘫症状且属于半脸面瘫;若满足以下条件:θ1≤θ’1、θ2≥θ’2、θ6≥θ’6、θ8≥θ’8、θ11≤θ’11,所述判定单元则判定所述待检测用户不存在面瘫症状。
CN202010335998.6A 2020-04-25 2020-04-25 一种cv下基于h-b分级的精准面瘫程度评测方法及装置 Active CN111553249B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010335998.6A CN111553249B (zh) 2020-04-25 2020-04-25 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010335998.6A CN111553249B (zh) 2020-04-25 2020-04-25 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Publications (2)

Publication Number Publication Date
CN111553249A true CN111553249A (zh) 2020-08-18
CN111553249B CN111553249B (zh) 2021-04-30

Family

ID=72003977

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010335998.6A Active CN111553249B (zh) 2020-04-25 2020-04-25 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Country Status (1)

Country Link
CN (1) CN111553249B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597842A (zh) * 2020-12-15 2021-04-02 周美跃 基于人工智能的运动检测面瘫程度评估系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980815A (zh) * 2017-02-07 2017-07-25 王俊 基于h‑b分级评分监督下的面瘫客观评估方法
CN109063625A (zh) * 2018-07-27 2018-12-21 北京以萨技术股份有限公司 一种基于级联深度网络的人脸关键点检测方法
CN109508644A (zh) * 2018-10-19 2019-03-22 陕西大智慧医疗科技股份有限公司 基于深度视频数据分析的面瘫等级评估系统
CN110084259A (zh) * 2019-01-10 2019-08-02 谢飞 一种结合面部纹理和光流特征的面瘫分级综合评估系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980815A (zh) * 2017-02-07 2017-07-25 王俊 基于h‑b分级评分监督下的面瘫客观评估方法
CN109063625A (zh) * 2018-07-27 2018-12-21 北京以萨技术股份有限公司 一种基于级联深度网络的人脸关键点检测方法
CN109508644A (zh) * 2018-10-19 2019-03-22 陕西大智慧医疗科技股份有限公司 基于深度视频数据分析的面瘫等级评估系统
CN110084259A (zh) * 2019-01-10 2019-08-02 谢飞 一种结合面部纹理和光流特征的面瘫分级综合评估系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597842A (zh) * 2020-12-15 2021-04-02 周美跃 基于人工智能的运动检测面瘫程度评估系统
CN112597842B (zh) * 2020-12-15 2023-10-20 芜湖明瞳数字健康科技有限公司 基于人工智能的运动检测面瘫程度评估系统

Also Published As

Publication number Publication date
CN111553249B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
Chin et al. Incremental kernel principal component analysis
CN106960202B (zh) 一种基于可见光与红外图像融合的笑脸识别方法
CN110532880B (zh) 样本筛选及表情识别方法、神经网络、设备及存储介质
CN111783532B (zh) 一种基于在线学习的跨年龄人脸识别方法
CN109598234A (zh) 关键点检测方法和装置
CN112464865A (zh) 一种基于像素和几何混合特征的人脸表情识别方法
CN114332578A (zh) 图像异常检测模型训练方法、图像异常检测方法和装置
CN110729045A (zh) 一种基于上下文感知残差网络的舌图像分割方法
CN112734911A (zh) 基于卷积神经网络的单幅图像三维人脸重建方法及系统
CN112927279A (zh) 一种图像深度信息生成方法、设备及存储介质
CN111553250B (zh) 一种基于人脸特征点的精准面瘫程度评测方法及装置
CN111382791B (zh) 深度学习任务处理方法、图像识别任务处理方法和装置
CN107194364B (zh) 一种基于分治策略的Huffman-LBP多姿态人脸识别方法
CN109558814A (zh) 一种三维矫正和加权相似性度量学习的无约束人脸验证方法
CN107992846A (zh) 遮挡人脸识别方法及装置
CN110598647B (zh) 一种基于图像识别的头部姿态识别方法
Gu et al. Unsupervised and semi-supervised robust spherical space domain adaptation
CN111462184A (zh) 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法
CN111553249B (zh) 一种cv下基于h-b分级的精准面瘫程度评测方法及装置
CN111582057B (zh) 一种基于局部感受野的人脸验证方法
CN111127532B (zh) 基于深度学习特征光流的医学图像形变配准方法及系统
CN111144466B (zh) 一种图像样本自适应的深度度量学习方法
CN115439669A (zh) 基于深度学习的特征点检测网络及跨分辨率图像匹配方法
CN111079715B (zh) 一种基于双字典学习的遮挡鲁棒性人脸对齐方法
CN112001213B (zh) 一种基于3d点云分割的精准面瘫程度评测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant