CN110083799B - 一种基于眼动技术的眼镜佩戴舒适度评价方法 - Google Patents

一种基于眼动技术的眼镜佩戴舒适度评价方法 Download PDF

Info

Publication number
CN110083799B
CN110083799B CN201910183750.XA CN201910183750A CN110083799B CN 110083799 B CN110083799 B CN 110083799B CN 201910183750 A CN201910183750 A CN 201910183750A CN 110083799 B CN110083799 B CN 110083799B
Authority
CN
China
Prior art keywords
eye
eyelid
glasses
interval
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910183750.XA
Other languages
English (en)
Other versions
CN110083799A (zh
Inventor
樊碧月
武杰
项华中
谢公兴
赵志刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mingyue Lens Co ltd
Original Assignee
Mingyue Lens Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mingyue Lens Co ltd filed Critical Mingyue Lens Co ltd
Priority to CN201910183750.XA priority Critical patent/CN110083799B/zh
Publication of CN110083799A publication Critical patent/CN110083799A/zh
Application granted granted Critical
Publication of CN110083799B publication Critical patent/CN110083799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Operations Research (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及一种基于眼动技术的眼镜佩戴舒适度评价方法,该方法先获取受试者一段时间内的眼动数据以及眼部照片,再对获取的眼部图像进行处理,以计算眼睑间距异常时间百分比和眨眼频率,然后根据眼睑间距异常时间百分比和眨眼频率,建立多元线性回归模型以判断眼镜的舒适程度。本发明通过大量主观采样及实验定量研究了眼睑间距和眨眼频率对眼镜佩戴舒适度的影响,并建立了样本数据库和多元线性回归模型,得到了舒适度判定分值区间,为后续的眼镜佩戴舒适度判定提供了定量标准,进而可以根据多元线性回归模型。

Description

一种基于眼动技术的眼镜佩戴舒适度评价方法
技术领域
本发明涉及一种眼镜佩戴舒适度评价方法,具体涉及一种基于眼动技术的眼镜佩戴舒适度评价方法。
背景技术
眼动技术是通过记录眼动轨迹的变化,同时提取注视点、注视时间、眨眼时间、瞳孔位置等数据,以分析并研究个体的内在认知感受的技术。眼动仪是一种利用眼动技术,记录人在处理视觉信息时的各种眼动特征的仪器,自20世纪60年代以来,随着摄像技术、红外技术和微电子技术的飞速发展,特别是计算机技术的运用,推动了高精度眼动仪的研发,极大地促进了眼动研究在各学科中的应用。眼动仪现已被广泛用于注意、视知觉、阅读等领域的研究。
对一般近视患者来说,佩戴一副舒适的眼镜是最简单的解决视物不清的办法。据了解,目前针对眼镜佩戴舒适度的评价,主要是由配镜者填写问卷,然后由医生或相关研究人员对问卷的回答进行统计分析,以评估眼镜舒适程度。这种方法虽然简单、便捷,但是主观性大、可靠性低,评估结果往往不够准确。截止目前,尚未提出有效的解决方案来客观评价眼镜佩戴的舒适程度。
发明内容
本发明要解决的技术问题是根据现有技术存在的缺陷,提出一种基于眼动技术的眼镜佩戴舒适度评价方法,该方法在利用眼动技术的基础上,测量眼动数据和眼部图像,根据受试者的眼动状态评价受试者佩戴该眼镜的舒适程度,从而帮助医生对受试者所佩戴眼镜的好坏有个客观的认识,以便对后续的配镜工作做出及时的调整。这种方法相对客观、效率高,解决了采用现有方法评价眼镜佩戴舒适度时过于主观而导致的误差过大的问题。
本发明提供了一种基于眼动技术的眼镜佩戴舒适度评价方法,包括以下步骤:
S1、获取受试者一段时间内的眼动数据以及眼部照片;转至步骤S2;
S2、对获取的眼部图像进行处理,并计算眼睑间距异常时间百分比x1;转至步骤S3;
S3、计算眨眼频率x2;转至步骤S4;
S4、根据眼睑间距异常时间百分比x1和眨眼频率x2,建立多元线性回归模型以判断眼镜的舒适程度。
本发明通过综合衡量眼睑间距和眨眼频率与眼镜佩戴舒适度的关系来评估受试者眼镜佩戴的舒适程度,使评估更加客观准确,能更方便地对配镜者的佩戴状况做出判断,以便及时调整,也为后续的眼镜设计、佩戴效果改进等提供帮助。
上述技术方案,在步骤S1中,采用眼动仪记录受试者一段时间内的眼动数据及眼部照片。
上述技术方案,在步骤S2中,对获取的眼部图像进行处理的具体方法如下:
S201、图像预处理,对获取的眼部图像进行预处理,预处理包括图像灰度化、去躁、直方图均衡化和边缘检测等;转至步骤S201;
S202、椭圆拟合,采用最小二乘法对预处理后的图像进行椭圆拟合,以得到眼部轮廓。
上述技术方案,在步骤S202中,椭圆拟合的具体方法如下:
建立椭圆的平面二次曲线方程,
F(A,X)=A·X=ax2+bxy+cy2+dx+ey+f=0 (4)
其中,A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y]T,F(A;Xi)为点[xi,yi]到二次曲线F(A;Xi)=0的代数距离,a、b、c、d、e、f均为系数,T为矩阵的转置;
在满足4ac-b2=1的条件下,求点[xi,yi]到二次曲线F(A;Xi)=0的代数距离平方和最小,即
Figure GDA0002089873730000021
其中,N为拟合点的个数;
令DN=[X1X2…XN]T (6)
Figure GDA0002089873730000031
DN是N个拟合点的数据集,C为固定联结矩阵,直接将最小二乘法椭圆拟合问题表示为在ATCA=1条件下,求系数[a,b,c,d,e,f]使得E=||DA||2值最小,E代表DA的范数值,引入Lagrange算子求解该最小值,可得同解方程组为:
Figure GDA0002089873730000032
令S=DTD,上述方程组可分别表示为
SA=λCA (9)
ATCA=1 (10)
对于式(9),可按广义特征值和广义特征向量的方法求得其6组解(λi,μi),任意的μi∈R+μi,其中i=1,2,…6,(λi,μiui)为式(6)的解,且(λi,μiui)需满足式(10),即μi 2ui TCui=1,则有
Figure GDA0002089873730000033
根据已知条件可得知只有唯一个广义特征值λi>0和对应的广义特征向量ui,则得到椭圆拟合的唯一解,
Aj=μiui,j∈i (12)
椭圆中心位置(x0,y0)为
Figure GDA0002089873730000034
将眼睛轮廓线所包含的所有像素点作为拟合数据,通过上述直接最小二乘法拟合出椭圆形状(轮廓线上的点,其值就是该点的图像灰度值,无需求值)。
上述技术方案,在步骤S2中,计算眼睑间距异常时间百分比x1的具体方法如下:
S203、测量眼睑间距d以及基础眼睑间距d0,根据d与d0的关系,判断当前眼睛的状态,当d大于d0程度高于预设距离百分比阈值上限(该预设距离百分比阈值上限一般取d0的105%,即105%×d0)时定义为过度睁眼,当d小于d0程度低于预设距离百分比阈值下限(该预设距离百分比阈值下限一般取d0的85%,即85%×d0)时定义为眯眼,将过渡睁眼与眯眼标记为眼睑间距异常,记录眼睑间距异常时间;转至步骤S204;
S204、根据下式计算眼睑间距异常时间百分比x1
眼睑间距异常时间百分比=眼睑间距异常时间/总测试时间。
上述技术方案,在步骤S3中,计算眨眼频率x2的具体方法如下:
S301、计数眨眼次数—提取眼动仪所记录的眼动数据,并设置一个计数器i,将计数器的初始值设为0,遍历所有眼动数据,每检测到一条眨眼数据,计数器的数值加1,最后得到眨眼次数;
S302、根据下式计算眨眼频率x2
眨眼频率=眨眼次数/眼动总数据量。
上述技术方案,在步骤S4中,建立多元线性回归模型并判断眼镜的舒适程度的具体方法如下:
S401、选择配戴合适眼镜的人建立样本数据库,样本数据库包括每个人的眼睑间距异常时间百分比x1、眨眼频率x2、眼镜舒适度评价值等数据;
S402、建立多元线性回归模型,公式如下,
y=b0+b1x1+b2x2
其中,b0、b1、b2为模型中的待估计参数,ε为随机误差,将样本数据库中部分数据导入多元线性回归模型,获得回归模型参数b0、b1、b2
S403、根据已经确定的回归模型参数b0、b1、b2,确定眼睑间距和眨眼频率对眼镜舒适度的影响程度,并确定判定为较舒适、舒适、不舒适的y值分值区间;
S404、将受试者的眼睑间距异常时间百分比x1和眨眼频率x2代入多元线性回归模型,获得y值,然后根据眼睑间距和眨眼频率来判断眼镜的舒适程度。
在已经确定回归模型参数b0、b1、b2后,将一个新测试者的眼睑间距和眨眼频率数据,代入到上述的回归模型公式中,得到一个y值,然后根据y值的大小,来确定最终的眼镜佩戴舒适程度。将y值按大小划分为[8.5,10],[5,8.5),[0,5)三个不同的分值区间,分别对应较舒适区间、舒适区间、不舒适区间,再根据每个y值所处的分值区间,判定其为较舒适、舒适或不舒适。
上述技术方案,在步骤S403中,将样本数据库剩余的数据导入多元回归模型中以对其有效性进行验证,并根据验证结果调整权值b0,b1和b2
具体方法就是将多元回归模型计算出来的舒适程度(y值),与数据库里已知的舒适度评价值相比较,如果两者数据比较接近或者能够满足实际需求,即表示模型验证成功,如果两者数据相差较远或者实际要求较高,即可根据模型变量和模型计算结果之间的线性关系,来对模型参数b0,b1和b2进行线性调整,当上述两者数据比较接近时,即可最终确定上述多元线性回归模型参数。
上述技术方案,在步骤S404中,若y值在较舒适区间内,判定为较舒适;若y值在舒适区间内,判定为舒适;若y值在不舒适区间内,判定为不舒适。
总之,本发明在利用眼动技术的基础上,测量眼动数据和眼部图像,根据受试者的眼动状态评价受试者佩戴该眼镜的舒适程度,从而帮助医生对受试者所佩戴眼镜的好坏有个客观的认识,以便对后续的配镜工作做出及时的调整。这种方法相对比较客观、效率高,解决了在评价眼镜佩戴舒适度时过于主观导致误差过大的问题。
本发明基于眼动技术,通过大量主观采样及实验定量研究了眼睑间距和眨眼频率对眼镜佩戴舒适度的影响,并建立了样本数据库和多元线性回归模型,得到了舒适度判定分值区间,为后续的眼镜佩戴舒适度判定提供了定量标准,进而可以根据多元线性回归模型和舒适度分值区间,直接快速地判断受试者眼镜佩戴是否舒适,结果客观可靠。
附图说明
下面结合附图对本发明作进一步描述。
附图1为本发明中基于眼动技术的眼镜佩戴舒适度评价方法的流程图。
附图2为本发明中判断眼睑间距状态方法的流程图。
附图3为本发明中计算眨眼频率的流程图。
附图4为本发明中一种人眼眼睑间距影像的示意图。
附图5为本发明中另一种人眼眼睑间距影像的示意图。
附图6为本发明中眼部图像处理过程的中间结果图。
具体实施方式
本发明基于眼动技术的眼镜佩戴舒适度评价方法,如图1所示,包括以下步骤:
S1、获取原始数据——获取受试者一段时间内的眼动数据以及眼部照片。
在受试者眼部佩戴眼动仪,并在眼动仪的镜框上设置有摄像头,使用眼动仪记录受试者一段时间内的眼动数据及眼部照片,从而为后续步骤提供原始数据。
S2、眼部图像处理,并判断当前眼睛状态——对获取的眼部图像进行处理,判断当前眼睛状态,并计算眼睑间距异常时间百分比x1
该步骤是通过对眼部图像的处理,来获取眼睑间距等特征参数,用于后续判断眼镜佩戴的舒适程度,如图2所示,具体方法如下:
S201、眼部图像预处理——对摄像头得到的每帧眼部图像进行预处理,预处理包括图像灰度化、去躁、直方图均衡化和边缘检测等。
图像灰度化:将彩色图像按某种映射关系映射为不同的灰度值,从而改变相邻像素点之间的灰度差,达到将图像对比度增强的目的。该方法采用加权平均法进行灰度化,即将RGB通过不同的权值来加权平均。比如OpenCV函数库所采用的灰度权值如下,
f(i,j)=0.212671R(i,j)+0.715160G(i,j)+0.072169B(i,j) (1)
去躁:中值滤波器将一个像素的值采用该像素邻域中强度值的中间值来取代,该方法对于斑点噪声和椒盐噪声来说尤其有用,同时还能很好地保存边缘,便于后续的边缘检测操作。
直方图均衡化:对于光照太亮或太暗的图像,由于其对比度较低,会影响后续边缘检测,采用直方图均衡化处理可以提高图像对比度,从而提高边缘检测的效果。
边缘检测:边缘是含有很多信息的图像的很明显的特点,它将两个不同区域分开。由于边缘的这个特点,边缘有助于识别对象的位置和图像中特定实体的边界,通常是基于图像颜色、灰度和纹理的突变进行边缘检测。
Sobel边缘检测器是典型边缘检测器的一种。设f(x,y)为原图像,该算子分别采用卷积核g1(x,y)、g2(x,y)对f(x,y)做卷积,取其中的较大值作为结果。其表达式为:
Figure GDA0002089873730000071
Sobel边缘检测算子采用先加权平均后微分运算的算法,采用差分的方法表示为:
Figure GDA0002089873730000072
S202、椭圆拟合——采用最小二乘法对眼部轮廓进行椭圆拟合。
采用最小二乘法对眼部轮廓进行拟合,测量其最高点与最低点之间的距离,即眼睑间距d。最小二乘法以代数距离平方和最小作为拟合的数学原则,高效且对噪声具有较好的稳定性。
建立椭圆的平面二次曲线方程,一般方程式如下:
F(A,X)=A·X=ax2+bxy+cy2+dx+ey+f=0 (4)
其中,A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y]T,F(A;Xi)为点[xi,yi]到二次曲线F(A;Xi)=0的代数距离,a、b、c、d、e、f均为系数,T为矩阵的转置,同时满足4ac-b2=1。故拟合问题转化为在满足4ac-b2=1的条件下,求点[xi,yi]到二次曲线F(A;Xi)=0的代数距离平方和最小,即
Figure GDA0002089873730000081
其中,N为拟合点的个数。
令DN=[X1X2…XN]T (6)
Figure GDA0002089873730000082
DN是N个拟合点的数据集,C为固定联结矩阵,则直接将最小二乘法椭圆拟合问题表示为在ATCA=1条件下,求系数[a,b,c,d,e,f]使得E=||DA||2值最小,E代表DA的范数值,引入Lagrange算子求解该最小值,可得同解方程组为:
Figure GDA0002089873730000083
令S=DTD,上述方程组可分别表示为
SA=λCA (9)
ATCA=1 (10)
对于式(9),可按广义特征值和广义特征向量的方法求得其6组解(λi,μi),对于任意的μi∈R+μi而言,(λi,μiui)也是式(6)的解,这里i=1,2,…6,所以(λi,μiui)必须满足式(10),即μi 2ui TCui=1,则有
Figure GDA0002089873730000084
根据已知条件可得知只有唯一个广义特征值λi>0和对应的广义特征向量ui,作为椭圆拟合的唯一解:
Aj=μiui,j∈i (12)
椭圆中心位置(x0,y0)为
Figure GDA0002089873730000091
最终将眼睛轮廓线所包含的所有像素点作为拟合数据,通过上述直接最小二乘法拟合出椭圆形状(轮廓线上点的值就是该点的图像灰度值,不需要求值)。
S203、判断当前眼睛的状态—测量眼睑间距d(即眼部轮廓最高点与最低点之间的距离,如图4和图5)以及基础眼睑间距d0(即受试者在不佩戴眼镜时的普通状态下的眼睑间距值)。
根据d与d0的关系,判断该图像当前时刻眼睛的状态。首先,根据式(14)对图像当前眼睛状态进行判断,
d>m×d0 (14)
其中,m为预设距离百分比阈值上限,当d>m×d0时,说明d大于d0程度高于预设距离百分比阈值上限(该预设距离百分比阈值上限一般取105%,即m为105%),此时定义眼部状态为过度睁眼(如图4的401),并记录过度睁眼持续时间ti,否则再根据式(15)对图像当前状态进行判断,
d<n×d0 (15)
其中,n为预设距离百分比阈值下限,当d<n×d0时,说明d小于d0程度低于预设距离百分比阈值下限(该预设距离百分比阈值下限一般取85%,即n为85%),此时定义眼部状态为眯眼(如图5的501),并记录眯眼持续时间tj,否则定义眼部状态为正常。
将过渡睁眼与眯眼标记为眼睑间距异常,统计眼睑间距异常时间(即过渡睁眼持状态的持续时间和眯眼状态的持续时间)。根据式(16)计算眼睑间距异常时间,
t1=∑ti+∑tj (16)
S204、计算眼睑间距异常持续总时间占总时间的百分比。
当某一帧图像为过度睁眼时,开始计算时间,直到不超过该阈值范围结束计时,该段时间定义为眼睑间距异常时间;当某一帧图像为眯眼时,开始计算时间,直到不超过该阈值范围结束计时,该段时间定义为眼睑间距异常时间。累加所有的眼睑间距异常时间,并计算异常时间占总测试时间的百分比,记为眼睑间距异常时间百分比x1
根据下式计算眼睑间距异常时间百分比x1
眼睑间距异常时间百分比=眼睑间距异常时间/总测试时间(x1=t1/t)。
S3、计算眨眼频率x2
该步骤是通过计算眨眼频率来判断眼镜佩戴的舒适程度的,如图3所示,具体步骤如下:
S301、计数眨眼次数—提取眼动仪所记录的眼动数据,并设置一个计数器i,将计数器的初始值设为0,遍历所有眼动数据,每检测到一条眨眼数据,计数器的数值加1,最后得到眨眼次数i(i=i+1)。
S302、遍历结束后,采用计数器的最终结果i除以总数据的条数n,得到眨眼频率x2。即,根据下式计算眨眼频率x2
眨眼频率=眨眼次数(计数器结果)/眼动总数据量(j=i/n)。
S4、根据眼睑间距异常时间百分比x1和眨眼频率x2,建立多元线性回归模型并计算相关参数以判断眼镜的舒适程度。
建立多元线性回归模型并判断眼镜的舒适程度的具体方法如下:
S401、建立样本数据库—选择已经配戴合适眼镜的人建立样本数据库,令他们分别佩戴适合自己的眼镜和不适合的眼镜,完成上述步骤S1至S3,并让他们分别对不同眼镜的舒适度进行主观评价,分数为1-10。样本数据库包括眼睑间距异常时间百分比x1、眨眼频率x2、眼镜舒适度评价值等数据。
S402、建立多元线性回归模型
多元线性回归模型是指有多个解释变量的线性回归模型,用于揭示被解释变量与其他多个解释变量之间的线性关系,数学模型的公式如下,
y=b0+b1x1+b2x2+ε (17)
其中,b0、b1、b2为模型中的待估计参数,ε为随机误差。将样本数据库中80%的数据导入多元线性回归模型,获得回归模型参数b0、b1、b2
S403、回归检验
将样本数据库剩余的20%数据导入多元线性回归模型中对其有效性进行验证,并根据上述验证结果调整权值b0,b1和b2。就是将多元回归模型计算出来的舒适程度,与数据库里已知的舒适度评价值相比较,如果两者数据比较接近或者能够满足实际需求,即表示模型验证成功,如果两者数据相差较远或者实际要求较高,即可根据模型变量和模型计算结果之间的线性关系,来对模型参数b0,b1和b2进行线性调整,当上述两者数据比较接近时,即可最终确定模型参数。
同时,根据回归模型参数b0、b1、b2,确定眼睑间距和眨眼频率对眼镜舒适度的影响程度,并确定判定为较舒适、舒适、不舒适的y值分值区间。
S404、计算并判断该眼镜的舒适程度
将新的受试者经过步骤S1至S3,得到新受试者的眼睑间距异常时间百分比x1和眨眼频率x2,再将x1和x2代入上述已确定b0、b1、b2值的多元线性回归模型中,获得客观舒适度评价的y值,然后综合眼睑间距和眨眼频率来判断眼镜的舒适程度。
若y值在较舒适区间内,判定为较舒适;若y值在舒适区间内,判定为舒适;若y值在不舒适区间内,判定为不舒适。
实施例1
下面以对某一测试者的数据采集和处理为例,来说明本方法的实施过程。选定某一测试者进行数据采集后,首先让其佩戴眼动仪,并调整设备为正常工作状态,实验时间为三分钟,在自然状态下,连续采集该段时间的眼动数据。
对某时刻所采集眼部图像进行上述步骤S201所述的各个预处理,包括灰度化、去噪、直方图均衡化等图像处理后,得到如图6的(a)图所示预处理结果图像,经边缘检测后,得到图6的(b)图。再对(b)图中图像中的边缘部分进行上述步骤S202所述的椭圆拟合,得到椭圆眼部图像,如图6的(c)图所示。
在得到椭圆眼部图像后,此时刻测量的眼睑间距为d=14.1mm,与该受试者不戴眼镜时测量得到的基础眼睑间距d0=12.6mm相比,由于该眼睑间距大于百分比阈值上限105%,即符合d>105%×d0,所以认定该时刻眼部状态为过度睁眼;同样道理如果此时刻测量的眼睑间距小于百分比阈值上限85%,即当d<85%×d0时,则认定该时刻眼部状态为眯眼。该实例中,由于d>105%×d0,故此时刻的眼部状态为过度睁眼。
在整个实验过程中,眼睑间距异常的时间为4.68秒(其中过度睁眼时间和为2.84秒,眯眼时间和为1.84秒),实验总时长为180秒,则
Figure GDA0002089873730000121
Figure GDA0002089873730000122
根据上述步骤S3计算眨眼频率x2。实验过程的三分钟内,眼动仪总共采集10812条数据,设置一个计数器i,将计数器的初始值设为0,遍历所有眼动数据,每检测到一条眨眼数据,计数器的数值加1,最后得到眨眼次数i=336,则
Figure GDA0002089873730000123
然后重复上述操作,对10位测试者进行眼动数据采集,并将采集和计算结果保存到一个如下表1所示的样本数据库中,样本数据库中包括眼睑间距异常时间百分比x1、眨眼频率x2、眼镜舒适度的主观评分等数据。
表1样本数据库示例
Figure GDA0002089873730000124
Figure GDA0002089873730000131
利用上述样本数据库的前8条数据,使用Matlab中的regress函数建立多元线性回归模型,得到
y=9.2098+(-0.1446)x1+(-9.4360)x2
即b0=9.2098,b1=-0.1446,b2=-9.4360
将剩余后2条数据作为模型验证数据,导入上述模型进行有效性检验,可得到这两名验证者的客观评价分数分别为:
y=9.2098+(-0.1446)×2.6+(-9.4360)×0.031=8.58
y=9.2098+(-0.1446)×17.9+(-9.4360)×0.089=5.78
这个分数与这2名测试者数据库中的主观评价分数十分接近,故视为该多元线性回归模型有效。同时判定较舒适的y值分值区间为[8.5,10],舒适的y值分值区间为[5,8.5),不舒适的y值分值区间为[0,5)。
在评价模型确定后,当需要测试某一个新的受试者的眼镜佩戴舒适程度时,令其佩戴眼动仪并获取眼动数据,经步骤S1至S3后得到的眼睑间距异常时间百分比x1=6.1,眨眼频率x2=0.070,则带入上述确定的模型方程后,得到:
y=9.2098+(-0.1446)×6.1+(-9.4360)×0.070=7.67
因此,可以将这位新的测试者的佩戴舒适度评价为舒适。
除上述实施例外,本发明还可以有其他实施方式。凡采用等同替换或等效变换形成的技术方案,均落在本发明要求的保护范围。

Claims (5)

1.一种基于眼动技术的眼镜佩戴舒适度评价方法,其特征在于,包括以下步骤:
S1、获取受试者一段时间内的眼动数据以及眼部照片;转至步骤S2;
S2、对获取的眼部图像进行处理,并计算眼睑间距异常时间百分比x1;计算眼睑间距异常时间百分比x1的具体方法如下:
S203、测量眼睑间距d以及基础眼睑间距d0,根据d与d0的关系,判断当前眼睛的状态,当d大于d0程度高于预设距离百分比阈值上限时定义为过度睁眼,当d小于d0程度低于预设距离百分比阈值下限时定义为眯眼,将过渡睁眼与眯眼标记为眼睑间距异常,记录眼睑间距异常时间;转至步骤S204;
S204、根据下式计算眼睑间距异常时间百分比x1
眼睑间距异常时间百分比=眼睑间距异常时间/总测试时间;
转至步骤S3;
S3、计算眨眼频率x2;计算眨眼频率x2的具体方法如下:
S301、计数眨眼次数—提取眼动仪所记录的眼动数据,并设置一个计数器i,将计数器的初始值设为0,遍历所有眼动数据,每检测到一条眨眼数据,计数器的数值加1,最后得到眨眼次数;
S302、根据下式计算眨眼频率x2
眨眼频率=眨眼次数/眼动总数据量;
转至步骤S4;
S4、根据眼睑间距异常时间百分比x1和眨眼频率x2,建立多元线性回归模型以判断眼镜的舒适程度;建立多元线性回归模型并判断眼镜的舒适程度的具体方法如下:
S401、选择配戴合适眼镜的人建立样本数据库,样本数据库包括每个人的眼睑间距异常时间百分比x1、眨眼频率x2、眼镜舒适度评价值;
S402、建立多元线性回归模型,公式如下,
y=b0+b1x1+b2x2
其中,b0、b1、b2为模型中的待估计参数,ε为随机误差,将样本数据库的部分数据导入多元线性回归模型,获得回归模型参数b0、b1、b2
S403、根据已经确定的回归模型参数b0、b1、b2,确定眼睑间距和眨眼频率对眼镜舒适度的影响程度,并确定判定为较舒适、舒适、不舒适的y值分值区间;
S404、将受试者的眼睑间距异常时间百分比x1和眨眼频率x2代入多元线性回归模型,获得y值,然后根据眼睑间距和眨眼频率来判断眼镜的舒适程度。
2.根据权利要求1所述一种基于眼动技术的眼镜佩戴舒适度评价方法,其特征在于,在步骤S1中,采用眼动仪记录受试者一段时间内的眼动数据及眼部照片。
3.根据权利要求2所述一种基于眼动技术的眼镜佩戴舒适度评价方法,其特征在于,在步骤S2中,对获取的眼部图像进行处理的具体方法如下:S201、图像预处理,对获取的眼部图像进行预处理,预处理包括图像灰度化、去躁、直方图均衡化和边缘检测;转至步骤S201;
S202、椭圆拟合,采用最小二乘法对预处理后的图像进行椭圆拟合,以得到眼部轮廓。
4.根据权利要求3所述一种基于眼动技术的眼镜佩戴舒适度评价方法,其特征在于,在步骤S202中,椭圆拟合的具体方法如下:
建立椭圆的平面二次曲线方程,
F(A,X)=A·X=ax2+bxy+cy2+dx+ey+f=0 (4)
其中,A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y]T,F(A;Xi)为点[xi,yi]到二次曲线F(A;Xi)=0的代数距离,a、b、c、d、e、f均为系数,T为矩阵的转置;
在满足4ac-b2=1的条件下,求点[xi,yi]到二次曲线F(A;Xi)=0的代数距离平方和最小,即
Figure DEST_PATH_IMAGE001
(5)
其中,N为拟合点的个数;
令DN=[X1X2…XN]T (6)
Figure 570706DEST_PATH_IMAGE002
(7)
DN是N个拟合点的数据集,C为固定联结矩阵,则直接将最小二乘法椭圆拟合问题表示为在ATCA=1条件下,求系数 [a,b,c,d,e,f] 使得
Figure DEST_PATH_IMAGE003
值最小,E代表
Figure 159950DEST_PATH_IMAGE004
的范数值,引入Lagrange算子求解该最小值,可得同解方程组为:
Figure DEST_PATH_IMAGE005
(8)
令S=DTD,上述方程组可分别表示为
SA=λCA (9)
A T CA=1 (10)
对于式(9),可按广义特征值和广义特征向量的方法求得其6组解(λi,μi),任意的μi∈R+μi,其中i=1,2,…6,(λi,μiui)为式(6)的解,且(λi,μiui)需满足式(10),即μi 2ui TCui=1,则有
Figure 126638DEST_PATH_IMAGE006
(11)
根据已知条件可得知只有唯一个广义特征值λi>0和对应的广义特征向量ui,则得到椭圆拟合的唯一解,
Figure DEST_PATH_IMAGE007
(12)
椭圆中心位置(x0,y0)为
Figure DEST_PATH_IMAGE009
将眼睛轮廓线所包含的所有像素点作为拟合数据,通过上述直接最小二乘法拟合出椭圆形状。
5.根据权利要求1所述一种基于眼动技术的眼镜佩戴舒适度评价方法,其特征在于,在步骤S403中,将样本数据库剩余的数据导入多元回归模型中以对其有效性进行验证,并根据验证结果调整权值b0,b1和b2
CN201910183750.XA 2019-03-12 2019-03-12 一种基于眼动技术的眼镜佩戴舒适度评价方法 Active CN110083799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910183750.XA CN110083799B (zh) 2019-03-12 2019-03-12 一种基于眼动技术的眼镜佩戴舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910183750.XA CN110083799B (zh) 2019-03-12 2019-03-12 一种基于眼动技术的眼镜佩戴舒适度评价方法

Publications (2)

Publication Number Publication Date
CN110083799A CN110083799A (zh) 2019-08-02
CN110083799B true CN110083799B (zh) 2022-12-30

Family

ID=67412427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910183750.XA Active CN110083799B (zh) 2019-03-12 2019-03-12 一种基于眼动技术的眼镜佩戴舒适度评价方法

Country Status (1)

Country Link
CN (1) CN110083799B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111513671A (zh) * 2020-01-20 2020-08-11 明月镜片股份有限公司 基于眼部图像的眼镜舒适度评价方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011050734A1 (zh) * 2009-10-30 2011-05-05 深圳市汉华安道科技有限责任公司 疲劳驾驶检测方法、装置及汽车
CN108294759A (zh) * 2017-01-13 2018-07-20 天津工业大学 一种基于cnn眼部状态识别的驾驶员疲劳检测方法
CN108714020A (zh) * 2018-05-18 2018-10-30 中国人民解放军陆军军医大学第三附属医院(野战外科研究所) 便携自适应心理调节仪、实时眼动延时求取方法及存储有计算机程序的计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011050734A1 (zh) * 2009-10-30 2011-05-05 深圳市汉华安道科技有限责任公司 疲劳驾驶检测方法、装置及汽车
CN108294759A (zh) * 2017-01-13 2018-07-20 天津工业大学 一种基于cnn眼部状态识别的驾驶员疲劳检测方法
CN108714020A (zh) * 2018-05-18 2018-10-30 中国人民解放军陆军军医大学第三附属医院(野战外科研究所) 便携自适应心理调节仪、实时眼动延时求取方法及存储有计算机程序的计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
支持向量机回归模型在航空座椅造型眼动评价中的应用;李文华等;《机械科学与技术》;20180709(第11期);全文 *

Also Published As

Publication number Publication date
CN110083799A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
Bharadwaj et al. Biometric quality: a review of fingerprint, iris, and face
KR102056333B1 (ko) 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
JP4767570B2 (ja) 角膜形状解析システム
Anderson et al. The filtered Fourier difference spectrum predicts psychophysical letter similarity in the peripheral retina.
AU2012328140B2 (en) System and method for identifying eye conditions
Kauppi et al. The diaretdb1 diabetic retinopathy database and evaluation protocol.
Mariakakis et al. PupilScreen: using smartphones to assess traumatic brain injury
KR101308368B1 (ko) 홍채 품질 측정을 갖는 홍채 인식 시스템
TWI516828B (zh) Glasses lens design method
Davis et al. Vision-based, real-time retinal image quality assessment
Bartling et al. Automated quality evaluation of digital fundus photographs
US20150157200A1 (en) Objective quality metric for ocular wavefront measurements
CN112700858B (zh) 一种儿童青少年近视预警方法及设备
US7110582B1 (en) Method for determining binocular balance and disorders of binocularity of an individual or clinical groups of individuals
CN110083799B (zh) 一种基于眼动技术的眼镜佩戴舒适度评价方法
Adalarasan et al. Automatic detection of blood vessels in digital retinal images using soft computing technique
Moscaritolo et al. An image based auto-focusing algorithm fordigital fundus photography
US20230020160A1 (en) Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
CN111513671A (zh) 基于眼部图像的眼镜舒适度评价方法
JP7332573B2 (ja) 人の姿勢及び視覚行動を判定する方法
Sumathy et al. Distance-based method used to localize the eyeball effectively for cerebral palsy rehabilitation
CN111259743B (zh) 一种近视图像深度学习识别模型训练方法及系统
Ateiza et al. The effects of anisometropic amblyopia on the FNS and TNO stereotest thresholds in four-to eight-year-olds
Sarangi et al. Evaluation and comparison of retinal blood vessels extraction using edge detectors in diabetic retinopathy
Antony Ammal et al. Metric measures of optic nerve head in screening glaucoma with machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 212300 No.9, ginkgo Road, Danyang Development Zone, Zhenjiang City, Jiangsu Province

Applicant after: Mingyue lens Co.,Ltd.

Address before: 212300 ginkgo Road, Danyang Development Zone, Jiangsu, Zhenjiang 9, China

Applicant before: JIANGSU MINGYUE PHOTOELECTRICS TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant