CN113011286B - 基于视频的深度神经网络回归模型的斜视判别方法及系统 - Google Patents
基于视频的深度神经网络回归模型的斜视判别方法及系统 Download PDFInfo
- Publication number
- CN113011286B CN113011286B CN202110229880.XA CN202110229880A CN113011286B CN 113011286 B CN113011286 B CN 113011286B CN 202110229880 A CN202110229880 A CN 202110229880A CN 113011286 B CN113011286 B CN 113011286B
- Authority
- CN
- China
- Prior art keywords
- face
- neural network
- deep neural
- module
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频的深度神经网络回归模型的斜视判别方法和系统。其中,斜视判别方法从当前简易儿童斜视判断方法的空缺出发,提出利用个人移动设备,拍摄斜视儿童正面转动眼球的视频,交给计算机视觉、深度神经网络相关技术处理的解决方案,并实际解决了方案中最重要的瞳孔关键点定位问题。斜视判别系统包括输入模块、人脸数据采集模块、眼部数据采集模块、标准化处理模块、瞳孔中心标注模块、模型建立模块、图片转化模块、归一化处理模块、坐标回归模块、图片映射模块、距离计算模块、向量处理模块和分类模块,脱离了各种专业斜视检查仪器的限制,利用计算机系统即可完成整套斜视判别工作流程。
Description
技术领域
本发明涉及斜视判别技术领域,具体涉及基于视频的深度神经网络回归模型的斜视判别方法及系统。
背景技术
斜视是儿童常见眼部疾病之一,具体表现为双眼不能同时注视目标,其患病率居于常见儿童眼病第三位。据分析,学龄前儿童是眼部疾病高发群体,斜视就是在人出生后不同年龄阶段逐渐展示出来,虽因类型不同而在年龄段上有所区别,但仍是以儿童时期为主。同时儿童时期也是治疗斜视等眼部疾病的黄金时期,2岁儿童已具备配合眼部检查与纠正的能力,通过早期干预性治疗,将大大提高治疗眼病的效果。相反,如果不能及时得到治疗,可能导致视觉障碍和外观异常,引起复视、混淆视与弱视等并发症,并在心理上引起儿童低自尊感、自卑、社交障碍等性格缺陷,从而严重影响其生存质量。
当前斜视筛查方法仍以传统方法为主,如角膜映光法、视野计检查法、交替遮盖法、单眼遮盖-去遮盖法、双Maddox杆试验法等,而传统医学方法由于小儿眼科医生紧缺、另外儿童的眼球处于动态发育状态,需要多次检查随访才能准确诊断,又因儿童的配合度差完成眼科检查具有一定难度。
在计算机视觉已发展成一门学科,技术越来越成熟的当下,逐渐出现了基于图像处理的筛查方法,此方法往往需要借助各种硬件设备,常见的有眼瞬息图像筛查仪,眼底照相机,红外灯照相机,裂隙灯照相机,眼瞳摄像机等。基于图像处理的筛查方法基本是通过眼瞬息图像筛查仪得到眼部角膜图像后,经过边缘检测等图像处理方法后得到瞳孔与角膜的定位与特征参数数据,再基于角膜映光法的判断条件进行图像分析与处理。诸如中国专利文献CN111973146A中公开了一种斜视检测装置,包括人体固定椅、测量杆和九方位照相仪;其装置可以对患者的头部进行固定,避免其检测过程移位,同时获取检测所需的33cm间距的图像;诸如中国专利文献CN110288567A提供了一种针对眼部的图像分析方法,包括:获取用户的眼部图像;对所获取的眼部图像进行图像分析,获得相应的眼部状态信息。在所得人脸图像上用矩形框标记眼部区域,将所述标记的眼部区域进行截取,形成眼部图像,并基于所述眼部图像,生成眼部图像训练集,包括左眼训练集和右眼训练集,再基于眼部深度学习模型对眼球的倾斜方向点进行判断,确定眼球的倾斜方向点与所述斜视检测模型中的预设方向点之间的差值绝对值是否小于预设差值以判断用户有无斗鸡眼;诸如中国专利文献CN110288567A公开了一种眼瞳图像预处理装置,通过对原始数字图像进行传统图像处理方法如归一化、边缘检测等处理和分析后,提取原始数字图像中的新月形亮区域的面积、角膜映光点与瞳孔的偏移距离以及瞳孔及角膜反光点的边缘,以计算斜视程度。
这些解决方案都需要眼瞳摄像仪、视网膜扫描仪等仪器采集清晰眼底图像再用于模型训练。且任然需要线下诊疗,不易于推广。而有遮挡、光照等复杂场景的斜视检测和判定研究,还停留在比较落后的阶段。加之斜视眼病的判别复杂,须医生多次检测观察眼动轨迹等才能进行诊断,因此依靠单一图片进行斜视眼病的判定,准确性存疑。
因此,提供一种能够脱离各种专业斜视检查仪器的限制,而利用个人移动设备,拍摄斜视儿童正面转动眼球的视频,交给计算机视觉、深度神经网络相关技术处理的解决方案,并给出一种便于使用的完整的斜视判别系统具有很大的研究价值。
发明内容
本发明所要解决的技术问题是克服目前对斜视判别方法的研究仍集中在泛化的人脸识别和物体识别上的缺陷,目的是提供基于视频的深度神经网络回归模型的斜视判别方法和系统,从而实现对现有的斜视判别方法进行改进。
本发明通过下述技术方案实现:
一种基于视频的深度神经网络回归模型的斜视判别方法,包括如下步骤:
步骤1:获取人脸图片样本;
步骤2:根据所述人脸图片样本获取双眼眼周关键点坐标数据集和眼部图片样本;
步骤3:根据所述眼部图片样本利用瞳孔中心标注工具获取双眼的瞳孔检测数据集;
步骤4:根据所述瞳孔检测数据集建立深度神经网络回归模型,并利用所述深度神经网络回归模型计算得到瞳孔中心相对坐标数据集;
步骤5:将所述眼部图片样本映射回所述人脸图片样本中,获得瞳孔中心实际坐标数据集;
步骤6:计算步骤2所述的关键点坐标数据集相对于所述步骤5所述的瞳孔中心实际坐标数据集之间的欧式距离,得到双眼特征向量集合,并将所述双眼特征向量集合用特征向量A和特征向量B表示;
步骤7:将所述特征向量A和特征向量B合并为特征向量C,作为所述步骤1所述的人脸图片样本的特征向量集;
步骤8:对所述特征向量C进行降维处理,得到低维的特征向量C1;
步骤9:建立数据集分类模型,将所述特征向量C1代入所述数据分类模型计算得出分类结果,根据所述分类结果对正常人和斜视患者进行判别。
本发明与现有的斜视判别技术相比,其改进点在于充分利用了计算机视觉和深度神经网络相关技术来实现瞳孔关键点定位,克服了泛化的人脸识别、物体识别的缺陷。其中,步骤3获取双眼的瞳孔检测数据集的关键在于利用瞳孔中心标注工具可以标注瞳孔边缘的三个不在同一平面的点,得到一个三角形。通过求得三角形的外接圆及外接圆圆心以得到准确地定位瞳孔中心坐标。
作为对本发明的进一步描述,步骤1所述获取人脸图片样本的方法为:
步骤1.1:利用普通的可移动拍摄工具拍摄获取多个人脸视频;
步骤1.2:对所述多个人脸视频进行视频帧提取,得到人脸图片样本。
作为对本发明的进一步描述,步骤2所述关键点坐标数据集和眼部图片样本的获取方法为:
步骤2.1:针对所述人脸图片样本,利用人脸检测算法得到人脸关键点坐标数据集,并根据所述人脸坐关键点标数据集建立人脸坐标系;
步骤2.2:根据所述人脸关键点坐标数据集对双眼进行关键点定位,得到双眼眼周的关键点坐标数据集;
步骤2.3:根据所述双眼眼周关键点坐标数据集,从所述人脸图片样本中提取出双眼的眼部图片样本。
作为对本发明的进一步改进,在步骤3之前,对所述眼部图片样本进行标准化处理,使所述眼部图片样本中的每张图片具有统一的尺寸,得到标准化眼部图片样本;并记录所述标准化眼部图片样本中每张图片的缩放比例。
作为对本发明的进一步描述,步骤4所述深度神经网络回归模型的建立方法为:
步骤4.1:根据所述瞳孔检测数据集建立初始深度神经网络回归模型;
步骤4.2:将所述瞳孔检测数据集对应的眼部图片样本转化为用张量集表示,得到图像张量集;
步骤4.3:将所述图像张量集和所述图像张量集对应的标注数据输入所述初始深度神经网络回归模型进行训练,计算得到模型参数;将所述模型参数代入所述初始深度神经网络回归初始化模型,得到最终的深度神经网络回归模型。
作为对本发明的进一步描述,步骤5所述瞳孔中心相对坐标数据集的获取方法为:将所述步骤4.2所述的归一化向量集代入所述深度神经网络回归模型中,计算得到瞳孔中心相对坐标数据集。
作为对本发明的进一步改进,在步骤7之前对步骤6所述的特征向量A和特征向量B进行归一化处理,消除图片分辨率、人脸与摄像头的拍摄距离影响因素对所得数据的影响。
作为对本发明的进一步描述,步骤8所述对特征向量集C进行降维处理采用的降维模型为PCA降维模型;所述步骤9所述分类模型为带有高斯核的SVM模型。
一种基于视频的深度神经网络回归模型的斜视判别系统,包括:
输入模块,用于将拍摄得到的多个人脸视频输入到斜视判别系统中;
人脸数据采集模块,用于对输入的所述多个人脸视频进行处理,获取人脸图片样本和人脸关键点数据集;
眼部数据采集模块,用于从所述人脸图片样本中获取双眼眼周的眼部图片,形成眼部图片样本,以及从人脸关键点数据集中获取双眼眼周的关键点数据;
标准化处理模块,用于对眼部图片样本进行标准化处理,使所述眼部图片样本中的每张图片具有统一的尺寸,得到标准化眼部图片样本;
瞳孔中心标注模块,用于对所述眼部图片样本进行数据标注,获取瞳孔检测数据集;
图片转化模块,用于将标准化眼部图片样本中的图片转化为用张量表示;
模型管理模块,用于管理深度神经网络回归模型;
坐标回归模块,用于将归一化图像张量输入深度神经网络回归模型中,并计算获得瞳孔中心相对坐标数据;
图片映射模块,用于将瞳孔中心相对坐标数据映射回所述人脸图片样本中,获得瞳孔中心实际坐标数据集;
距离计算模块,用于计算双眼眼周关键点坐标数据集相对于瞳孔中心实际坐标数据集之间的欧式距离,并对所述欧式距离进行归一化处理,得到初始双眼特征向量集;
向量处理模块,用于对初始双眼特征向量集进行合并和降维处理,得到二维特征向量;
分类模块:用于将得到的二维特征向量集代入分类模型中,计算获得分类结果,并将分类结果输出。
作为对本发明的进一步描述,
所述人脸数据采集模块,包括人脸图片样本采集单元体和人脸关键点数据集采集单元,所述人脸图片样本采集单元,用于对所述多个人脸视频进行视频帧提取,获得人脸图片样本;所述人脸关键点数据采集单元,用于运用人脸检测算法从所述人脸图片样本中获取人脸关键点坐标数据集;
所述眼部数据采集模块,包括双眼眼周关键点坐标数据提取单元和眼部图片提取单元,所述双眼眼周关键点坐标数据单元,用于从人脸关键点坐标数据中提取出双眼眼部关键点坐标数据;所述眼部图片提取单元,用于从人脸图片样本中提取出眼部图片样本;
所述模型管理模块,包括模型初始化单元、模型参数计算单元和模型存储单元,所述模型初始化单元,用于存储初始深度神经网络回归模型,供计算模型参数时调用;所述参数计算单元,用于计算深度神经网络回归模型参数,并将所述深度神经网络回归模型参数代入所述初始深度神经网络回归模型,得到最终的深度神经网络回归模型;所述模型存储单元,用于存储最终的深度神经网络回归模型,供坐标回归时调用;
所述向量处理模块,包括向量合并单元和向量降维单元,所述向量合并单元用于将特征向量A和特征向量B合并为特征向量C;所述向量降维单元,用于将特征向量集C进行降维处理,获得低维的特征向量集C1。
本发明与现有技术相比,具有如下的优点和有益效果:
1.本发明区别于传统的依赖于专业的硬件设备来进行斜视判别,采用普通的个人可移动设备即可进行斜视检测样本的采集,更适于普及;
2.本发明通过不断优化用于瞳孔定位的深度神经网络参数,能有效提升人脸图片的瞳孔定位的准确性和灵敏性,泛化性提高,为进一步的斜视判定提供了良好的特征;
3.本发明填补了当前没有简易的儿童斜视判断装置的空白,为人们生活节约时间、经济成本;
4.本发明提出的基于视频的斜视判别,解决基于单一图片的斜视判别方法的准确性存疑的问题。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为基于深度神经网络回归的斜视判别方法流程图。
图2为基于深度神经网络回归的斜视判别系统结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1:
如图1所示,本发明基于视频的深度神经网络回归模型的斜视判别方法,包括以下步骤:
步骤1,利用一台家用摄像机采集200个清晰的婴幼儿人脸视频,并对这200个采集得到的婴幼儿人脸视频进行视频筛选,将冗余的、未呈现人脸的视频舍弃,仅保留能准确捕获到人脸区域的有效人脸视频。然后,对所有有效人脸视频进行视频帧提取,得到人脸图片样本。
步骤2,对步骤1得到的人脸图片样本进行人脸检测及人脸关键点检测,获得人脸关键点数据集,并根据人脸关键点数据集建立人脸坐标系。然后,利用关键点定位算法,从每一张人脸图片中进行眼部关键点检测,可检测到双眼眼周的共12个关键点坐标,根据双眼眼周的这12个关键点坐标,即可从人脸关键点数据集中提取出双眼眼周的关键点数据集。接下来,根据双眼眼周的关键点数据集,从每张人脸图片中裁剪出眼周区域图片,得到眼部图片样本。
步骤3:对步骤2裁剪出的所有眼部图片,利用自研瞳孔中心标注工具可以在瞳孔边缘标注出三个点,分别为P1(X1,Y1)、P2(X2,Y2)、P3(X3,Y3),连接P1、P2、P3这三个点可得到一个三角形。通过求得此三角形的外接圆及外接圆圆心(X,Y)即可得到准确的瞳孔中心坐标位置,从而获得瞳孔检测数据集。其中,外接圆圆形(X,Y)的计算公式为:
X=((B-C)*Y1+(C-A)*Y2+(A-B)*Y3)/(2*G)
Y=((C-B)*X1+(A-C)*X2+(B-A)*X3)/(2*G),
其中,A=X1^2+Y1^2,B=X2^2+Y2^2,C=X3^2+Y3^2,
G=(Y3-Y2)*X1+(Y1-Y3)*X2+(Y2-Y1)*X3
步骤4:根据步骤3获得的瞳孔检测数据集,建立深度神经网络回归模型,并利用深度神经网络回归模型计算得到瞳孔中心相对坐标数据集。其中,建立深度神经网络回归模型的方法为:
(1)对步骤2得到的眼部图片样本进行标准化处理,使眼部图片样本中的所有眼部图片变为128*64*3的尺寸,得到标准化眼部图片样本;
(2)对标准化眼部图片样本中的每张图片转换为用张量表示,并对张量进行归一化处理,得到归一化张量集;
(3)建立初始深度神经网络回归模型;
(4)将归一化张量集代入初始深度神经网络回归模型进行训练,计算得到参数,并得到最终的深度神经网络回归模型。
最后将归一化向量集代入最终得到的深度神经网络回归模型中,计算得到瞳孔中心相对坐标数据集。
步骤5:将获取眼部图片样本过程中得到的所有眼部关键点坐标映射回步骤2建立的人脸坐标系中,即可获得瞳孔中心在人脸图片样本中的坐标数据集。
步骤6:计算瞳孔中心在人脸图片样本中的坐标数据集相对于眼部关键点坐标数据集之间的欧式距离,得到欧式距离数据集,并将欧式距离数据集用特征向量集A和特征向量集B表示,其中特征向量A和特征向量B中的每个特征向量均为6维。
步骤7:将特征向量集A和特征向量集B合并为特征向量集C,作为所述步骤1所述的人脸图片样本的特征向量集。其中特征向量集C中的每个特征向量为12维。
步骤8:利用PCA降维模型对特征向量集C进行降维处理,得到低维的特征向量集C1,特征向量集C1中的每一个特征向量均为2维。其中,对特征向量集C进行降维处理的原理及步骤如下:
设有m条n维数据,(1)将原始数据按列组成n行m列矩阵X;(2)将矩阵X的每一行进行零均值化;(3)求出协方差矩阵(4)求出协方差矩阵的特征值及对应的特征向量;(5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前K行组成矩阵P;(6)Y=PX即为降维到K维后的数据。
步骤9:建立带有高斯核函数的SVM模型,将所述特征向量集C1代入所述带有高斯核函数的SVM模型计算得出分类结果,根据所述分类结果对正常人和斜视患者进行判别。
实施例2:
如图2所示,一种基于深度神经网络回归模型的斜视判别系统,包括:
输入模块,用于将拍摄得到的多个人脸视频输入到斜视判别系统中;
人脸数据采集模块,用于对输入的所述多个人脸视频进行处理,获取人脸图片样本和人脸关键点数据集;
眼部数据采集模块,用于从所述人脸图片样本中获取双眼眼周的眼部图片,形成眼部图片样本,以及从人脸关键点数据集中获取双眼眼周的关键点数据,形成关键点数据集;
标准化处理模块,用于对眼部图片样本进行标准化处理,使所述眼部图片样本中的每张图片具有统一的尺寸,得到标准化眼部图片样本;
瞳孔中心标注模块,用于对所述眼部图片样本进行数据标注,获取瞳孔检测数据集;
模型建立模块,用于建立深度神经网络回归模型和分类模型;
图片转化模块,用于将标准化眼部图片样本中的图片转化为用向量表示,得到向量集;
归一化处理模块,用于对向量集中的向量进行归一化处理,得到归一化向量集;
坐标回归模块,用于将归一化向量集代入深度神经网络回归模型中,并计算获得瞳孔中心相对坐标数据集;
图片映射模块,用于将眼部图片样本映射回所述人脸图片样本中,获得瞳孔中心实际坐标数据集;
距离计算模块,用于计算关键点坐标数据集相对于瞳孔中心实际坐标数据集之间的欧式距离,得到欧式距离数据集;
向量处理模块,用于对初始双眼特征向量集进行合并和降维处理,得到二维特征向量;
分类模块:用于将得到的二维特征向量集代入分类模型中,计算获得分类结果,并将分类结果输出。
所述人脸数据采集模块,包括人脸图片样本采集单元体和人脸关键点数据集采集单元,所述人脸图片样本采集单元,用于对所述多个人脸视频进行视频帧提取,获得人脸图片样本;所述人脸关键点数据采集单元,用于运用人脸检测算法从所述人脸图片样本中获取人脸关键点坐标数据集;
所述眼部数据采集模块,包括双眼眼周关键点坐标数据提取单元和眼部图片提取单元,所述双眼眼周关键点坐标数据单元,用于从人脸关键点坐标数据中提取出双眼眼部关键点坐标数据;所述眼部图片提取单元,用于从人脸图片样本中提取出眼部图片样本;
所述模型管理模块,包括模型初始化单元、模型参数计算单元和模型存储单元,所述模型初始化单元,用于存储初始深度神经网络回归模型,供计算模型参数时调用;所述参数计算单元,用于计算深度神经网络回归模型参数,并将所述深度神经网络回归模型参数代入所述初始深度神经网络回归模型,得到最终的深度神经网络回归模型;所述模型存储单元,用于存储最终的深度神经网络回归模型,供坐标回归时调用;
所述向量处理模块,包括向量合并单元和向量降维单元,所述向量合并单元用于将特征向量A和特征向量B合并为特征向量C;所述向量降维单元,用于将特征向量集C进行降维处理,获得低维的特征向量集C1。其中,人脸数据采集模块,包括人脸图片样本采集单元体和人脸关键点数据集采集单元,所述人脸图片样本采集单元,用于对所述多个人脸视频进行视频筛选和视频帧提取,获得人脸图片样本;所述人脸关键点数据采集单元,用于运用人脸检测算法从所述人脸图片样本中获取人脸关键点数据集;
使用时,利用输入模块将拍摄得到的200个婴幼儿人脸视频输入到人脸数据采集模块中的人脸图片样本采集单元中,由人脸图片样本采集单元对拍摄得到的200个人脸视频进行视频筛选和视频帧提取,获得人脸图片样本,并将人脸图片样本传送给人脸数据采集模块中的人脸关键点数据集采集单元。人脸关键点数据采集单元根据接收到的人脸图片样本,运用人脸检测算法从人脸图片样本中获取人脸关键点数据集,并将人脸关键点数据集传送给眼部数据采集模块中的关键点坐标数据提取单元。
关键点坐标数据提取单元根据接收到的人脸关键点数据集,从人脸关键点坐标数据集中提取出眼部关键点坐标数据集,并将关键点坐标数据集发送给眼部图片提取单元;眼部图片提取单元根据眼部关键点坐标数据集,从人脸图片样本中提取出眼部图片样本,并将眼部图片样本发送给标准化处理模块。
标准化处理模块将接收到的眼部图片样本中的每张图片调整为128*64*3的尺寸,从而得到标准化眼部图片样本,并将标准化眼部图片样本发送给瞳孔中心标注模块,对眼部图片样本进行数据标注,获取瞳孔检测数据集,并将瞳孔检测数据集发送给模型建立模块中的参数计算单元。
根据瞳孔检测数据集构建深度申请网络回归初始化模型,并将深度神经网络回归初始化模型存入模型建立模块的模型初始化单元中;模型建设模块中的参数计算单元调用模型初始化单元中的初始深度神经网络回归模型,同时从标准化处理模块中调取标准化眼部图片样本并代入初始深度神经网络回归模型中,计算得到模型参数,并得到最终的深度神经网络回归模型;参数计算单元将建立完成的深度神经网络回归模型和标准化眼部图片样本同时发送给坐标回归模块。
坐标回归模块利用接收到的深度神经网络回归模型和标准化眼部图片样本进行计算,得出瞳孔中心相对坐标数据集。值得注意的是,在回归坐标模块进行计算之前,可选择利用归一化处理模块对标准化图片样本进行归一化处理。
图片映射模块从标准化处理模块中调取标准化眼部图片样本,并将标准化眼部图片样本映射回所述人脸图片样本中,从而获得瞳孔中心实际坐标数据集;
距离计算模块从图片映射模块中获取瞳孔中心实际坐标数据集,并从眼部关键点采集单元中调取眼部关键点坐标数据集,计算眼部关键点坐标数据集相对于瞳孔中心实际坐标数据集之间的欧式距离,得到欧式距离数据集,将欧式距离数据集用特征向量集A和特征向量集B表示。
向量处理模块将距离计算模块中的特征向量集A和特征向量集B合并为特征向量集C,并对特征向量集C做降维处理得到低维的特征向量集C1。
最后,由分类模块调用分类模型,对特征向量集C1进行分类计算,将分类结果发送至判别输出模块将判别结果输出。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,包括以下步骤:
步骤1:获取人脸图片样本;
步骤2:根据所述人脸图片样本获取双眼眼周关键点坐标数据集和眼部图片样本;
步骤3:根据所述眼部图片样本利用瞳孔中心标注工具获取双眼的瞳孔检测数据集;
步骤4:根据所述瞳孔检测数据集建立深度神经网络回归模型,并利用所述深度神经网络回归模型计算得到瞳孔中心相对坐标数据集;
步骤5:将所述眼部图片样本映射回所述人脸图片样本中,获得瞳孔中心实际坐标数据集;
步骤6:计算步骤2所述的关键点坐标数据集相对于所述步骤5所述的瞳孔中心实际坐标数据集之间的欧式距离,得到双眼特征向量集合,并将所述双眼特征向量集合用特征向量A和特征向量B表示;
步骤7:将所述特征向量A和特征向量B合并为特征向量C,作为所述步骤1所述的人脸图片样本的特征向量集;
步骤8:对所述特征向量C进行降维处理,得到低维的特征向量C1;
步骤9:建立数据集分类模型,将所述特征向量C1代入所述数据集分类模型计算得出分类结果,根据所述分类结果对正常人和斜视患者进行判别。
2.根据权利要求1所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,所述步骤1所述获取人脸图片样本的方法为:
步骤1.1:利用普通的可移动拍摄工具拍摄获取多个人脸视频;
步骤1.2:对所述多个人脸视频进行视频帧提取,得到人脸图片样本。
3.根据权利要求1或2所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,所述步骤2所述双眼眼周关键点坐标数据集和眼部图片样本的获取方法为:
步骤2.1:针对所述人脸图片样本,利用人脸检测算法得到人脸关键点坐标数据集,并根据所述人脸坐标关键点数据集建立人脸坐标系;
步骤2.2:根据所述人脸关键点坐标数据集对双眼进行关键点定位,得到双眼眼周的关键点坐标数据集;
步骤2.3:根据所述双眼眼周关键点坐标数据集,从所述人脸图片样本中提取出双眼的眼部图片样本。
4.根据权利要求1所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,在所述步骤3之前,对所述眼部图片样本进行标准化处理,使所述眼部图片样本中的每张图片具有统一的尺寸,得到标准化眼部图片样本;并记录所述标准化眼部图片样本中每张图片的缩放比例。
5.根据权利要求1所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,所述步骤4所述深度神经网络回归模型的建立方法为:
步骤4.1:根据所述瞳孔检测数据集建立初始深度神经网络回归模型;
步骤4.2:将所述瞳孔检测数据集对应的眼部图片样本转化为张量集表示,得到图像张量集;
步骤4.3:将所述图像张量集和所述图像张量集对应的标注数据输入所述初始深度神经网络回归模型进行训练,计算得到模型参数;将所述模型参数代入所述初始深度神经网络回归模型,得到最终的深度神经网络回归模型。
6.根据权利要求5所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,所述步骤4所述瞳孔中心相对坐标数据集的获取方法为:将所述步骤2所述的眼部图像样本转换为张量后输入所述深度神经网络回归模型中,计算得到瞳孔中心相对坐标数据集。
7.根据权利要求1所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,在所述步骤7之前对所述步骤6所述的特征向量A和特征向量B进行归一化处理,消除图片分辨率、人脸与摄像头的拍摄距离影响因素对所得数据的影响。
8.根据权利要求1所述的基于视频的深度神经网络回归模型的斜视判别方法,其特征在于,所述步骤8所述对特征向量C进行降维处理采用的降维模型为PCA降维模型;所述步骤9所述分类模型为带有高斯核的SVM模型。
9.基于视频的深度神经网络回归模型的斜视判别系统,其特征在于,包括:
输入模块,用于将拍摄得到的多个人脸视频输入到斜视判别系统中;
人脸数据采集模块,用于对输入的所述多个人脸视频进行处理,获取人脸图片样本和人脸关键点数据集;
眼部数据采集模块,用于从所述人脸图片样本中获取双眼眼周的眼部图片,形成眼部图片样本,以及从人脸关键点数据集中获取双眼眼周的关键点数据;
标准化处理模块,用于对眼部图片样本进行标准化处理,使所述眼部图片样本中的每张图片具有统一的尺寸,得到标准化眼部图片样本;
瞳孔中心标注模块,用于对所述眼部图片样本进行数据标注,获取瞳孔检测数据集;
图片转化模块,用于将标准化眼部图片样本中的图片转化为用张量表示;
模型管理模块,用于管理深度神经网络回归模型;
坐标回归模块,用于将归一化图像张量输入深度神经网络回归模型中,并计算获得瞳孔中心相对坐标数据;
图片映射模块,用于将瞳孔中心相对坐标数据映射回所述人脸图片样本中,获得瞳孔中心实际坐标数据集;
距离计算模块,用于计算双眼眼周关键点坐标数据集相对于瞳孔中心实际坐标数据集之间的欧式距离,并对所述欧式距离进行归一化处理,得到初始双眼特征向量集;
向量处理模块,用于对初始双眼特征向量集进行合并和降维处理,得到二维特征向量;
分类模块:用于将得到的二维特征向量集代入分类模型中,计算获得分类结果,并将分类结果输出。
10.根据权利要求9所述的基于视频的深度神经网络回归模型的斜视判别系统,其特征在于,
所述人脸数据采集模块,包括人脸图片样本采集单元和人脸关键点数据集采集单元;所述人脸图片样本采集单元,用于对所述多个人脸视频进行视频帧提取,获得人脸图片样本;所述人脸关键点数据采集单元,用于运用人脸检测算法从所述人脸图片样本中获取人脸关键点坐标数据集;
所述眼部数据采集模块,包括双眼眼周关键点坐标数据提取单元和眼部图片提取单元,所述双眼眼周关键点坐标数据提取单元,用于从人脸关键点坐标数据中提取出双眼眼部关键点坐标数据;所述眼部图片提取单元,用于从人脸图片样本中提取出眼部图片样本;
所述模型管理模块,包括模型初始化单元、模型参数计算单元和模型存储单元,所述模型初始化单元,用于存储初始深度神经网络回归模型,供计算模型参数时调用;所述参数计算单元,用于计算深度神经网络回归模型参数,并将所述深度神经网络回归模型参数代入所述初始深度神经网络回归模型,得到最终的深度神经网络回归模型;所述模型存储单元,用于存储最终的深度神经网络回归模型,供坐标回归时调用;
所述向量处理模块,包括向量合并单元和向量降维单元,所述向量合并单元用于将初始双眼特征向量集合并为特征向量C;所述向量降维单元,用于将特征向量集C进行降维处理,获得低维的特征向量集C1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110229880.XA CN113011286B (zh) | 2021-03-02 | 2021-03-02 | 基于视频的深度神经网络回归模型的斜视判别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110229880.XA CN113011286B (zh) | 2021-03-02 | 2021-03-02 | 基于视频的深度神经网络回归模型的斜视判别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113011286A CN113011286A (zh) | 2021-06-22 |
CN113011286B true CN113011286B (zh) | 2022-09-09 |
Family
ID=76402296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110229880.XA Active CN113011286B (zh) | 2021-03-02 | 2021-03-02 | 基于视频的深度神经网络回归模型的斜视判别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113011286B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109431449A (zh) * | 2018-11-23 | 2019-03-08 | 长春奥普光电技术股份有限公司 | 一种隐斜视检测系统及方法 |
CN109446892A (zh) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015525597A (ja) * | 2012-07-06 | 2015-09-07 | アイリス・メディカル・テクノロジーズ・リミテッド | 斜視検出 |
CN107007248A (zh) * | 2017-04-17 | 2017-08-04 | 广州视景医疗软件有限公司 | 一种基于人工智能的斜视筛查方法、服务器及系统 |
CN108830283B (zh) * | 2018-06-15 | 2020-10-20 | 阿依瓦(北京)技术有限公司 | 一种图像特征点匹配方法 |
CN110969061A (zh) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | 神经网络训练、视线检测方法和装置及电子设备 |
CN110111316B (zh) * | 2019-04-26 | 2023-07-18 | 广东工业大学 | 基于眼部图像识别弱视的方法及系统 |
WO2020230908A1 (ko) * | 2019-05-10 | 2020-11-19 | 경상대학교병원 | 사시진단어플리케이션 및 이를 갖는 사시진단장치 |
CN110659596A (zh) * | 2019-09-11 | 2020-01-07 | 高新兴科技集团股份有限公司 | 案管场景下人脸关键点定位方法、计算机存储介质及设备 |
CN112329699A (zh) * | 2020-11-19 | 2021-02-05 | 北京中科虹星科技有限公司 | 一种像素级精度的人眼注视点定位方法 |
-
2021
- 2021-03-02 CN CN202110229880.XA patent/CN113011286B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446892A (zh) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及系统 |
CN109431449A (zh) * | 2018-11-23 | 2019-03-08 | 长春奥普光电技术股份有限公司 | 一种隐斜视检测系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113011286A (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111933275B (zh) | 一种基于眼动与面部表情的抑郁评估系统 | |
WO2018201632A1 (zh) | 用于识别眼底图像病变的人工神经网络及系统 | |
EP3373798B1 (en) | Method and system for classifying optic nerve head | |
WO2018201633A1 (zh) | 基于眼底图像的糖尿病视网膜病变识别系统 | |
Miao et al. | Virtual reality-based measurement of ocular deviation in strabismus | |
CN109712710B (zh) | 一种基于三维眼动特征的婴幼儿发育障碍智能评估方法 | |
CN105095840B (zh) | 基于眼震影像的多方向上眼震信号提取方法 | |
Haque et al. | Deep convolutional neural networks and transfer learning for measuring cognitive impairment using eye-tracking in a distributed tablet-based environment | |
US20210259546A1 (en) | Portable system for identifying potential cases of diabetic macular oedema using image processing and artificial intelligence | |
Loureiro et al. | Using a skeleton gait energy image for pathological gait classification | |
CN112232128B (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
GB2591910A (en) | Preprocessing method for performing quantitative analysis on fundus image, and storage device | |
Leli et al. | Near-infrared-to-visible vein imaging via convolutional neural networks and reinforcement learning | |
Garcia et al. | Evaluation of a Hirschberg test-based application for measuring ocular alignment and detecting strabismus | |
CN113011286B (zh) | 基于视频的深度神经网络回归模型的斜视判别方法及系统 | |
CN113558564B (zh) | 一种基于单纯高度近视数据库构建的数据处理系统 | |
Aloudat et al. | Histogram analysis for automatic blood vessels detection: First step of IOP | |
Mengash et al. | Methodology for Detecting Strabismus through Video Analysis and Intelligent Mining Techniques. | |
Biswas et al. | Investigation of bilateral similarity in central retinal blood vessels | |
Hiremath et al. | Retracted: Identification of Efficient Features for Detection of diabetes through Iris patterns | |
Giancardo et al. | Quality analysis of retina images for the automatic diagnosis of diabetic retinopathy | |
Sherwani et al. | Automated segmentation of optic disc boundary and diameter calculation using fundus imagery | |
US20240081641A1 (en) | System for strabismus assessment and a method of strabismus assessment | |
Dao et al. | A Fast Balance Test Method of Screening for Vestibular Disorders Using Low Cost Camera and Personal Computer | |
Reji et al. | Computer Aided Detection Of Strabismus In Humans Using Computer Vision Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |