CN106943116B - 一种婴幼儿视力自动检测方法 - Google Patents
一种婴幼儿视力自动检测方法 Download PDFInfo
- Publication number
- CN106943116B CN106943116B CN201710147362.7A CN201710147362A CN106943116B CN 106943116 B CN106943116 B CN 106943116B CN 201710147362 A CN201710147362 A CN 201710147362A CN 106943116 B CN106943116 B CN 106943116B
- Authority
- CN
- China
- Prior art keywords
- test
- sample
- card
- infant
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
Abstract
本发明涉及一种婴幼儿视力自动检测方法,包括以下步骤:S1.同步记录出示Teller视力卡的视频图像及被检测者的视频图像;S2.通过出示Teller视力卡的视频图像确定视力卡展示窗口位置及相应的视力卡展示时段,并从被检测者的视频图像中提取与视力卡展示时段相应的片段进行步骤S3~S8的操作;S3.使用AdaBoost算法训练出对人脸识别效果最优的强分类器;S4.将强分类器进行级联,得到筛选式级联分类器;S5.对步骤S2提取的片段进行分解,得到视频帧的集合,然后对集合中的每一帧视频帧进行步骤S6~S7的操作:S6.使用筛选式级联分类器对视频帧进行检测,确定其人脸区域;S7.通过SURF算法确定人脸区域中的兴趣点位置,然后根据兴趣点邻域的Haar小波响应来确定SURF描述子;S8.对视频帧集合中任意相邻的两帧图像的SURF描述子计算其相似度,若计算的相似度大于所设定的阈值,则匹配成功,婴幼儿的眼睛发生了移动;此时通过视力卡对应的条栅级别即可确定婴幼儿的视力水平。
Description
技术领域
本发明涉及图像处理领域,更具体地,涉及一种婴幼儿视力自动检测方法。
背景技术
和年龄稍大的儿童相较,3岁以下的婴幼儿没有表达语言或者肢体能力,智力水平及识别力水平较低,注意力不能较长时间保持集中,很难配合常规视力检查工作。因此在1985年Mc Donald等人设计完成Teller视力卡,Teller视力卡主要是由17张条栅卡和1张空白卡组成,主要应用于3岁以下无语言表达能力的婴幼儿和神经系统发育异常有认识障碍或语言障碍的儿童。Teller视力卡检测婴幼儿视力的具体原理过程如下:向婴幼儿出示不同的条栅卡,若婴幼儿的眼睛移动,则表示其能看到相应条栅卡的条栅,通过条栅卡对应的条栅级别即可确定其视力水平。但是,上述操作过程中主要是通过人工方式来判断婴幼儿的眼睛是否发生移动,人为的误判率较高,检测的精度不理想。
发明内容
本发明为解决以上婴幼儿视力检测方法误判率高、检测精度不理想的缺陷,提供了一种应用图像处理技术来对婴幼儿视力进行检测的方法,该方法的误判率低、检测的精度与现有技术相比得到了提高。
为实现以上发明目的,采用的技术方案是:
一种婴幼儿视力自动检测方法,包括以下步骤:
S1.同步记录出示Teller视力卡的视频图像及被检测者的视频图像;
S2.通过出示Teller视力卡的视频图像确定视力卡展示窗口位置及相应的视力卡展示时段,并从被检测者的视频图像中提取与视力卡展示时段相应的片段进行步骤S3~S8的操作;
S3.使用AdaBoost算法训练出对人脸识别效果最优的强分类器;
S4.将强分类器进行级联,得到筛选式级联分类器;
S5.对步骤S2提取的片段进行分解,得到视频帧的集合,然后对集合中的每一帧视频帧进行步骤S6~S7的操作:
S6.使用筛选式级联分类器对视频帧进行检测,确定其人脸区域;
S7.通过SURF算法确定人脸区域中的兴趣点位置,然后根据兴趣点邻域的Haar小波响应来确定SURF描述子;
S8.对视频帧集合中任意相邻的两帧图像的SURF描述子计算其相似度,若计算的相似度大于所设定的阈值,则匹配成功,婴幼儿的眼睛发生了移动;此时通过视力卡对应的条栅级别即可确定婴幼儿的视力水平。
优选地,所述步骤S3训练强分类器的具体过程如下:
S11.给定的训练样本集共包括N个样本,其中N个样本中包括X个人脸样本和Y个非人脸样本;设定训练的最大循环次数T;
S12.初始化各个训练样本的权重为1/N;
S13.第一轮迭代训练N个样本,得到第一个最优弱分类器;
S14.提高上一轮训练中被误判的样本的权重;
S15.将新的样本与上一轮训练中被误判的样本放在一起进行新一轮的训练;
S16.循环执行步骤S14、S15,T轮后得到T个最优弱分类器;
S17.以加权求和的方式组合T个最优弱分类器得到强分类器。
优选地,所述人脸样本和非人脸样本使用Haar-like特征来表征,并利用计算积分图的方法来加快特征数值的计算。
与现有技术相比,本发明的有益效果是:
(1)通过图像处理技术来对婴幼儿视力进行检测,其误判率低、检测的精度与现有技术相比得到了提高。
(2)通过视力卡展示时段来确定检测时段,达到缩减处理视频的时间、减少计算机处理数据、提高视频检测的实时性的技术效果。
(3)本发明提供的方法首先对人脸脸部进行检测,然后再在检测到的人脸区域中确定眼睛的具体位置,提高了检测的效率。
附图说明
图1为方法的的流程示意图。
图2为筛选式级联分类器的示意图。
图3为Hessian矩阵行列式近似值图像与与图像的对比图。
图4为积分图简化的示意图。
图5为SURF算法的金字塔图像示意图。
图6为SURF算法主方向确定过程的示意图。
图7为Haar小波特征的计算示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所示,本发明提供的方法主要是包括以下步骤:
S1.同步记录出示Teller视力卡的视频图像及被检测者的视频图像;
S2.通过出示Teller视力卡的视频图像确定视力卡展示窗口位置及相应的视力卡展示时段,并从被检测者的视频图像中提取与视力卡展示时段相应的片段进行步骤S3~S8的操作;
S3.使用AdaBoost算法训练出对人脸识别效果最优的强分类器;
S4.将强分类器进行级联,得到筛选式级联分类器;
S5.对步骤S2提取的片段进行分解,得到视频帧的集合,然后对集合中的每一帧视频帧进行步骤S6~S7的操作:
S6.使用筛选式级联分类器对视频帧进行检测,确定其人脸区域;
S7.通过SURF算法确定人脸区域中的兴趣点位置,然后根据兴趣点邻域的Haar小波响应来确定SURF描述子;
S8.对视频帧集合中任意相邻的两帧图像的SURF描述子进行对比,判断其是否一致,若存在着SURF描述子不一致的相邻两帧图像,则判断婴幼儿的眼睛发生了移动;此时通过视力卡对应的条栅级别即可确定婴幼儿的视力水平。
其中,步骤S2中,确定视力卡展示窗口及相应的视力卡展示时段的具体原理如下:
1)确定展示窗口位置并标定
视力卡展示窗口有着自己独特的图像特征,在任意检测视频中,展示窗口的外部上下部分在Y轴方向上都是有规律的,即在Y轴正方向上展示窗口外的二值图像的像素值由白变为黑,而在Y轴反方向上展示窗口外的二值图像的像素值由白变为黑。因此,可以通过图像预处理将原视频帧的右半部分图像变为二值图像,然后假设某一条Y轴方向的检测线,只要检测线满足上述条件,便认定此检测线是穿过展示窗口的,为了便于观察,可用白色圆形图案进行标定。
2)确定视力卡展示时段
在窗口位置定位并标定完成后,高效准确地确定Teller视力卡展示时段就是当务之急。因为Teller视力卡的条栅间隔不同,故在二值图像上效果就不一样,假设此前选取的检测线位置刚好处在Teller视力卡黑色条栅处,那么就会出现漏检的情况,为了解决这个问题,选取合适的三条检测线,这样无论Teller视力卡的条栅怎样变化,三条检测线中至少有一条是满足条件的。此外,在没有视力卡和展示视力卡两种情况下,展示窗口位置的检测线上的像素差别还是很大的,由此判断视力卡的展示时间。
在具体的实施过程中,所述步骤S3训练强分类器的具体过程如下:
S11.给定的训练样本集共包括N个样本,其中N个样本中包括X个人脸样本和Y个非人脸样本;设定训练的最大循环次数T;
S12.初始化各个训练样本的权重为1/N;
S13.第一轮迭代训练N个样本,得到第一个最优弱分类器;
S14.提高上一轮训练中被误判的样本的权重;
S15.将新的样本与上一轮训练中被误判的样本放在一起进行新一轮的训练;
S16.循环执行步骤S14、S15,T轮后得到T个最优弱分类器;
S17.以加权求和的方式组合T个最优弱分类器得到强分类器。
步骤S4中通过瀑布(Cascade)算法将分类器的连接方式变为筛选式的级联分类器,级联的每个节点是AdaBoost训练得到的强分类器,在级联的每个节点设置阈值,其中阈值能使得几乎所有人脸样本都能通过,而绝大部分非人脸样本不能通过。通过分类器级联的方式能够保证高检测率和低拒绝率。一般情况下,高检测率必然会导致高误识率,这是强分类阈值划分引起的,也是强分类阈值划分的局限性所在。检测率和误识率这两者是不可能兼得的事情。但是想要提高强分类器检测率的同时又想要降低误识率可以通过增加分类器个数来实现,即级联强分类器,其示意图如图2所示。
SURF算法是Herbert Bay等人在SIFT算法的基础上优化而来的,相比SIFT算法,SURF算法具有更快的计算速度,实现了实时处理,其快速的基础就是引入积分图像。SURF算法的过程是先通过Hessian矩阵的行列式来确定兴趣点位置,再根据兴趣点邻域的Haar小波响应来确定描述子。
因为SURF算法采用的是Hessian矩阵行列式近似值图像,假设图像中某像素点的Hessian矩阵如下所示:
为了保证特征点的尺度无关性,需要进行高斯滤波,则滤波后的Hessian矩阵如下:
其中Lxx(x,σ)表示高斯滤波后图像在x方向上的二阶导数,Lxy(x,σ)和
Lyy(x,σ)都是图像的二阶导数。一般情况下,为了求取图像的二阶导数,利用公式:
其中h(x)表示图像的灰度值,而f(x)则表示将h(x)进行高斯滤波处理得到的结果。
如图3所示,左边两幅图分别为9x 9灰度图像在中心点(黑色点)处的二阶导数d2f(x)/dx2和d2f(x)/dxdy的模板对应的值,近似后变成右边的两幅图,图中灰色部分像素值为0。为了减少计算量,使用积分图进行简化,如图4所示。
其中,灰色部分代表当前像素点,深色部分代表积分区域。
这样计算任意矩形区域的灰度之和Sx就可以简化如下:
Sx=S(X1,Y1)+S(X4,Y4)-S(X2,Y2)-S(X3,Y3)
图像中每个像素点的Hessian矩阵行列式的近似值公式为:
det(Happrox)=DxxDyy-(0.9Dxy)2
其中0.9是一个经验值。如此便可得到一张近似Hessian行列式图,而高斯金字塔的每一层octave都有若干张尺度不同的图片。在SURF算法中,图片的大小是一直不变的,不同的octave层得到的待检测图片是改变高斯模糊尺寸大小得到的。SURF算法采用这种方法节省了降采样过程,处理速度加快,其金字塔图像如下图5所示:
在兴趣点主方向上,SURF算法和SIFT算法也大有不同。SIFT选取兴趣点附近大小的圆形区域内统计其梯度直方图,取直方图bin值最大的作为主方向以及超过最大bin值80%的那些方做为特征点的辅方向;而SURF是统计特征点领域内的harr小波特征,通过计算其在x,y方向上的haar-wavelet响应,这是在兴趣点周围一个6个步长的半径大小的圆形区域内,统计60度扇形内所有点的水平haar小波特征和垂直haar小波特征总和,haar小波的尺寸变长为4s,这样一个扇形得到了一个值。然后60度扇形以一定间隔进行旋转,最后将最大值那个扇形的方向作为该特征点的主方向。SURF算法主方向确定过程的示意图如图6所示:
在SIFT算法中,是在特征点周围取16*16的邻域,并分为4*4个的小区域,每个小区域统计8个方向梯度,最后得到4*4*8=128维的向量,并把该向量作为该点的SIFT描述子。而在SURF算法中,在特征点周围取边长为20s(s是所检测到该特征点所在的尺度)的一个正方形框,其方向就是主方向,然后把该框分为16个子区域,每个子区域统计25个像素的水平方向和垂直方向(水平和垂直方向都是相对主方向而言的)的Haar小波特征。该过程的示意图如图6所示。在SURF算法中每个小区域就有4个值,故每个特征点就是16*4=64维的向量,相比SIFT算法,特征匹配速度大大加快。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (3)
1.一种婴幼儿视力自动检测方法,其特征在于:包括以下步骤:
S1.同步记录出示Teller视力卡的视频图像及被检测者的视频图像;
S2.通过出示Teller视力卡的视频图像确定视力卡展示窗口位置及相应的视力卡展示时段,并从被检测者的视频图像中提取与视力卡展示时段相应的片段进行步骤S3~S8的操作;
S3. 使用 AdaBoost 算法训练出对人脸识别效果最优的强分类器;
S4.将强分类器进行级联,得到筛选式级联分类器;
S5.对步骤S2提取的片段进行分解,得到视频帧的集合,然后对集合中的每一帧视频帧进行步骤S6~S7的操作:
S6.使用筛选式级联分类器对视频帧进行检测,确定其人脸区域;
S7.通过SURF算法确定人脸区域中的兴趣点位置,然后根据兴趣点邻域的Haar小波响应来确定SURF描述子;
S8.对视频帧集合中任意相邻的两帧图像的SURF描述子计算其相似度,若计算的相似度大于所设定的阈值,则匹配成功,婴幼儿的眼睛发生了移动;此时通过视力卡对应的条栅级别即可确定婴幼儿的视力水平。
2.根据权利要求1所述的婴幼儿视力自动检测方法,其特征在于:所述步骤S3训练强分类器的具体过程如下:
S11.给定的训练样本集共包括N个样本,其中N个样本中包括X个人脸样本和Y个非人脸样本;设定训练的最大循环次数T;
S12.初始化各个训练样本的权重为1/N;
S13.第一轮迭代训练N个样本,得到第一个最优弱分类器;
S14.提高上一轮训练中被误判的样本的权重;
S15.将新的样本与上一轮训练中被误判的样本放在一起进行新一轮的训练;
S16.循环执行步骤S14、S15,T轮后得到T个最优弱分类器;
S17.以加权求和的方式组合T个最优弱分类器得到强分类器。
3.根据权利要求2所述的婴幼儿视力自动检测方法,其特征在于:所述人脸样本和非人脸样本使用Haar-like 特征来表征,并利用计算积分图的方法来加快特征数值的计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710147362.7A CN106943116B (zh) | 2017-03-13 | 2017-03-13 | 一种婴幼儿视力自动检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710147362.7A CN106943116B (zh) | 2017-03-13 | 2017-03-13 | 一种婴幼儿视力自动检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106943116A CN106943116A (zh) | 2017-07-14 |
CN106943116B true CN106943116B (zh) | 2018-10-12 |
Family
ID=59467412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710147362.7A Active CN106943116B (zh) | 2017-03-13 | 2017-03-13 | 一种婴幼儿视力自动检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106943116B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106943116B (zh) * | 2017-03-13 | 2018-10-12 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种婴幼儿视力自动检测方法 |
CN110251071A (zh) * | 2019-06-21 | 2019-09-20 | 中山大学中山眼科中心 | 儿童视力评估方法、系统及计算机存储介质 |
CN110269587B (zh) * | 2019-06-28 | 2021-10-08 | 中山大学中山眼科中心 | 婴幼儿动作分析系统和基于动作的婴幼儿视力分析系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4789235A (en) * | 1986-04-04 | 1988-12-06 | Applied Science Group, Inc. | Method and system for generating a description of the distribution of looking time as people watch television commercials |
CN1403052A (zh) * | 2001-09-07 | 2003-03-19 | 昆明利普机器视觉工程有限公司 | 数字视频眼动分析仪 |
CN101336824A (zh) * | 2008-08-08 | 2009-01-07 | 浙江大学 | 图像纹理复杂度的视觉感知响应强度检测装置 |
CN101627896A (zh) * | 2009-07-30 | 2010-01-20 | 温州医学院 | 婴幼儿视力检查仪 |
CN104114079A (zh) * | 2011-10-24 | 2014-10-22 | Iriss医疗科技有限公司 | 用于识别眼部健康状况的系统和方法 |
CN104143087A (zh) * | 2014-07-24 | 2014-11-12 | 苏州大学 | 基于sd-oct的挫伤性视网膜内外节缺失检测方法 |
CN205411140U (zh) * | 2015-12-10 | 2016-08-03 | 中山大学中山眼科中心 | Teller视敏卡检查操作台 |
CN106943116A (zh) * | 2017-03-13 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种婴幼儿视力自动检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004113755A (ja) * | 2002-09-27 | 2004-04-15 | Photron Ltd | 視点検出カメラ及び視点の自動分析装置 |
EP3036733A1 (fr) * | 2013-08-21 | 2016-06-29 | Essilor International (Compagnie Générale d'Optique) | Procede d'assistance a l'exploration visuelle pour un individu atteint d'une pathologie retinienne se traduisant par un scotome |
-
2017
- 2017-03-13 CN CN201710147362.7A patent/CN106943116B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4789235A (en) * | 1986-04-04 | 1988-12-06 | Applied Science Group, Inc. | Method and system for generating a description of the distribution of looking time as people watch television commercials |
CN1403052A (zh) * | 2001-09-07 | 2003-03-19 | 昆明利普机器视觉工程有限公司 | 数字视频眼动分析仪 |
CN101336824A (zh) * | 2008-08-08 | 2009-01-07 | 浙江大学 | 图像纹理复杂度的视觉感知响应强度检测装置 |
CN101627896A (zh) * | 2009-07-30 | 2010-01-20 | 温州医学院 | 婴幼儿视力检查仪 |
CN104114079A (zh) * | 2011-10-24 | 2014-10-22 | Iriss医疗科技有限公司 | 用于识别眼部健康状况的系统和方法 |
CN104143087A (zh) * | 2014-07-24 | 2014-11-12 | 苏州大学 | 基于sd-oct的挫伤性视网膜内外节缺失检测方法 |
CN205411140U (zh) * | 2015-12-10 | 2016-08-03 | 中山大学中山眼科中心 | Teller视敏卡检查操作台 |
CN106943116A (zh) * | 2017-03-13 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种婴幼儿视力自动检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106943116A (zh) | 2017-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038476B (zh) | 一种基于边缘检测与sift的人脸表情识别特征提取方法 | |
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
CN105518709B (zh) | 用于识别人脸的方法、系统和计算机程序产品 | |
CN110334706B (zh) | 一种图像目标识别方法及装置 | |
CN103942577B (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN104881662B (zh) | 一种单幅图像行人检测方法 | |
CN103902977B (zh) | 基于Gabor二值模式的人脸识别方法及装置 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
US20150054824A1 (en) | Object detection method, object detection device, and image pickup device | |
EP2434431A1 (en) | Method and device for classifying image | |
EP3819859A1 (en) | Sky filter method for panoramic images and portable terminal | |
CN107688784A (zh) | 一种基于深层特征和浅层特征融合的字符识别方法及存储介质 | |
CN107451999A (zh) | 基于图像识别的异物检测方法和装置 | |
CN109670430A (zh) | 一种基于深度学习的多分类器融合的人脸活体识别方法 | |
CN109977798A (zh) | 用于行人重识别的掩膜池化模型训练和行人重识别方法 | |
CN101930549B (zh) | 基于第二代曲线波变换的静态人体检测方法 | |
CN101923640A (zh) | 基于鲁棒纹理特征和机器学习对伪造虹膜图像判别的方法 | |
CN103324944A (zh) | 一种基于svm和稀疏表示的假指纹检测方法 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN106943116B (zh) | 一种婴幼儿视力自动检测方法 | |
CN104123543A (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN106971158A (zh) | 一种基于CoLBP共生特征与GSS特征的行人检测方法 | |
CN103093274A (zh) | 基于视频的行人计数的方法 | |
CN106874825A (zh) | 人脸检测的训练方法、检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |