CN105590103B - 眼球识别方法及系统 - Google Patents
眼球识别方法及系统 Download PDFInfo
- Publication number
- CN105590103B CN105590103B CN201511010529.2A CN201511010529A CN105590103B CN 105590103 B CN105590103 B CN 105590103B CN 201511010529 A CN201511010529 A CN 201511010529A CN 105590103 B CN105590103 B CN 105590103B
- Authority
- CN
- China
- Prior art keywords
- image
- rectangular image
- sub
- subelement
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000005252 bulbus oculi Anatomy 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000001815 facial effect Effects 0.000 claims abstract description 34
- 230000001186 cumulative effect Effects 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 5
- 238000005192 partition Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供眼球识别方法,包括:a)获取用户面部图像;b)在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形为包含人脸轮廓的矩形图像;c)记录所划分出的矩形图像在显示系统中的坐标;d)针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像;e)基于校正后的人脸图像以及所记录的位置,识别眼球位置。
Description
技术领域
本发明涉及脸部识别技术,更为具体地,涉及眼球识别技术。
背景技术
眼球追踪主要是研究眼球运动信息的获取、建模和模拟。随着摄像头已广泛普及在手机、笔记本电脑、PC等设备中,眼球追踪已广泛用于活体检测、汽车驾驶员疲劳检测、指令控制等场景中。
人脸平面旋转校正是完成眼球跟踪中重要一环,很多识别眼球的实现效果有赖于图像是否旋转校正。
发明内容
有鉴于此,本发明提供眼球识别方法,包括:
a)获取用户面部图像;
b)在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形为包含人脸轮廓的矩形图像;
c)记录所划分出的矩形图像在显示系统中的坐标;
d)针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像;
e)基于校正后的人脸图像以及所记录的位置,识别眼球位置。
根据本发明一个示例的眼球识别方法,其中,所述步骤d包括:
d1)计算该矩形图像的中心点位置o;
d2)将所述矩形图像转换为灰度图P;
d3)在所述灰度图中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数;
d4)将各子矩形图像qi在矩形图像的平面内绕中心点旋转一定角度α;
d5)对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qi)、波谷灰度值g min(qi);
d6)对各子矩形图像qi,计算其对称性Sym(qi);
d7)对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi),其中,β与η是预设参数,两者均为正数;可根据图片的特点设置β与η,它们数值越大,与它们相乘的项的权重就越大;
d8)将各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值;
d9)在(α1,α2)的角度范围内变换旋转角度α的大小,并依次执行步骤d4到d8获得多个旋转角度下的h值;
d10)从多个旋转角度下的多个h值中选择最大的h值,与该h值对应的旋转角度对应的图像即为校正图像。
根据本发明一个示例的眼球识别方法,其中,所述步骤d6包括:
对每个矩形图像qi,向长度方向做投影,得到该方向的投影曲线g(y);
使对称中心处于[1/4w,1/2w]范围内时,对称区间分别是(0,c)和(c,2c),其中w为矩形图像p的宽度,c为对称中心,则Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y在(0,c)范围内;以及
当对称中心c处于[1/2w,3/4w]范围内时,对称区间分别是(2c-w,c)和(c,w),则Sym(qi)=Σ|g(y)-g(2c-y)|,其中y在(c,w)范围内。
根据本发明一个示例的眼球识别方法,其中,步骤d3中,以不同的三个比例划分出三个子矩形图像p1,P2与P3。
根据本发明的又一方面,还提供眼球识别系统,该系统包括:
第一单元,用于获取用户面部图像;
第二单元,用于在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形为包含人脸轮廓的矩形图像;
第三单元,用于记录所划分出的矩形图像在显示系统中的坐标;
第四单元,用于针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像;
第五单元,用于基于校正后的人脸图像以及所记录的位置,识别眼球位置。
根据本发明一个示例的眼球识别系统,其中,所述第四单元包括:
第一子单元,用于计算该矩形图像的中心点位置;
第二子单元,用于将所述矩形图像转换为灰度图P;
第三子单元,用于在所述矩形图像中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数;
第四子单元,用于将各子矩形图像qi在矩形图像的平面内绕中心点旋转一定角度α;
第五子单元,用于对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qi)、波谷灰度值g min(qi);
第六子单元,用于对各子矩形图像qi,计算其对称性Sym(qi);
第七子单元,用于对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi);
第八子单元,用于将各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值;
第九子单元,用于在(α1,α2)的角度范围内变换旋转角度α的大小,并将转换后的角度传送给第四子单元,由第四子单元到第八子单元依次操作获得多个旋转角度下的h值;
第十子单元,用于从多个旋转角度下的多个h值中选择最大的h值,与该h值对应的旋转角度对应的图像即为校正图像。
附图说明
图1是根据本发明示例的眼球识别方法的流程图。
图2给出了图1中的步骤14的流程图。
图3示意了第三子图像q3绕中心点o旋转角度α后的示意性图示。
图4是该眼球识别系统的结构示意图。
具体实施方式
现在参照附图描述本发明的示意性示例。相同的附图标号表示相同的元件。下文描述的各实施例有助于本领域技术人员透彻理解本发明,且意在示例而非限制。除非另有限定,文中使用的术语(包括科学、技术和行业术语)具有与本发明所属领域的技术人员普遍理解的含义相同的含义。此外,流程图中各步骤的先后顺序也不以图示的顺序为限。
在本文中,图像与图像均表示通过摄像头等影像获取元件所取得的用户的图像以及基于该图像进行处理后获得的图像,图像与图像在本文中可互换使用。
图1是根据本发明一个示例的眼球识别方法的流程图。简单来说,根据图1所示的方法,首先获取到用户面部图像,随后对其进行处理以获得校正图像,在该校正图像中确认眼球的位置,最后基于所确认的眼球位置来确定原始的用户面部图像中的眼球位置。
在步骤10,获取用户面部图像。可通过摄像头等影像获取部件获取用户面部图像。
在步骤12,在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形即为包含人脸轮廓的矩形图像。所划分的矩形图像至少包括人的五官。划分可采用已有图形识别方法中的划分方式。
在步骤14,记录所划分出的矩形图像在显示系统中的坐标。所显示的图像在现实设备中都有坐标位置,示例地,可记录该坐标位置。
在步骤16,针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像。
在步骤18,基于校正后的人脸图像以及所记录的位置,识别眼球位置。该步骤识别出眼球位置之后,则可结合步骤14中记录的坐标位置,相应地确定出原始图像中眼球的位置。
作为示例,图2给出了图1中的步骤14的流程图。
如图所示,在步骤140,计算该矩形图像的中心点o位置。
在步骤142,将所述矩形图像转换为灰度图P。
在步骤144,在所述灰度图中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数。作为示例,按照0.5、0.6以及0.7的比例分别划分出三个子矩形图像,在以下的示例中,分别将其称为第一子图像q1、第二子图像q2与第三子图像q3。
在步骤146,将各子矩形图像qi在矩形图像的平面内绕中心点o旋转一定角度α。例如将第一子图像q1绕中心点o旋转角度α,将第二子图像q2绕中心点o旋转角度α,将第三子图像q3绕中心点o旋转角度α。
在步骤148,对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qi)、波谷灰度值g min(qi)。图3示意了第三子图像q3绕中心点o旋转角度α后的示意性图示。如图所示,矩形图像q的长度为w,宽度为h,这里要特别说明的是,在本发明的示例中,是将矩形图像q沿着显示屏幕x轴方向的边的长度作为长度边、沿着显示屏幕y轴方向的边的长度做为宽度边。但这仅是示意,也可将沿x轴方向的长度作为宽度边,沿显示屏幕y轴方向的边的长度作为高度的边。第三子图像q3的长度为w’,宽度为h’。将第三子图像q3向其长度边的方向投影,获得投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qs)、波谷灰度值g min(q3)。
在步骤150,对各子矩形图像qi,计算其对称性Sym(qi)。对于围绕中心o旋转的每个子图像qi,左右按照人脸中心垂线具有对称性。自然而然,我们计算每张候选图像qi的对称性值Sym(qi),以衡量人脸的对称性。同时,在图像中,无法实现准确得知人脸中心线的位置,所以,系统逐一将对称中心c设置1/4w到3/4w的范围内,计算对称中心c的图片的对称性值Sym(qi,c),挑取其中最大数值,作为图片的对称性值Sym(qi,c)。在此,应理解到,Sym(qi,c)表示的是以对称中心c为对称中心而获得的Sym(qi)。Sym(qi,c)的计算方式如下:
对个每个矩形q,向y轴方向(与长度边平行)做投影,得到y轴灰度值投影曲线x=g(y);当对称中心c处于[1/4w,1/2w]范围内时,对称区间分别是(0,c)和(0,2c)Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y属于(0,c)范围内;
当对称中心c处于[1/2w,3/4w]范围内时,对称区间分别是(2c-w,c)和(c,w);以及Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y属于(c,w)范围内。
随后,在步骤152,对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi)。示例地,对第一子图像q1,计算h(q1)=gmax(q1)-β·gmin(q1)+η·Sym(q1,c);对第二子图像q2,计算h(q2)=gmax(q2)-β·gmin(q2)+η·Sym(q2,c);q1,对第三子图像q3计算h(q3)=gmax(q3)-β·gmin(q3)+η·Sym(q3,c)。
在步骤154,对各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值。示例地,累加h是h(q1)、h(q2)与h(q3)的和。
在步骤156,在(α1,α2)的角度范围内变换旋转角度α的大小,并依次执行步骤146到步骤154获得多个旋转角度下的h值。
在步骤158,从步骤154中得到的h值以及执行步骤156得到的多个h值中,选择最大的h值。该具有最大的h值的子图像便是所选择的校正图像。
例如根据图2所示的过程获得了矫正图像之后,可获知眼球在该矫正图像中的位置。进一步,基于该位置以及所记录的所划分出的矩形图像在显示系统中的坐标,便可识别出用户面部图像中的眼球。
如本发明各示例的眼球识别方法可实现为软件模块,结合到现有的人脸识别模块或设备中。可替代地,也可实现为软件与硬件的结合,或仅通过硬件来实现。
根据本发明,还提供眼球识别系统。图4是该眼球识别系统的结构示意图。如图所示,该眼球识别系统包括第一单元50,第二单元52,第三单元54,第四单元56,第五单元58。
第一单元50用于获取用户面部图像,其例如可以是摄像头等影像获取部件。
第二单元52在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形即为包含人脸轮廓的矩形图像。所划分的矩形图像至少包括人的五官。划分可采用已有图形识别方法中的划分方式。
第三单元54记录所划分出的矩形图像在显示系统中的坐标。所显示的图像在现实设备中都有坐标位置,示例地,可记录该坐标位置。
第四单元56针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像。
第五单元58,基于校正后的人脸图像以及所记录的位置,识别眼球位置。该识别出眼球位置之后,则可结合记录的坐标位置,相应地确定出原始图像中眼球的位置。
第四单元56进一步可包括多个子单元。第一子单元计算该矩形图像的中心点o位置。第二子单元将所述矩形图像转换为灰度图P。第三子单元在所述灰度图中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数。作为示例,按照0.5、0.6以及0.7的比例分别划分出三个子矩形图像,在以下的示例中,分别将其称为第一子图像q1、第二子图像q2与第三子图像q3。
第四子单元将各子矩形图像qi在矩形图像的平面内绕中心点o旋转一定角度α。例如将第一子图像q1绕中心点o旋转角度α,将第二子图像q2绕中心点o旋转角度α,将第三子图像q3绕中心点o旋转角度α。
第五子单元对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qi)、波谷灰度值g min(qi)。图3示意了第三子图像q3绕中心点o旋转角度α后的示意性图示。如图所示,矩形图像q的长度为w,宽度为h,这里要特别说明的是,在本发明的示例中,是将矩形图像q沿着显示屏幕x轴方向的边的长度作为长度边、沿着显示屏幕y轴方向的边的长度做为宽度边。但这仅是示意,也可将沿x轴方向的长度作为宽度边,沿显示屏幕y轴方向的边的长度作为高度的边。第三子图像q3的长度为w’,宽度为h’。将第三子图像q3向其长度边的方向投影,获得投影曲线f(x),计算该投影曲线f(x)的波峰灰度值g max(qs)、波谷灰度值g min(qs)。
第六子单元对各子矩形图像qi,计算其对称性Sym(qi)。对于围绕中心o旋转的每个子图像qi,左右按照人脸中心垂线具有对称性。自然而然,我们计算每张候选图像qi的对称性值Sym(qi),以衡量人脸的对称性。同时,在图像中,无法实现准确得知人脸中心线的位置,所以,系统逐一将对称中心c设置1/4w到3/4w的范围内,计算对称中心c的图片的对称性值Sym(qi,c),挑取其中最大数值,作为图片的对称性值Sym(qi,c)。在此,应理解到,Sym(qi,c)表示的是以对称中心c为对称中心而获得的Sym(qi)。Sym(qi,c)的计算方式如下:
对个每个矩形q,向y轴方向(与长度边平行)做投影,得到y轴灰度值投影曲线x=g(y);当对称中心c处于[1/4w,1/2w]范围内时,对称区间分别是(0,c)和(0,2c)Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y属于(0,c)范围内;
当对称中心c处于[1/2w,3/4w]范围内时,对称区间分别是(2c-w,c)和(c,w);以及Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y属于(c,w)范围内。
第七子单元对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi)。示例地,对第一子图像q1,计算h(q1)=gmax(q1)-β·gmin(q1)+η·Sym(q1,c);对第二子图像q2,计算h(q2)=gmax(q2)-β·gmin(q2)+η·Sym(q2,c);q1,对第三子图像q3计算h(q3)=gmax(q3)-β·gmin(q3)+η·Sym(q3,c)。
第八子单元对各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值。示例地,累加h是h(q1)、h(q2)与h(q3)的和。
第九子单元在(α1,α2)的角度范围内变换旋转角度α的大小,并依次执行步骤146到步骤154获得多个旋转角度下的h值。
第十子单元从步骤154中得到的h值以及执行步骤156得到的多个h值中,选择最大的h值。该具有最大的h值的子图像便是所选择的校正图像。
获得了矫正图像之后,可获知眼球在该矫正图像中的位置。进一步,基于该位置以及所记录的所划分出的矩形图像在显示系统中的坐标,便可识别出用户面部图像中的眼球。
如本发明个示例的眼球识别系统可通过软件是实现,结合到现有的人脸识别模块或设备中。可替代地,也可实现为软件与硬件的结合,或仅通过硬件来实现。
尽管已结合附图在上文的描述中,公开了本发明的具体实施例,但是本领域技术人员可以理解到,可在不脱离本发明精神的情况下,对公开的具体实施例进行变形或修改。本发明的实施例仅用于示意并不用于限制本发明。
Claims (6)
1.一种眼球识别方法,其特征在于,该方法包括:
a)获取用户面部图像;
b)在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形为包含人脸轮廓的矩形图像;
c)记录所划分出的矩形图像在显示系统中的坐标;
d)针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像;
e)基于校正后的人脸图像以及所记录的位置,识别眼球位置。
2.如权利要求1所述的眼球识别方法,其特征在于,所述步骤d包括:
d1)计算该矩形图像的中心点位置o;
d2)将所述矩形图像转换为灰度图P;
d3)在所述灰度图中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数;
d4)将各子矩形图像qi在矩形图像的平面内绕中心点旋转一定角度α;
d5)对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值gmax(qi)、波谷灰度值gmin(qi);
d6)对各子矩形图像qi,计算其对称性Sym(qi);
d7)对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi),其中,β与η是预设参数,两者均为正数;
d8)将各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值;
d9)在(α1,α2)的角度范围内变换旋转角度α的大小,并依次执行步骤d4到d8获得多个旋转角度下的h值;
d10)从多个旋转角度下的多个h值中选择最大的h值,与该h值对应的旋转角度对应的图像即为校正图像。
3.如权利要求2所述的眼球识别方法,其特征在于,所述步骤d6包括:
对每个矩形图像qi,向长度方向做投影,得到该方向的投影曲线g(y);
使对称中心处于[1/4w,1/2w]范围内时,对称区间分别是(0,c)和(c,2c),其中w为矩形图像p的宽度,c为对称中心,则Sym(qi,c)=Σ|g(y)-g(2c-y)|,其中y在(0,c)范围内;以及
当对称中心c处于[1/2w,3/4w]范围内时,对称区间分别是(2c-w,c)和(c,w),则Sym(qi)=Σ|g(y)-g(2c-y)|,其中y在(c,w)范围内。
4.如权利要求2所述的眼球识别方法,其特征在于,步骤d3中,以不同的三个比例划分出三个子矩形图像q1,q2与q3。
5.一种眼球识别系统,其特征在于,该系统包括:
第一单元,用于获取用户面部图像;
第二单元,用于在所获取的面部图像中,划分出包含人脸轮廓的矩形,该矩形为包含人脸轮廓的矩形图像;
第三单元,用于记录所划分出的矩形图像在显示系统中的坐标;
第四单元,用于针对所划分的矩形图像,基于人脸图像的对称性与投影振幅,进行校正,以获得校正后的人脸图像;
第五单元,用于基于校正后的人脸图像以及所记录的位置,识别眼球位置。
6.如权利要求5所述的眼球识别系统,其特征在于,所述第四单元包括:
第一子单元,用于计算该矩形图像的中心点位置;
第二子单元,用于将所述矩形图像转换为灰度图P;
第三子单元,用于在所述矩形图像中,以至少不同比例划分出多个子矩形图像qi,其中,各子矩形图像qi均以所述中心点为中心,所述比例均小于1,i为大于1的整数;
第四子单元,用于将各子矩形图像qi在矩形图像的平面内绕中心点旋转一定角度α;
第五子单元,用于对各子矩形图像,向其长度方向做投影得到长度方向投影曲线f(x),计算该投影曲线f(x)的波峰灰度值gmax(qi)、波谷灰度值gmin(qi);
第六子单元,用于对各子矩形图像qi,计算其对称性Sym(qi);
第七子单元,用于对各子矩形图像qi,分别计算h(qi)=gmax(qi)-β·gmin(qi)+η·Sym(qi),其中,β与η是预设参数,两者均为正数;
第八子单元,用于将各子矩形图像qi的h(qi)值累加,获得旋转α角度下的累加h值;
第九子单元,用于在(α1,α2)的角度范围内变换旋转角度α的大小,并将转换后的角度传送给第四子单元,由第四子单元到第八子单元依次操作获得多个旋转角度下的h值;
第十子单元,用于从多个旋转角度下的多个h值中选择最大的h值,与该h值对应的旋转角度对应的图像即为校正图像。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511010529.2A CN105590103B (zh) | 2015-12-30 | 2015-12-30 | 眼球识别方法及系统 |
TW105142080A TWI641999B (zh) | 2015-12-30 | 2016-12-19 | Eyeball recognition method and system |
PCT/CN2016/111515 WO2017114285A1 (zh) | 2015-12-30 | 2016-12-22 | 眼球识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511010529.2A CN105590103B (zh) | 2015-12-30 | 2015-12-30 | 眼球识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105590103A CN105590103A (zh) | 2016-05-18 |
CN105590103B true CN105590103B (zh) | 2019-10-01 |
Family
ID=55929673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511010529.2A Active CN105590103B (zh) | 2015-12-30 | 2015-12-30 | 眼球识别方法及系统 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN105590103B (zh) |
TW (1) | TWI641999B (zh) |
WO (1) | WO2017114285A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105590103B (zh) * | 2015-12-30 | 2019-10-01 | 中国银联股份有限公司 | 眼球识别方法及系统 |
CN108229392A (zh) * | 2018-01-02 | 2018-06-29 | 京东方科技集团股份有限公司 | 一种瞳孔定位方法、装置、设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142718B2 (en) * | 2002-10-28 | 2006-11-28 | Lee Shih-Jong J | Fast pattern searching |
CN101196985A (zh) * | 2006-12-18 | 2008-06-11 | 北京海鑫科金高科技股份有限公司 | 一种用于复杂背景图像的眼睛定位装置与方法 |
CN102799888A (zh) * | 2011-05-27 | 2012-11-28 | 株式会社理光 | 人眼检测方法和人眼检测设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3452685B2 (ja) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | 顔画像の処理装置 |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
KR100809431B1 (ko) * | 2006-11-21 | 2008-03-05 | 한국전자통신연구원 | 가림 현상에 강인한 눈 검출 방법 및 장치 |
WO2010001310A1 (en) * | 2008-07-02 | 2010-01-07 | C-True Ltd. | Face recognition system and method |
JP2010176314A (ja) * | 2009-01-28 | 2010-08-12 | Seiko Epson Corp | 顔の特徴部位の座標位置を検出する画像処理装置 |
CN101639933B (zh) * | 2009-07-16 | 2013-03-27 | 上海合合信息科技发展有限公司 | 图像旋转校正方法及系统、电子设备 |
CN102663393B (zh) * | 2012-03-02 | 2014-10-22 | 哈尔滨工程大学 | 基于旋转校正的手指静脉图像感兴趣区域提取方法 |
CN102867172B (zh) * | 2012-08-27 | 2016-12-21 | Tcl集团股份有限公司 | 一种人眼定位方法、系统及电子设备 |
CN103325099A (zh) * | 2013-07-11 | 2013-09-25 | 北京智诺英特科技有限公司 | 图像校正方法和装置 |
CN103632136B (zh) * | 2013-11-11 | 2017-03-29 | 北京天诚盛业科技有限公司 | 人眼定位方法和装置 |
CN104063700B (zh) * | 2014-07-04 | 2017-08-18 | 武汉工程大学 | 自然光照正面人脸图像中的眼睛中心点定位的方法 |
CN105590103B (zh) * | 2015-12-30 | 2019-10-01 | 中国银联股份有限公司 | 眼球识别方法及系统 |
-
2015
- 2015-12-30 CN CN201511010529.2A patent/CN105590103B/zh active Active
-
2016
- 2016-12-19 TW TW105142080A patent/TWI641999B/zh active
- 2016-12-22 WO PCT/CN2016/111515 patent/WO2017114285A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142718B2 (en) * | 2002-10-28 | 2006-11-28 | Lee Shih-Jong J | Fast pattern searching |
CN101196985A (zh) * | 2006-12-18 | 2008-06-11 | 北京海鑫科金高科技股份有限公司 | 一种用于复杂背景图像的眼睛定位装置与方法 |
CN102799888A (zh) * | 2011-05-27 | 2012-11-28 | 株式会社理光 | 人眼检测方法和人眼检测设备 |
Non-Patent Citations (3)
Title |
---|
angle correction algorithm for image rotation based on key point detection;Fuming LI etal.;《Journal of Computational Information Systems》;20131231;第9卷(第4期);第1307-1314页 * |
医学图像倾斜校正方法与应用研究;潘梅森;《中国博士学位论文全文数据库 信息科技辑》;20111215;第2011年卷(第12期);第二章第一段和第2.3节第1段 * |
车牌识别中的二值化及快速倾斜校正算法;史燕等;《现代电子技术》;20091231;第2009年卷(第5期);第149-152页 * |
Also Published As
Publication number | Publication date |
---|---|
TWI641999B (zh) | 2018-11-21 |
WO2017114285A1 (zh) | 2017-07-06 |
CN105590103A (zh) | 2016-05-18 |
TW201727540A (zh) | 2017-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348815B (zh) | 图像处理方法、图像处理装置以及非瞬时性存储介质 | |
CN110232311B (zh) | 手部图像的分割方法、装置及计算机设备 | |
CN109325437B (zh) | 图像处理方法、装置和系统 | |
CN106650630B (zh) | 一种目标跟踪方法及电子设备 | |
CN112330526B (zh) | 一种人脸转换模型的训练方法、存储介质及终端设备 | |
Dominio et al. | Combining multiple depth-based descriptors for hand gesture recognition | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
CN110827193B (zh) | 基于多通道特征的全景视频显著性检测方法 | |
CN109284737A (zh) | 一种用于智慧教室的学生行为分析和识别系统 | |
CN105184249A (zh) | 用于人脸图像处理的方法和装置 | |
CN101976464B (zh) | 基于单应性矩阵的多平面动态的增强现实注册的方法 | |
CN110009561A (zh) | 一种监控视频目标映射到三维地理场景模型的方法及系统 | |
CN111091075B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
US20120154638A1 (en) | Systems and Methods for Implementing Augmented Reality | |
JPWO2018189795A1 (ja) | 認識装置、認識方法および認識プログラム | |
CN104537705A (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
CN109635752A (zh) | 人脸关键点的定位方法、人脸图像处理方法和相关装置 | |
WO2018189796A1 (ja) | 認識装置、認識システム、認識方法および認識プログラム | |
CN105590103B (zh) | 眼球识别方法及系统 | |
CN110264523A (zh) | 一种确定测试图像中的目标图像的位置信息的方法与设备 | |
CN109410138B (zh) | 修饰双下巴的方法、装置和系统 | |
JP2018137636A (ja) | 画像処理装置及び画像処理プログラム | |
JP5201184B2 (ja) | 画像処理装置及びプログラム | |
CN113989831A (zh) | 近视防控方法、装置、终端设备及存储介质 | |
CN108961182A (zh) | 针对视频图像的竖直方向灭点检测方法及视频扭正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |