CN105279764A - 眼睛图像处理设备和方法 - Google Patents
眼睛图像处理设备和方法 Download PDFInfo
- Publication number
- CN105279764A CN105279764A CN201410228899.2A CN201410228899A CN105279764A CN 105279764 A CN105279764 A CN 105279764A CN 201410228899 A CN201410228899 A CN 201410228899A CN 105279764 A CN105279764 A CN 105279764A
- Authority
- CN
- China
- Prior art keywords
- eye image
- eye
- vertical
- image
- reference line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title abstract 2
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 210000001508 eye Anatomy 0.000 claims description 320
- 230000033001 locomotion Effects 0.000 claims description 86
- 230000004044 response Effects 0.000 claims description 82
- 238000010586 diagram Methods 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 43
- 238000010606 normalization Methods 0.000 claims description 27
- 238000000513 principal component analysis Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 9
- 210000004709 eyebrow Anatomy 0.000 claims description 6
- 230000008569 process Effects 0.000 description 13
- 210000000744 eyelid Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000002459 sustained effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
提供了一种眼睛图像处理设备和方法,所述设备包括:提取单元,用于从拍摄的图像提取不同视线状态下的眼睛图像;基准线确定单元,用于确定眼睛图像的垂直基准线和水平基准线;对齐单元,用于使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
Description
技术领域
本申请涉及一种眼睛图像处理设备和方法,更具体地讲,涉及一种通过对齐不同视线状态下的眼睛图像来分析眼睛运动信息的眼睛图像处理设备和方法。
背景技术
如何对视线方向变化造成的眼睛运动信息进行描述是视线位置估计系统中的需要解决的一个重要问题。合理有效地对眼睛运动信息进行分析描述,可以去除眼睛图像中的无效信息,提高图像对齐以及基于图像信息的视线应用的精度和效率。尽管已经有一些相关研究工作,但是基于图像信息来利用计算机视觉方法对眼睛视线估计依然面临着许多难题,最重要的问题就是如何进行眼睛图像对齐和如何对眼睛运动信息进行描述。
目前已有的视线估计算法中采用的眼睛对齐算法主要是基于内外眼角点作为基准的方法,但是这种方法严重依赖于眼角点的提取精度。首先,相比于内眼角点,外眼角点并不容易精确提取。其次,当眼球和眼皮运动时,眼角的形状会发生剧烈的改变,因此眼角点的提取需要事先储存大量的样本以满足这种外观形状的变化。
此外,目前的视线估计算法中也并没有特定地对眼睛运动信息进行分析和特征提取。通常采用的方法是直接对眼睛图像进行平均分块,计算每一子块图像的灰度均值或其他图像特征来对眼睛图像进行描述。然而,该类方法没有将视线水平和垂直运动造成眼睛图像变化的影响分开,使得图像特征信息变化不能有效地描述这两种运动模式。
发明内容
根据本发明的一方面,提供了一种眼睛图像处理设备,所述设备包括:提取单元,用于从拍摄的图像提取不同视线状态下的眼睛图像;基准线确定单元,用于确定眼睛图像的垂直基准线和水平基准线;对齐单元,用于使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
所述基准线确定单元可包括:垂直基准线确定单元,用于对提取单元提取的眼睛图像的灰度图像进行垂直方向的投影,并从垂直方向的投影结果确定垂直基准线;水平基准线确定单元,用于从提取单元提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
所述垂直基准线确定单元可对提取单元提取的眼睛图像的灰度图像进行水平方向的投影和垂直方向的投影,对水平方向的投影结果进行归一化,将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化,从所述垂直方向的归一化投影结果确定垂直基准线。
所述水平基准线确定单元可从眼睛图像确定内眼角区域,使用内眼角区域附近的皮肤像素建立皮肤模型,基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域,并将眼睛区域中靠近眉心的位置确定为内眼角点的位置。
所述眼睛图像处理设备还可包括:响应区域产生单元,用于使用对齐的眼睛图像产生眼睛的水平运动响应图或眼睛的垂直运动响应图;运动特征分析单元,用于从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。
所述响应区域产生单元可基于均值差分法或主成分分析法,使用对齐的眼睛图像产生眼睛的水平运动响应图或垂直运动响应图。
根据本发明的另一方面,提供了一种眼睛图像处理方法,所述方法包括:从拍摄的图像提取不同视线状态下的眼睛图像;确定眼睛图像的垂直基准线和水平基准线;使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
确定眼睛图像的垂直基准线和水平基准线的步骤可包括:对提取的眼睛图像的灰度图像进行垂直方向的投影,并从垂直方向的投影结果确定垂直基准线;从提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
确定眼睛图像的垂直基准线的步骤可包括:对提取的眼睛图像的灰度图像进行垂直方向的投影和水平方向的投影;对水平方向的投影结果进行归一化;将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化;从垂直方向的归一化投影结果确定垂直基准线。
确定眼睛图像的水平基准线的步骤可包括:从眼睛图像确定内眼角区域;使用内眼角区域附近的皮肤像素建立皮肤模型;基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域;将眼睛区域靠近眉心的位置确定为内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
所述眼睛图像处理方法还可包括:使用对齐的眼睛图像产生眼睛的水平运动响应图或眼睛的垂直运动响应图;从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。
可基于均值差分法或主成分分析法,使用对齐的眼睛图像产生眼睛的水平运动响应图或垂直运动响应图。
有益效果
通过应用根据本发明的示例性实施例的眼睛图像处理设备和方法,能够更精确地对齐不同视线状态下的眼睛图像,从而更准确有效地对眼睛运动信息进行分析描述。
附图说明
通过下面结合附图对本发明的示例性实施例进行的描述,本发明的上述和其他目的和特点将会变得更加清楚,其中:
图1是示出根据本发明的示例性实施例的眼睛图像处理设备的框图;
图2是示出根据本发明的示例性实施例的获取不同视线状态下的眼睛图像的示意性示图;
图3是示出根据本发明的示例性实施例的眼睛图像的垂直基准线和水平基准线的示意图;
图4是示出根据本发明的示例性实施例的基准线确定单元的详细配置示图;
图5是示出通过根据本发明的示例性实施例的基准线确定单元确定垂直基准线的示意图;
图6是示出通过根据本发明的示例性实施例的基准线确定单元确定水平基准线的示意图;
图7是示出根据本发明的示例性实施例的另一眼睛图像处理设备的框图;
图8是示出根据本发明的示例性实施例的水平运动响应图和垂直运动响应图;
图9是示出根据本发明的示例性实施例的眼睛图像处理方法的流程图;
图10是示出使用根据本发明的眼睛图像处理方法对齐眼睛图像的结果与使用现有的算法对齐眼睛图像的结果之间的对比。
在附图中,相同的附图标号将被理解为是指相同的部件。
具体实施方式
提供以下参照附图进行的描述以帮助全面理解由权利要求及其等同物限定的本发明的示例性实施例。所述描述包括各种特定细节以帮助理解,但这些细节被认为仅是示例性的。因此,本领域的普通技术人员将认识到:在不脱离本发明的范围和精神的情况下,可对这里描述的实施例进行各种改变和修改。此外,为了清楚和简明,可省略已知功能和构造的描述。
图1是示出根据本发明的示例性实施例的眼睛图像处理设备100的框图。
如图1所示,根据本发明的示例性实施例的眼睛图像处理设备100包括:提取单元110、基准线确定单元120和对齐单元130。
所述提取单元110可从拍摄的图像提取不同视线状态下的眼睛图像。在本发明的示例性实施例中,所述不同的视线状态可指眼睛注视显示器上的不同位置时的视线状态。例如,如图2所示,可在显示器上设置4个标定点,当用户将视线依次集中于所述4个标定点时,用户的视线会由于这4个标定点的位置不同而具有不同的视线状态,因此可通过诸如相机(例如,设置在显示器上的相机)的图像采集设备拍摄用户分别注视这4个标定点时的图像,从而可从拍摄的图像获取用户的不同视线状态下的眼睛图像。应理解,标定点的数量可根据需要来确定而不限于4个。
在获取了眼睛图像之后,基准线确定单元120可确定每个眼睛图像的垂直基准线和水平基准线。图3是示出根据本发明的示例性实施例的眼睛图像的垂直基准线和水平基准线的示意图。在本发明的示例性实施例中,眼睛图像的垂直基准线可以是如图3中所示的与眼睛的上眼皮或下眼皮平行相切的直线,眼睛图像的水平基准线可以是如图3中所示的经过内眼角点所在位置的垂线。
以下将结合图4至图6详细说明根据本发明的示例性实施例的基准线确定单元120确定水平基准线和垂直基准线的操作。
图4是示出根据本发明的示例性实施例的基准线确定单元120的详细配置示图。图5是示出通过根据本发明的示例性实施例的基准线确定单元120确定垂直基准线的示意图。图6是示出通过根据本发明的示例性实施例的基准线确定单元120确定水平基准线的示意图。
如图4中所示,根据本发明的示例性实施例的基准线确定单元120可包括垂直基准线确定单元210和水平基准线确定单元210。
在本发明的实施例中,所述垂直基准线确定单元210可对提取单元110提取的眼睛图像的灰度图像进行垂直方向的投影和/或水平方向的投影,并可从垂直方向的投影结果确定垂直基准线。
对眼睛图像的灰度图像进行水平方向的投影是指按列方向对眼睛图像的灰度图像中的每列像素的灰度值进行累加,对眼睛图像的灰度图像进行垂直方向的投影是指按行方向对眼睛图像的灰度图像中的每行像素的灰度值进行累加。优选地,在本发明的示例性实施例中,在对眼睛图像的灰度图像进行垂直方向的投影和水平方向的投影之前,可对眼睛图像的灰度图像进行反色处理(即,255-I,其中,I是眼睛图像的灰度图像中的像素的灰度值),然后在投影处理中对经过反色的灰度图像进行水平方向上的投影和垂直方向上的投影处理。
水平基准线确定单元220可从提取单元110提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。在下文中将详细说明确定基准线的示例性处理。
仅作为示例,在本发明的示例性实施例中,垂直基准线确定单元210可首先对提取单元110提取的眼睛图像进行水平方向的投影并对水平方向的投影结果进行归一化。可按照如下的等式(1)进行水平方向的投影结果的归一化操作:
在上述等式(1)中,EH是指按列方向对眼睛图像的灰度图像的像素灰度值进行累加而获得的列累加像素灰度值的集合(即,水平方向的投影结果),EH=[EH1,EH2,EH3,…,EHi,…],其中,EHi是指对所述灰度图像的第i列像素的灰度值进行累加而获得的列累加像素灰度值,max(EH)是指所述集合中最大的列累加像素灰度值,min(EH)是指所述集合中最小的列累加像素灰度值。其中,是第i列像素的列累加像素灰度值EHi的归一化列累加像素灰度值。通过上述归一化操作,可将投影的结果限定在0到1的范围内,便于后续处理。
然后,垂直基准线确定单元210可对提取单元110提取的眼睛图像的灰度图像进行垂直方向的投影并对垂直方向的投影结果进行归一化。在本发明的示例性实施例中,在对眼睛图像的灰度图像进行垂直方向的投影之后,垂直基准线确定单元210可将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化。在这种情况下,垂直基准线确定单元210可按照如下的等式(2)进行垂直方向的投影结果归一化操作:
在上述等式中,EV是指按行方向对眼睛图像的灰度图像的像素灰度值进行累加而获得的行累加像素灰度值的集合(即,垂直方向的投影结果)。EV=[EV1,EV2,EV3,…,EVi,…],其中,EVi是指对所述灰度图像的第i行像素的灰度值进行累加而获得的行累加像素灰度值,max(EV)是指所述集合中最大的行累加像素灰度值,min(EV)是指所述集合中最小的行累加像素灰度值。其中,是第i行像素的行累加像素灰度值EVi的归一化行累加像素灰度值。
垂直基准线确定单元210可从所述垂直方向的归一化投影结果确定垂直基准线。在本发明的实施例中,通过以水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化,可提高眼睛区域(包括眼白、瞳孔和虹膜)的权重,有利于垂直基准线确定单元210从垂直方向的归一化投影结果更准确地确定垂直基准线。
现在参照图5,如图5(a)所示,标号510指示的曲线表示按列进行水平方向的投影的归一化投影结果,标号520指示的曲线表示以水平方向的归一化投影结果作为先验概率按行进行垂直方向的投影的归一化投影结果。在完成垂直方向的投影并对垂直方向的投影结果进行归一化之后,可依据预先设置的阈值(例如,0.5至0.8之间的一个值)获得两条垂直方向的基准线(如图5(a)中的标号530指示的直线)。
然而,如图5(a)中所示,仅通过一轮水平方向的投影和垂直方向的投影而获得的垂直基准线通常处于上下眼皮附近的皮肤上,精确度较差。因此,优选地,为了提高垂直基准线的精度和鲁棒性,可基于第一轮投影的结果来进行第二轮投影。
具体地讲,垂直基准线确定单元210可对第一轮投影确定的垂直基准线之间的部分图像再次进行第二轮投影,即,对所述部分按列再次进行水平方向的投影并按行再次进行垂直方向的投影,对再次进行的水平方向的投影结果进行归一化,将归一化的结果作为先验概率对再次进行的垂直方向的投影结果进行归一化,从而垂直基准线确定单元210可从再次进行的垂直方向的归一化投影结果确定垂直基准线。如图5(b)所示,标号510’指示的曲线表示在第二轮投影中按列进行水平方向的投影的归一化投影结果,标号520’指示的曲线表示在第二轮投影中按行进行垂直方向的投影的归一化投影结果,标号530’指示的直线表示在第二轮投影之后确定的垂直基准线。从图5(b)可看出,通过两轮投影确定的两条垂直基准线与上眼皮和下眼皮分别相切,因此与图5(a)中示出的仅通过一轮投影而确定的垂直基准线相比更加准确。
然而,应理解,在本发明的实施例中,尽管以两轮投影为例描述了确定垂直基准线的处理,但这仅是为了便于解释而描述的。如果一轮投影就可得到较为准确的垂直基准线,则无需进行两轮投影;如果通过两轮投影确定的垂直基准线依然不够准确,还可进行更多轮投影。
此外,尽管在上述描述中,在确定垂直基准线时,以水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化,从而确定垂直基准线,但这仅是用于提高垂直基准线的准确度而进行的。应该理解,在本发明的示例性实施例中,垂直基准线确定单元210也可直接对眼睛图像的灰度图像进行垂直方向的投影,对投影结果进行归一化,然后并基于预先设置的阈值从归一化的投影结果确定处置基准线,而无需使用水平方向的归一化投影结果作为先验概率。
此外,尽管垂直基准线确定单元210确定出两条垂直基准线,但考虑到眼睛在运动过程中,上眼皮的运动剧烈,而下眼皮随眼部运动的变化较小,阈值的选择也相对稳定,因此在对齐图像时可优选地采用与下眼皮相应的垂直基准线来对齐眼睛图像。
下面将结合图6解释水平基准线确定单元220确定水平基准线的示意图。
在本发明的示例性实施例中,仅作为示例,可利用皮肤模型来确定内眼角点,从而确定水平基准线。
具体地讲,在本发明的示例性实施例中,水平基准线确定单元220可首先使用例如内眼角点提取算法来从眼睛图像确定内眼角区域(如图6(a)所示)。然后,水平基准线确定单元220选择并使用内眼角区域附近的皮肤像素建立皮肤模型,皮肤模型可由以下的等式(3)来表示:
其中,μ1是初始化的皮肤像素(即,选择的内眼角区域附近的皮肤像素)的灰度值的均值,是初始化的皮肤像素的灰度值的方差。
水平基准线确定单元220可基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域的二值图像,即,水平基准线确定单元220可基于所述皮肤模型对内眼角区域中的像素进行分类,将像素分类为皮肤区域的像素和非皮肤区域(即,眼睛区域)的像素。具体地讲,可通过以下的等式(4)来对内眼角区域中的像素进行分类:
P1(x)≈N(x|μ1,σ1 2)(4)
在等式(4)中,P1(x)是用于判断内眼角区域中的像素x是否是皮肤像素的概率值,如果P1(x)大于预设的阈值,则像素x是皮肤像素,否则像素x是非皮肤像素。
在从内眼角区域确定出眼睛区域之后,水平基准线确定单元220可将眼睛区域中靠近眉心的位置确定为内眼角点的位置,从而可将经过内眼角点的位置的垂线确定为水平基准线。
此外,由于在选择的皮肤模型中通常会存在噪声的影响,因此对内眼角区域进行一次分割而获得的结果中可能会存在一些错误的分割结果(如图6(b)所示)。为了提高分割的准确度,优选地,水平基准线确定单元220可使用第一次分割的结果对皮肤模型进行更新(即,依据第一次分割的结果从眼睛图像确定内眼角区域,并且选择并使用新确定的内眼角区域附近的皮肤像素来建立更新的皮肤模型,其中,由于通过第一次分割已初步确定了内眼角区域和皮肤区域,因此能够更准确地选出内眼角区域附近的皮肤像素),获得更新后的皮肤模型,如以下的等式(5)所示:
其中,μ2是更新后的皮肤像素(即,新选择的内眼角区域附近的皮肤像素)的灰度值的均值,是更新后的皮肤像素的灰度值的方差。
然后,水平基准线确定单元220可基于更新后的皮肤模型,使用如下的等式(6)对内眼角区域中的像素进行分类:
P2(x)≈N(x|μ2,σ2 2)(6)
在等式(6)中,P2(x)是用于判断内眼角区域中的像素x是否是皮肤像素的概率值,如果P2(x)大于预设的阈值,则像素x是皮肤像素,否则像素x是非皮肤像素。
使用更新的皮肤模型对内眼角点区域进行分割的结果可如图6(c)所示,在图6(c)中,标号610所指示的垂直直线即为确定的水平基准线。与图6(b)示出的经过一次分割而获得的眼睛区域相比,图6(c)的结果更加准确。
在本发明的实施例中,尽管以两轮分割为例描述了水平基准线确定单元220确定水平基准线的处理,但这仅是为了便于解释而描述的。应理解,如果进行一次分割就可得到较为准确的水平基准线,则无需进行二次分割;如果通过两次分割确定的垂直基准线依然不够准确,还可进行更多次分割。
在基准线确定单元120确定了水平基准线和垂直基准线之后,根据本发明的示例性实施例的对齐单元130可使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐,即,调整每个眼睛图像以使不同视线状态下的眼睛图像的垂直基准线和水平基准线在眼睛图像中具有相同的位置(或坐标),从而在不同视线状态下的眼睛图像中,眼睛在图像中的位置相同。图7是示出根据本发明的示例性实施例的另一眼睛图像处理设备100’的框图。
如图7所示,根据本发明的示例性实施例的眼睛图像处理设备100’包括:提取单元110、基准线确定单元120、对齐单元130、响应区域产生单元140和运动特征分析单元150。图7中示出的提取单元110、基准线确定单元120、对齐单元130与图1中示出的提取单元110、基准线确定单元120、对齐单元130具有相同的功能和操作,因此为了简明,在此将不再进行详细描述。
参照图7,响应区域产生单元140可使用对齐的至少两个眼睛图像产生眼睛的水平运动响应图(如图8(a)所示)和/或眼睛的垂直运动响应图(如图8(b)所示)。运动特征分析单元150可从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。
以下,将结合图2和图8详细描述响应区域产生单元140产生水平运动响应图和垂直运动响应图的处理。
针对水平方向的运动,主要是眼球在水平方向的运动,因此需要使用视线在垂直方向上处于同一高度,水平方向上不同的眼睛图像来获得水平运动响应图。类似地,针对垂直方向的运动,主要包括眼球在垂直方向的运动以及眼皮在垂直方向的运动,因此可选取视线在水平方向上位置不变,垂直方向上不同的眼睛图像来获得垂直运动响应图。
仅作为示例,在本发明的实施例中,可使测试人员视线依次集中于图2中所示的每一个标定点上一段时间来采集眼睛图像。当分析水平方向的运动时,分别选取针对标定点1和2采集的两个眼睛图像进行对比,以及针对标定点3和4采集的两个眼睛图像进行对比;当分析垂直方向的运动时,分别选取针对标定点1和3采集的两个眼睛图像进行对比,以及针对标定点2和4采集的两个眼睛图像进行对比。
在本发明的示例性实施例中,响应区域产生单元140可基于均值差分法,使用两对对齐的眼睛图像(其中,每对眼睛图像的视线在垂直方向上处于同一高度,但水平方向上不同)产生眼睛的水平运动响应图。
具体地讲,首先,响应区域产生单元140可分别将标定点1至标定点4的图像划分为预定数量的图像块(例如,划分为M×N个大小相同的图像块),并计算标定点1和标定点2的眼睛图像中的对应图像块(即,在标定点1和标定点2的眼睛图像中处于相同位置的两个图像块)之间的均值图像灰度差以及标定点3和标定点4的眼睛图像中的对应图像块(即,在标定点3和标定点4的眼睛图像中处于相同位置的两个图像块)之间的均值图像差其中,表示标定点1和2的眼睛图像中位置对应的第i个图像块之间的均值图像灰度差,表示标定点3和4的眼睛图像中位置对应的第i个图像块之间的均值图像灰度差,参数为标定点1的眼睛图像中的第i个图像块的平均灰度值,参数为标定点2的眼睛图像中的第i个图像块的平均灰度值,参数为标定点3的眼睛图像中的第i个图像块的平均灰度值,参数为标定点4的眼睛图像中的第i个图像块的平均灰度值,||·||为二阶范数。
这样,响应区域产生单元140可按图像块来确定眼睛在水平方向的平均均值图像灰度差,如以下等式(7)所示:
然后,响应区域产生单元140可基于等式(7)的确定结果来确定眼睛图像中的每个位置(即,与每个图像块对应的位置)的水平方向的运动响应,如等式(8)所示:
在等式(8)中,是与第i个图像块对应的位置的水平方向的运动响应,ε是预先设置的阈值,并可由用户来设置。
类似地,所述响应区域产生单元140也可基于均值差分法,使用两对对齐的眼睛图像(其中,每对眼睛图像的视线在水平方向上不变,但在垂直方向上不同)产生眼睛的垂直运动响应图。
具体地讲,首先,响应区域产生单元140可分别将标定点1至标定点4的图像划分为预定数量的图像块(例如,划分为M×N个大小相同的图像块),并计算标定点1和标定点3的眼睛图像中的对应图像块(即,在标定点1和标定点3的眼睛图像中处于相同位置的两个图像块)之间的均值图像灰度差以及标定点2和标定点4的眼睛图像中的对应图像块(即,在标定点2和标定点4的眼睛图像中处于相同位置的两个图像块)之间的均值图像差其中,表示标定点1和3的眼睛图像中位置对应的第i个图像块之间的均值图像灰度差,表示标定点2和4的眼睛图像中位置对应的第i个图像块之间的均值图像灰度差,参数为标定点1的眼睛图像中的第i个图像块的平均灰度值,参数为标定点2的眼睛图像中的第i个图像块的平均灰度值,参数为标定点3的眼睛图像中的第i个图像块的平均灰度值,参数为标定点4的眼睛图像中的第i个图像块的平均灰度值,||·||为二阶范数。
这样,响应区域产生单元140可按图像块来确定眼睛在垂直方向的平均均值图像灰度差,如以下等式(9)所示:
然后,响应区域产生单元140可等式(9)的确定结果来确定眼睛图像中的每个位置(即,与每个图像块对应的位置)的垂直方向的运动响应,如等式(10)所示:
其中,是与第i个图像块对应的位置的垂直方向的运动响应,ε是预先设置的阈值,并可由用户来设置。
通过上述方法,可确定眼睛图像中的每个位置的水平方向和垂直方向的运动响应,从而可确定出(即,组成)眼睛的水平方向和垂直方向的运动响应图。此外,应理解,在上述方法中,尽管按照图像块来确定水平方向和垂直方向的运动响应,但还可直接将图像块设置为仅包括一个像素,即,按像素逐个确定每个像素的位置的水平方向和垂直方向的运动响应,从而获得眼睛的水平方向和垂直方向的运动响应图。
尽管在以上示例中使用均值差分法产生垂直运动响应图和水平运动响应图,但本发明不限于此,可选择地,所述响应区域产生单元140还可基于主成分分析法来产生运动区域响应图。
具体地讲,对于水平方向的运动,响应区域产生单元140可将针对标定点1采集的眼睛图像的灰度图像数据集合(即,灰度图像的像素的灰度值的集合)I1和针对标定点2采集的眼睛图像的灰度图像数据集合I2设置为一个集合I1-2={I1,I2},将I1-2中的每一幅灰度图像向量化,即,把大小为M×N(即,具有M×N个像素)的2维灰度图像展成为(M×N)的一维向量,然后使用主成分分析法(PCA)找出I1-2中灰度值变化最大的特征向量E1-2,并类似地找出具有针对标定点3采集的眼睛图像的数据集合I3和针对标定点4采集的眼睛图像的数据集合I4的集合I3-4中灰度值变化最大的特征向量E3-4。
然后,响应区域产生单元140可基于所述两个特征向量E1-2和E3-4将水平方向变化最剧烈的特征确定为EH=||E1-2||+||E3-4||,并将(M×N)的一维向量EH转换为归一化的大小为M×N的2维特征图像基于计算每个像素点在眼睛水平运动时的响应强度,从而获得可通过等式(11)表示的水平运动响应图:
其中,是与第i个像素对应的位置的水平方向的运动响应,是2维特征图像中与第i个像素对应的计算结果,ε是预先设置的阈值,并可由用户来设置。
类似地,对于垂直方向的运动,响应区域产生单元140可将针对标定点1采集的眼睛图像的灰度图像数据集合I1和针对标定点3采集的眼睛图像的灰度图像数据集合I3设置为一个集合I1-3,将I1-3中的每一幅灰度图像向量化,即,把大小为M×N的2维灰度图像展成为(M×N)的一维向量。然后使用主成分分析法(PCA)找出I1-3中灰度值变化最大的特征向量E1-3,并类似地找出具有针对标定点2采集的眼睛图像的数据集合I2和针对标定点4采集的眼睛图像的数据集合I4的集合I2-4中灰度值变化最大的特征向量E2-4。
然后,响应区域产生单元140可基于所述两个特征向量E1-3和E2-4将水平方向变化最剧烈的特征确定为EV=||E1-3||+||E2-4||,并将(M×N)的一维向量EV转换为归一化的大小为M×N的2维特征图像基于计算每个像素点在眼睛垂直运动时的响应强度,从而获得可通过等式(12)表示的垂直运动响应图:
是与第i个像素对应的位置的垂直方向的运动响应,是2维特征图像中与第i个像素对应的计算结果,ε是预先设置的阈值,并可由用户来设置。
在获取了眼睛的运动响应图(包括垂直运动响应图和水平运动响应图)后,运动特征分析单元150可分别利用子窗口均值或提取局部特征点等方法从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征,例如,在眼睛图像中对眼球运动响应比较高且能反映眼球运动的区域中提取的如边缘、灰度、角点等特征。提取的特征可被应用于视线估计系统来估计用户的视线。此外,由于在本发明的示例性实施例中,将眼睛的运动分解为相互正交的两个方向(即,垂直方向和水平方向),因此减少了眼睛在两个方向上运动造成外观变化的相互干扰。
图9是示出根据本发明的示例性实施例的眼睛图像处理方法的流程图。
如图9中所示,在步骤910,根据本发明的示例性实施例的提取单元110可从拍摄的图像提取不同视线状态下的眼睛图像。从拍摄的图像提取眼睛图像的方法对于本领域技术人员而言是容易获知的,因此为了简明,在此将不再进行详细描述。
然后,在步骤930,根据本发明的示例性实施例的基准线确定单元120可确定每个眼睛图像的垂直基准线和水平基准线。
具体地讲,在步骤930,所述基准线确定单元120中的垂直基准线单元210可对提取单元提110取的眼睛图像的灰度图像进行垂直方向的投影,并从垂直方向的投影结果确定垂直基准线。仅作为示例,所述垂直基准线确定单元210可对提取单元110提取的眼睛图像的灰度图像进行水平方向的投影和垂直方向的投影,对水平方向的投影结果进行归一化,将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化,并从所述垂直方向的归一化投影结果确定垂直基准线。以上已参照图4和图5详细描述了确定垂直基准线的处理,因此为了简明,在此将不再进行详细描述。
此外,在步骤930中,所述基准线确定单元120中的水平基准线确定单元220可从提取单元110提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。在确定内眼角点位置时,所述水平基准线确定单元220可使用例如内眼角点提取算法从眼睛图像确定内眼角区域,使用内眼角区域附近的皮肤像素建立皮肤模型,基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域,将眼睛区域靠近眉心的位置确定为内眼角点的位置并将经过内眼角点的位置的垂线确定为水平基准线。以上已参照图4和图6详细描述了确定水平基准线的处理,因此为了简明,在此将不再进行详细描述。
在确定了垂直基准线和水平基准线之后,在步骤950,对齐单元130可使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
对齐的眼睛图像可用于分析眼睛的运动信息。例如,在步骤950之后,根据本发明的示例性实施例的眼睛图像处理设备中所包括的响应区域产生单元140可使用对齐的眼睛图像产生眼睛的水平运动响应图或眼睛的垂直运动响应图。在本发明的实施例中,响应区域产生单元140可基于均值差分法或主成分分析法,使用对齐的眼睛图像产生眼睛的水平运动响应图或垂直运动响应图。然后,根据本发明的示例性实施例的眼睛图像处理设备中所包括的运动特征分析单元150可从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。以上已基于图7和图8详细描述了产生眼睛的水平运动响应图和垂直运动响应图的处理,因此为了简明,在此将不再进行更详细的描述。
图10是示出使用根据本发明的眼睛图像处理方法对齐眼睛图像的结果与使用现有算法对齐眼睛图像的结果之间的对比。
参照图10,图10(a)和10(c)均示出使用根据本发明的眼睛图像处理方法对齐眼睛图像的结果并且水平虚线和垂直虚线分别表示使用根据本发明的眼睛图像处理方法所确定的垂直基准线和水平基准线,图10(a)和10(c)均示出使用现有算法(例如,AAM算法)对齐眼睛图像的结果并且水平虚线和垂直虚线分别表示使用现有算法所确定的垂直基准线和水平基准线。此外,图10(a)和(b)是使用根据本发明的眼睛图像处理方法和现有算法分别对同一组眼睛图像进行对齐的结果的对比,图10(c)和(d)是使用根据本发明的眼睛图像处理方法和现有算法分别对另一组眼睛图像进行对齐的结果的对比。
从以上两组对比结果来看,容易看出图10(a)和图10(c)中的眼睛图像的内眼角均处于水平基准线上并且垂直基准线切过下眼皮,而在图10(b)和图10(d)中,许多眼睛图像的内眼角并不在水平基准线上并且所确定的垂直基准线甚至经过一些眼睛的中心位置(例如,图10(b)的最后一行图像)。因此,从图10显而易见的是,使用根据本发明的眼睛图像处理方法对齐眼睛图像的结果比使用现有的算法对齐眼睛图像的结果更加精确。
此外,通过多次实验可表明,使用根据本发明的眼睛图像处理设备和方法来对齐眼睛图像,对齐准确比例至少在90%以上,而使用根据现有算法(例如,AAM算法)来对齐眼睛图像,通常则只能获得70%左右的对齐准确比例。因此,通过应用根据本发明的示例性实施例的眼睛图像处理设备和方法,能够更精确地对齐不同视线状态下的眼睛图像,从而更准确有效地对眼睛运动信息进行分析描述。
本发明示例性实施例可实现为计算机可读记录介质上的计算机可读代码。计算机可读记录介质是可存储其后可由计算机系统读出的数据的任意数据存储装置。计算机可读记录介质的示例包括:只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘、光数据存储装置和载波(诸如经有线或无线传输路径通过互联网的数据传输)。计算机可读记录介质也可分布于连接网络的计算机系统,从而计算机可读代码以分布式存储和执行。此外,完成本发明的功能程序、代码和代码段可容易地被与本发明相关的领域的普通程序员在本发明的范围之内解释。
尽管已经参照其示例性实施例具体显示和描述了本发明,但是本领域的技术人员应该理解,在不脱离权利要求所限定的本发明的精神和范围的情况下,可以对其进行形式和细节上的各种改变。
Claims (12)
1.一种眼睛图像处理设备,所述设备包括:
提取单元,用于从拍摄的图像提取不同视线状态下的眼睛图像;
基准线确定单元,用于确定眼睛图像的垂直基准线和水平基准线;
对齐单元,用于使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
2.如权利要求1所述的设备,其中,所述基准线确定单元包括:
垂直基准线确定单元,用于对提取单元提取的眼睛图像的灰度图像进行垂直方向的投影,并从垂直方向的投影结果确定垂直基准线;
水平基准线确定单元,用于从提取单元提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
3.如权利要求2所述的设备,其中,所述垂直基准线确定单元对提取单元提取的眼睛图像的灰度图像进行水平方向的投影和垂直方向的投影,对水平方向的投影结果进行归一化,将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化,从所述垂直方向的归一化投影结果确定垂直基准线。
4.如权利要求2所述的设备,其中,所述水平基准线确定单元从眼睛图像确定内眼角区域,使用内眼角区域附近的皮肤像素建立皮肤模型,基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域,并将眼睛区域中靠近眉心的位置确定为内眼角点的位置。
5.如权利要求1所述的设备,还包括:
响应区域产生单元,用于使用对齐的眼睛图像产生眼睛的水平运动响应图或眼睛的垂直运动响应图;
运动特征分析单元,用于从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。
6.如权利要求5所述的设备,其中,所述响应区域产生单元基于均值差分法或主成分分析法,使用对齐的眼睛图像产生眼睛的水平运动响应图或垂直运动响应图。
7.一种眼睛图像处理方法,所述方法包括:
从拍摄的图像提取不同视线状态下的眼睛图像;
确定眼睛图像的垂直基准线和水平基准线;
使用确定的垂直基准线和水平基准线,使不同视线状态下的眼睛图像在垂直方向和水平方向上对齐。
8.如权利要求7所述的方法,其中,确定眼睛图像的垂直基准线和水平基准线的步骤包括:
对提取的眼睛图像的灰度图像进行垂直方向的投影,并从垂直方向的投影结果确定垂直基准线;
从提取的眼睛图像确定内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
9.如权利要求8所述的方法,其中,确定眼睛图像的垂直基准线的步骤包括:
对提取的眼睛图像的灰度图像进行垂直方向的投影和水平方向的投影;
对水平方向的投影结果进行归一化;
将水平方向的归一化投影结果作为先验概率对垂直方向的投影结果进行归一化;
从垂直方向的归一化投影结果确定垂直基准线。
10.如权利要求8所述的方法,其中,确定眼睛图像的水平基准线的步骤包括:
从眼睛图像确定内眼角区域;
使用内眼角区域附近的皮肤像素建立皮肤模型;
基于所述皮肤模型将内眼角区域分割为皮肤区域和眼睛区域;
将眼睛区域靠近眉心的位置确定为内眼角点的位置,并将经过内眼角点的位置的垂线确定为水平基准线。
11.如权利要求7所述的方法,还包括:
使用对齐的眼睛图像产生眼睛的水平运动响应图或眼睛的垂直运动响应图;
从眼睛的水平运动响应图或垂直运动响应图提取眼睛的运动特征。
12.如权利要求11所述的方法,其中,基于均值差分法或主成分分析法,使用对齐的眼睛图像产生眼睛的水平运动响应图或垂直运动响应图。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410228899.2A CN105279764B (zh) | 2014-05-27 | 2014-05-27 | 眼睛图像处理设备和方法 |
PCT/KR2015/005288 WO2015182979A1 (ko) | 2014-05-27 | 2015-05-27 | 영상 처리 방법 및 영상 처리 장치 |
KR1020167022297A KR102415507B1 (ko) | 2014-05-27 | 2015-05-27 | 영상 처리 방법 및 영상 처리 장치 |
US15/361,092 US10176374B2 (en) | 2014-05-27 | 2016-11-25 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410228899.2A CN105279764B (zh) | 2014-05-27 | 2014-05-27 | 眼睛图像处理设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105279764A true CN105279764A (zh) | 2016-01-27 |
CN105279764B CN105279764B (zh) | 2020-09-11 |
Family
ID=54699246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410228899.2A Active CN105279764B (zh) | 2014-05-27 | 2014-05-27 | 眼睛图像处理设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10176374B2 (zh) |
KR (1) | KR102415507B1 (zh) |
CN (1) | CN105279764B (zh) |
WO (1) | WO2015182979A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435535A (zh) * | 2021-07-13 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、图像识别方法及设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824888B1 (en) * | 2017-01-19 | 2020-11-03 | State Farm Mutual Automobile Insurance Company | Imaging analysis technology to assess movements of vehicle occupants |
US10740633B2 (en) * | 2017-10-02 | 2020-08-11 | Fotonation Limited | Human monitoring system incorporating calibration methodology |
US20220015629A1 (en) * | 2018-11-21 | 2022-01-20 | Magic Leap, Inc. | System and method for retina template matching in teleophthalmology |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006111744A1 (en) * | 2005-04-21 | 2006-10-26 | University Of Newcastle Upon Tyne | Apparatus and method for monitoring the position of an object |
CN101419664A (zh) * | 2007-10-25 | 2009-04-29 | 株式会社日立制作所 | 视线方向计测方法和视线方向计测装置 |
CN101489467A (zh) * | 2006-07-14 | 2009-07-22 | 松下电器产业株式会社 | 视线方向检测装置和视线方向检测方法 |
CN101908140A (zh) * | 2010-07-29 | 2010-12-08 | 中山大学 | 一种在人脸识别中应用的活体检测方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3272906B2 (ja) * | 1995-05-29 | 2002-04-08 | シャープ株式会社 | 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置 |
US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
JP2000067261A (ja) * | 1998-08-19 | 2000-03-03 | Nippon Telegr & Teleph Corp <Ntt> | 顔動画像作成方法及び装置及びこの方法を記録した記録媒体 |
US6154559A (en) | 1998-10-01 | 2000-11-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for classifying an individual's gaze direction |
JP3768735B2 (ja) | 1999-07-07 | 2006-04-19 | 三菱電機株式会社 | 顔画像処理装置 |
KR100552709B1 (ko) | 2004-05-21 | 2006-02-20 | 삼성전자주식회사 | 눈검출 장치 및 방법 |
KR100724932B1 (ko) | 2005-08-02 | 2007-06-04 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
JP5296458B2 (ja) * | 2008-08-27 | 2013-09-25 | 安川情報システム株式会社 | 瞼開度検出装置、瞼開度検出方法および瞼開度検出プログラム |
JP4915413B2 (ja) * | 2008-12-03 | 2012-04-11 | オムロン株式会社 | 検出装置および方法、並びに、プログラム |
JP5221436B2 (ja) | 2009-04-02 | 2013-06-26 | トヨタ自動車株式会社 | 顔特徴点検出装置及びプログラム |
KR20120006819A (ko) | 2010-07-13 | 2012-01-19 | 한국기초과학지원연구원 | 시선 추적 방법 및 이를 적용하는 장치 |
KR101245846B1 (ko) | 2010-11-17 | 2013-03-20 | 전자부품연구원 | 졸음 인식 장치 및 방법 |
US8594374B1 (en) * | 2011-03-30 | 2013-11-26 | Amazon Technologies, Inc. | Secure device unlock with gaze calibration |
KR101977638B1 (ko) * | 2012-02-29 | 2019-05-14 | 삼성전자주식회사 | 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
-
2014
- 2014-05-27 CN CN201410228899.2A patent/CN105279764B/zh active Active
-
2015
- 2015-05-27 KR KR1020167022297A patent/KR102415507B1/ko active IP Right Grant
- 2015-05-27 WO PCT/KR2015/005288 patent/WO2015182979A1/ko active Application Filing
-
2016
- 2016-11-25 US US15/361,092 patent/US10176374B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006111744A1 (en) * | 2005-04-21 | 2006-10-26 | University Of Newcastle Upon Tyne | Apparatus and method for monitoring the position of an object |
CN101489467A (zh) * | 2006-07-14 | 2009-07-22 | 松下电器产业株式会社 | 视线方向检测装置和视线方向检测方法 |
CN101419664A (zh) * | 2007-10-25 | 2009-04-29 | 株式会社日立制作所 | 视线方向计测方法和视线方向计测装置 |
CN101908140A (zh) * | 2010-07-29 | 2010-12-08 | 中山大学 | 一种在人脸识别中应用的活体检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435535A (zh) * | 2021-07-13 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、图像识别方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
US10176374B2 (en) | 2019-01-08 |
CN105279764B (zh) | 2020-09-11 |
KR20170012191A (ko) | 2017-02-02 |
US20170076136A1 (en) | 2017-03-16 |
WO2015182979A1 (ko) | 2015-12-03 |
KR102415507B1 (ko) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11775056B2 (en) | System and method using machine learning for iris tracking, measurement, and simulation | |
CN105426827B (zh) | 活体验证方法、装置和系统 | |
US9939893B2 (en) | Eye gaze tracking | |
US10068131B2 (en) | Method and apparatus for recognising expression using expression-gesture dictionary | |
KR100682889B1 (ko) | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 | |
CN103810490B (zh) | 一种确定人脸图像的属性的方法和设备 | |
JP6398979B2 (ja) | 映像処理装置、映像処理方法および映像処理プログラム | |
CN108734078B (zh) | 图像处理方法、装置、电子设备、存储介质及程序 | |
CN103810491B (zh) | 融合深度和灰度图像特征点的头姿估计兴趣点检测方法 | |
US20220148333A1 (en) | Method and system for estimating eye-related geometric parameters of a user | |
KR20210028185A (ko) | 사람 자세 분석 시스템 및 방법 | |
CN105389554A (zh) | 基于人脸识别的活体判别方法和设备 | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
CN112837344B (zh) | 一种基于条件对抗生成孪生网络的目标跟踪方法 | |
CN105224285A (zh) | 眼睛开闭状态检测装置和方法 | |
CN104978012A (zh) | 一种指向交互方法、装置及系统 | |
Martinikorena et al. | Fast and robust ellipse detection algorithm for head-mounted eye tracking systems | |
CN105279764A (zh) | 眼睛图像处理设备和方法 | |
CN107844742A (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
CN105912126A (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
CN114333046A (zh) | 舞蹈动作评分方法、装置、设备和存储介质 | |
Naveed et al. | Eye tracking system with blink detection | |
CN105701486A (zh) | 一种在摄像机内实现人脸信息分析及提取的方法 | |
CN111597864A (zh) | 基于累积光流加权特征的微表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |