CN107633206B - 眼球动作捕捉方法、装置及存储介质 - Google Patents
眼球动作捕捉方法、装置及存储介质 Download PDFInfo
- Publication number
- CN107633206B CN107633206B CN201710708372.3A CN201710708372A CN107633206B CN 107633206 B CN107633206 B CN 107633206B CN 201710708372 A CN201710708372 A CN 201710708372A CN 107633206 B CN107633206 B CN 107633206B
- Authority
- CN
- China
- Prior art keywords
- eyeball
- real
- eye
- characteristic point
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
Abstract
本发明公开了一种眼球动作捕捉方法、装置及存储介质,该方法包括:获取摄像装置拍摄的实时图像,提取一张实时脸部图像;将该实时脸部图像输入预先训练好的眼部平均模型,识别出n1个眼眶特征点、n2个眼球特征点;根据该实时脸部图像中(n1+n2)个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。本发明根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
Description
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种眼球动作捕捉方法、装置及计算机可读存储介质。
背景技术
眼球动作捕捉是基于人的脸部特征信息进行用户眼部动作识别的一种生物识别技术。目前,眼球动作捕捉的应用领域很广泛,在金融支付、门禁考勤、身份识别等众多领域起到非常重要的作用,给人们的生活带来很大便利。一般产品的做法是使用专业设备检测眼球周围的电场变化,从而实现眼球的捕捉;或者使用摄像机设备,识别虹膜角度的变化,来实现对眼球的跟踪。
然而,以上两种做法均存在不足,第一种,需要佩戴专业设备,对环境要求十分苛刻。第二种,虹膜检测时,要求人眼与摄像机的距离较近,并且虹膜检测速度慢,不适合用在实时情况下。
发明内容
本发明提供一种眼球动作捕捉方法、装置及计算机可读存储介质,其主要目的在于根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
为实现上述目的,本发明提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作捕捉程序,所述眼球动作捕捉程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼部平均模型的训练步骤包括:
特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该n1+n2个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
可选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
此外,为实现上述目的,本发明还提供一种眼球动作捕捉方法,该方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼部平均模型的训练步骤包括:
特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该n1+n2个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型,其中,所述人脸特征识别模型为ERT算法,用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器,为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和来预测一个增量在模型训练的过程中,取所有样本图像的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
可选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被处理器执行时,实现如上所述的眼球动作捕捉方法中的任意步骤。
本发明提出的眼球动作捕捉方法、装置及计算机可读存储介质,通过将实时脸部图像输入眼部平均模型,利用眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
附图说明
图1为本发明电子装置较佳实施例的示意图;
图2为图1中眼球动作捕捉程序的功能模块图;
图3为本发明眼球动作捕捉方法较佳实施例的流程图;
图4为本发明眼球动作捕捉方法步骤S30的细化流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种电子装置1。参照图1所示,为本发明电子装置1较佳实施例的示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。其中,摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。通信总线15用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器11等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器11,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的眼球动作捕捉程序10、人脸图像样本库及构建并训练好的眼部平均模型等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行眼球动作捕捉程序10等。
图1仅示出了具有组件11-15以及眼球动作捕捉程序10的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括RF(Radio Frequency,射频)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作系统、以及眼球动作捕捉程序10;处理器12执行存储器11中存储的眼球动作捕捉程序10时实现如下步骤:
在人脸图像样本库的每张样本图像中标记眼部特征点、得到眼部的形状特征向量样本,利用眼部的形状特征向量样本对人脸特征识别模型进行训练得到关于人脸的眼部平均模型,将模型文件及样本库保存至存储器11中;获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取出实时脸部图像,并将该实时脸部图像输入所述眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息。
在其他实施例中,眼球动作捕捉程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
参照图2所示,为图1中眼球动作捕捉程序10的功能模块图。
所述眼球动作捕捉程序10可以被分割为:获取模块110、识别模块120及计算模块130。
获取模块110,用于获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接受到该实时图像后,所述获取模块110利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
识别模块120,用于将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。例如,假设眼部平均模型中有6个眼眶特征点、1个眼球特征点,当获取模块110提取出实时脸部图像后,所述识别模块120从存储器11中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。其中,所述人脸的眼眼部平均模型是预先构建并训练好的,具体实施方式将在下述眼球动作捕捉方法中进行说明。
在本实施例中,所述特征提取算法为SIFT(scale-invariant featuretransform)算法。SIFT算法从人脸的眼部平均模型后提取每个眼部特征点的局部特征,如6个眼眶特征点、1个眼球特征点,选择一个眼部特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点,例如,两个特征点的局部特征的差值是否在预设范围内,若是,则表明该特征点与参考特征点的局部特征相同或相似,并将其作为一个眼部特征点。依此原理直到在实时脸部图像中查找出所有眼部特征点。
在其他实施例中,该特征提取算法还可以为SURF(Speeded Up Robust Features)算法,LBP(Local Binary Patterns)算法,HOG(Histogram of Oriented Gridients)算法等。
计算模块130,用于根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
具体地,所述计算模块130用于:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若所述识别模块120从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
所述计算模块130利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x大于0,则说明眼球向左移动,△x小于0,则说明眼球向右移动;△y大于0,说明眼球向上移动,△y小于0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,识别模块120将会从实时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
本实施例提出的电子装置1,从实时图像中提取实时脸部图像,利用眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
此外,本发明还提供一种眼球动作捕捉方法。参照图3所示,为本发明眼球动作捕捉方法第一实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,眼球动作捕捉方法包括:
步骤S10,获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,当处理器接受到该实时图像后,利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。
其中,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该n1+n2个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S。每张人脸图像中眼眶特征点、眼球特征点是由人工手动标记。
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。
其中为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和来预测一个增量把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),…,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,样本库中人脸图像的数量为n,假设每一张样本图片有7个特征点(x,y),其中,6个眼眶特征点、1个眼球特征点,特征向量x1~x6表示眼眶特征点的横坐标,x7表示眼球特征点的横坐标。取所有样本图片的部分特征点(例如在每个样本图片的7个特征点中随机取4个特征点)训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的4个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型(mean shape),并将模型文件及样本库保存至存储器中。因为训练模型的样本标记了6个眼眶特征点、1个眼球特征点,则训练得到的人脸的眼部平均模型可用于从人脸图像中识别6个眼眶特征点、1个眼球特征点。
获取到实时脸部图像后,从存储器中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。
具体地,该特征提取算法还可以为SIFT算法,SURF算法,LBP算法,HOG算法等。
步骤S30,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
参照图4所示,为本发明眼球动作捕捉方法中步骤S30的细化流程示意图。具体地,步骤S30包括:
步骤S31,根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
步骤S32,通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x大于0,则说明眼球向左移动,△x小于0,则说明眼球向右移动;△y大于0,说明眼球向上移动,△y小于0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,将会从实时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
本实施例提出的眼球动作捕捉方法,利用该眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被处理器执行时实现如下操作:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述人脸特征识别模型为ERT算法,用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器,为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和来预测一个增量在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
可选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
本发明之计算机可读存储介质的具体实施方式与上述眼球动作捕捉方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (9)
1.一种电子装置,其特征在于,所述装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作捕捉程序,所述眼球动作捕捉程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点,该眼部平均模型的训练过程包括:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该n1+n2个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S,利用所述n个形状特征向量S对人脸特征识别模型进行训练得到该眼部平均模型;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
2.根据权利要求1所述的电子装置,其特征在于,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
3.根据权利要求1或2所述的电子装置,其特征在于,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
4.一种眼球动作捕捉方法,其特征在于,所述方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点,该眼部平均模型的训练过程包括:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该n1+n2个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S,利用所述n个形状特征向量S对人脸特征识别模型进行训练得到该眼部平均模型;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
5.根据权利要求4所述的眼球动作捕捉方法,其特征在于,所述所述人脸特征识别模型为ERT算法,用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器,为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和来预测一个增量在模型训练的过程中,取所有样本图像的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
6.根据权利要求4所述的眼球动作捕捉方法,其特征在于,所述人脸识别算法包括:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法。
7.根据权利要求4所述的眼球动作捕捉方法,其特征在于,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
8.根据权利要求4或5所述的眼球动作捕捉方法,其特征在于,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被处理器执行时,实现如权利要求4至8中任一项所述的眼球动作捕捉方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710708372.3A CN107633206B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作捕捉方法、装置及存储介质 |
US16/338,456 US10650234B2 (en) | 2017-08-17 | 2017-10-31 | Eyeball movement capturing method and device, and storage medium |
PCT/CN2017/108746 WO2019033567A1 (zh) | 2017-08-17 | 2017-10-31 | 眼球动作捕捉方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710708372.3A CN107633206B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作捕捉方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107633206A CN107633206A (zh) | 2018-01-26 |
CN107633206B true CN107633206B (zh) | 2018-09-11 |
Family
ID=61099648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710708372.3A Active CN107633206B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作捕捉方法、装置及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10650234B2 (zh) |
CN (1) | CN107633206B (zh) |
WO (1) | WO2019033567A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109659006B (zh) * | 2018-12-10 | 2021-03-23 | 深圳先进技术研究院 | 面肌训练方法、装置及电子设备 |
CN109803450A (zh) * | 2018-12-12 | 2019-05-24 | 平安科技(深圳)有限公司 | 无线设备与电脑连接方法、电子装置及存储介质 |
CN110148275A (zh) * | 2019-04-20 | 2019-08-20 | 上海科信建筑智能化工程有限公司 | 一种视频监控方法及其系统 |
US10860098B1 (en) * | 2019-12-30 | 2020-12-08 | Hulu, LLC | Gesture-based eye tracking |
CN113436070B (zh) * | 2021-06-20 | 2022-05-17 | 四川大学 | 一种基于深度神经网络的眼底图像拼接方法 |
CN113505742A (zh) * | 2021-07-27 | 2021-10-15 | 宁波星巡智能科技有限公司 | 婴幼儿睡眠跟踪监控方法、装置、设备及存储介质 |
CN113786189B (zh) * | 2021-07-30 | 2023-08-01 | 上海赛增医疗科技有限公司 | 基于同一图像采集设备的头动眼动复合捕捉方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194617A (ja) * | 2013-03-28 | 2014-10-09 | Advanced Telecommunication Research Institute International | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム |
CN104123543A (zh) * | 2014-07-23 | 2014-10-29 | 泰亿格电子(上海)有限公司 | 一种基于人脸识别的眼球运动识别方法 |
CN104866105A (zh) * | 2015-06-03 | 2015-08-26 | 深圳市智帽科技开发有限公司 | 头显设备的眼动和头动交互方法 |
CN105141938A (zh) * | 2015-08-18 | 2015-12-09 | 深圳先进技术研究院 | 视线定位装置 |
CN105930821A (zh) * | 2016-05-10 | 2016-09-07 | 上海青研信息技术有限公司 | 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7819818B2 (en) * | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
CN101383001B (zh) * | 2008-10-17 | 2010-06-02 | 中山大学 | 一种快速准确的正面人脸判别方法 |
US8396282B1 (en) * | 2008-10-31 | 2013-03-12 | Hrl Labortories, Llc | Method and system for computing fused saliency maps from multi-modal sensory inputs |
CN102819403A (zh) * | 2012-08-28 | 2012-12-12 | 广东欧珀移动通信有限公司 | 一种终端设备的人机交互方法及其终端设备 |
US20140154651A1 (en) * | 2012-12-04 | 2014-06-05 | Sync-Think, Inc. | Quantifying peak cognitive performance using graduated difficulty |
US9563805B2 (en) * | 2014-09-02 | 2017-02-07 | Hong Kong Baptist University | Method and apparatus for eye gaze tracking |
TWI603708B (zh) * | 2014-12-18 | 2017-11-01 | 國立臺灣大學 | 聲波眼壓偵測裝置及其方法 |
WO2016131075A1 (en) * | 2015-02-20 | 2016-08-25 | Seeing Machines Limited | Glare reduction |
US20170023793A1 (en) * | 2015-03-16 | 2017-01-26 | RaayonNova, LLC | Smart Contact Lens with Embedded Display and Image Focusing System |
EP3274920A4 (en) * | 2015-03-23 | 2018-11-07 | ControlRAD Systems Inc. | Eye tracking system |
CA2996039A1 (en) * | 2015-08-21 | 2017-03-02 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
US10303246B2 (en) * | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
US10353463B2 (en) * | 2016-03-16 | 2019-07-16 | RaayonNova LLC | Smart contact lens with eye driven control system and method |
CN106527705A (zh) | 2016-10-28 | 2017-03-22 | 努比亚技术有限公司 | 一种实现操作的方法和装置 |
-
2017
- 2017-08-17 CN CN201710708372.3A patent/CN107633206B/zh active Active
- 2017-10-31 US US16/338,456 patent/US10650234B2/en active Active
- 2017-10-31 WO PCT/CN2017/108746 patent/WO2019033567A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194617A (ja) * | 2013-03-28 | 2014-10-09 | Advanced Telecommunication Research Institute International | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム |
CN104123543A (zh) * | 2014-07-23 | 2014-10-29 | 泰亿格电子(上海)有限公司 | 一种基于人脸识别的眼球运动识别方法 |
CN104866105A (zh) * | 2015-06-03 | 2015-08-26 | 深圳市智帽科技开发有限公司 | 头显设备的眼动和头动交互方法 |
CN105141938A (zh) * | 2015-08-18 | 2015-12-09 | 深圳先进技术研究院 | 视线定位装置 |
CN105930821A (zh) * | 2016-05-10 | 2016-09-07 | 上海青研信息技术有限公司 | 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置 |
Also Published As
Publication number | Publication date |
---|---|
US10650234B2 (en) | 2020-05-12 |
WO2019033567A1 (zh) | 2019-02-21 |
US20200042788A1 (en) | 2020-02-06 |
CN107633206A (zh) | 2018-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN107633204B (zh) | 人脸遮挡检测方法、装置及存储介质 | |
CN107633206B (zh) | 眼球动作捕捉方法、装置及存储介质 | |
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
CN107679449B (zh) | 嘴唇动作捕捉方法、装置及存储介质 | |
CN107862292B (zh) | 人物情绪分析方法、装置及存储介质 | |
CN107633205B (zh) | 嘴唇动作分析方法、装置及存储介质 | |
WO2021114892A1 (zh) | 基于环境语义理解的人体行为识别方法、装置、设备及存储介质 | |
CN107808120B (zh) | 眼镜定位方法、装置及存储介质 | |
WO2019041519A1 (zh) | 目标跟踪装置、方法及计算机可读存储介质 | |
CN108875542B (zh) | 一种人脸识别方法、装置、系统及计算机存储介质 | |
WO2019033571A1 (zh) | 面部特征点检测方法、装置及存储介质 | |
CN108053447A (zh) | 基于图像的重定位方法、服务器及存储介质 | |
CN111985360A (zh) | 一种人脸识别的方法、装置、设备和介质 | |
Khowaja et al. | Facial expression recognition using two-tier classification and its application to smart home automation system | |
Lahiani et al. | Hand pose estimation system based on Viola-Jones algorithm for android devices | |
CN114299546A (zh) | 识别宠物身份的方法、装置、存储介质及电子设备 | |
CN112417205A (zh) | 目标检索装置及方法、电子设备 | |
CN115223239A (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN113536914A (zh) | 一种对象跟踪识别方法、系统、设备及介质 | |
CN107831896B (zh) | 音频信息播放方法、装置、存储介质及电子设备 | |
CN114255375A (zh) | 一种图像数据的处理方法、装置及电子设备 | |
CN111241990A (zh) | 图像处理方法及装置、计算机设备、计算机可读存储介质 | |
CN109583471A (zh) | 用于智能手机识别的方法及装置 | |
Akila et al. | Managing interclass variation in human action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246909 Country of ref document: HK |