WO2019033567A1 - 眼球动作捕捉方法、装置及存储介质 - Google Patents

眼球动作捕捉方法、装置及存储介质 Download PDF

Info

Publication number
WO2019033567A1
WO2019033567A1 PCT/CN2017/108746 CN2017108746W WO2019033567A1 WO 2019033567 A1 WO2019033567 A1 WO 2019033567A1 CN 2017108746 W CN2017108746 W CN 2017108746W WO 2019033567 A1 WO2019033567 A1 WO 2019033567A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
eye
real
feature points
eyeball
Prior art date
Application number
PCT/CN2017/108746
Other languages
English (en)
French (fr)
Inventor
陈林
张国辉
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201710708372.3 priority Critical
Priority to CN201710708372.3A priority patent/CN107633206B/zh
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2019033567A1 publication Critical patent/WO2019033567A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00597Acquiring or recognising eyes, e.g. iris verification
    • G06K9/00604Acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
    • G06K9/00268Feature extraction; Face representation
    • G06K9/00281Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00335Recognising movements or behaviour, e.g. recognition of gestures, dynamic facial expressions; Lip-reading
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00597Acquiring or recognising eyes, e.g. iris verification
    • G06K9/0061Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Abstract

一种眼球动作捕捉方法、电子装置及计算机可读存储介质,该方法包括:获取摄像装置拍摄的实时图像,提取一张实时脸部图像;将该实时脸部图像输入预先训练好的眼部平均模型,识别出n 1个眼眶特征点、n 2个眼球特征点;根据该实时脸部图像中(n 1+n 2)个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。上述方法、电子装置及计算机可读存储介质根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。

Description

眼球动作捕捉方法、装置及存储介质
优先权申明
本申请基于巴黎公约申明享有2017年8月17日递交的申请号为CN201710708372.3、名称为“眼球动作捕捉方法、装置及存储介质”的中国专利申请的优先权,该中国专利申请的整体内容以参考的方式结合在本申请中。
技术领域
本申请涉及计算机视觉处理技术领域,尤其涉及一种眼球动作捕捉方法、装置及计算机可读存储介质。
背景技术
眼球动作捕捉是基于人的脸部特征信息进行用户眼部动作识别的一种生物识别技术。目前,眼球动作捕捉的应用领域很广泛,在金融支付、门禁考勤、身份识别等众多领域起到非常重要的作用,给人们的生活带来很大便利。一般产品的做法是使用专业设备检测眼球周围的电场变化,从而实现眼球的捕捉;或者使用摄像机设备,识别虹膜角度的变化,来实现对眼球的跟踪。
然而,以上两种做法均存在不足,第一种,需要佩戴专业设备,对环境要求十分苛刻。第二种,虹膜检测时,要求人眼与摄像机的距离较近,并且虹膜检测速度慢,不适合用在实时情况下。
发明内容
本申请提供一种眼球动作捕捉方法、装置及计算机可读存储介质,其主要目的在于根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
为实现上述目的,本申请提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作捕捉程序,所述眼球动作捕捉程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
优选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
优选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
优选地,所述眼部平均模型的训练步骤包括:
特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
此外,为实现上述目的,本申请还提供一种眼球动作捕捉方法,该方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
优选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
优选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
优选地,所述眼部平均模型的训练步骤包括:
特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
优选地,所述人脸特征识别模型为ERT算法,用公式表示如下:
Figure PCTCN2017108746-appb-000001
其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量
Figure PCTCN2017108746-appb-000002
在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被处理器执行时,实现如上所述的眼球动作捕捉方法中的任意步骤。
本申请提出的眼球动作捕捉方法、装置及计算机可读存储介质,通过将实时脸部图像输入眼部平均模型,利用眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
附图说明
图1为本申请电子装置较佳实施例的示意图;
图2为图1中眼球动作捕捉程序的模块示意图;
图3为本申请眼球动作捕捉方法较佳实施例的流程图;
图4为本申请眼球动作捕捉方法步骤S30的细化流程示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种电子装置1。参照图1所示,为本申请电子装置1较佳实施例的示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。其中,摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。网络接口14可选地可以包括标准的有线接口、 无线接口(如WI-FI接口)。通信总线15用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器11等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器11,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的眼球动作捕捉程序10、人脸图像样本库及构建并训练好的眼部平均模型等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行眼球动作捕捉程序10等。
图1仅示出了具有组件11-15以及眼球动作捕捉程序10的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括射频(Radio Frequency,RF)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可 以包括操作系统、以及眼球动作捕捉程序10;处理器12执行存储器11中存储的眼球动作捕捉程序10时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。
当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接收到该实时图像后,首先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。
其中,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S。每张人脸图像中眼眶特征点、眼球特征点是由人工手动标记。
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
Figure PCTCN2017108746-appb-000003
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。
其中S(t)为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和S(t)来预测一个增量
Figure PCTCN2017108746-appb-000004
把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),…,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,样本库中人脸图像的数量为n,假设每一张样本图片有7个特征点(x,y),其中,6个眼眶特征点、1个眼球特征点,特征向量
Figure PCTCN2017108746-appb-000005
x1~x6表示眼眶特征点的横坐标,x7表示眼球特征点的横坐标。取所有样本图片的部分特征点(例如在每个样本图片的7个特征点中随机取4个特征点)训练出第一棵回归树,将 第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的4个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型(mean shape),并将模型文件及样本库保存至存储器中。因为训练模型的样本标记了6个眼眶特征点、1个眼球特征点,则训练得到的人脸的眼部平均模型可用于从人脸图像中识别6个眼眶特征点、1个眼球特征点。
获取到实时脸部图像后,从存储器中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。在本实施例中,该特征提取算法为SIFT(scale-invariant feature transform)算法。SIFT算法从眼部平均模型中提取每个眼眶特征点和眼球特征点的局部特征,选择一个眼眶特征点和眼球特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点(例如,两个特征点的局部特征的差值在预设范围内),依此原理直到在实时脸部图像中查找出所有眼眶特征点和眼球特征点。在其他实施例中,该特征提取算法还可以为SURF(Speeded Up Robust Features)算法,LBP(Local Binary Patterns)算法,HOG(Histogram of Oriented Gridients)算法等。
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
具体地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x大于0,则说明眼球向左移动,△x小于0,则说明眼球向右移动;△y大于0,说明眼球向上移动,△y小于0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,将会从实 时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
本实施例提出的电子装置1,从实时图像中提取实时脸部图像,利用眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
在其他实施例中,眼球动作捕捉程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本申请。本申请所称的模块是指能够完成特定功能的一系列计算机程序指令段。参照图2所示,为图1中眼球动作捕捉程序10的模块示意图。在本实施例中,所述眼球动作捕捉程序10可以被分割为:获取模块110、识别模块120及计算模块130。所述模块110-130所实现的功能或操作步骤均与上文类似,此处不再详述,示例性地,例如其中:
获取模块110,用于获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
识别模块120,用于将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
计算模块130,用于根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
此外,本申请还提供一种眼球动作捕捉方法。参照图3所示,为本申请眼球动作捕捉方法第一实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,眼球动作捕捉方法包括:
步骤S10,获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,当处理器接受到该实时图像后,首先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将所述实时脸部图像输入预先训练好的眼部平均模型,利用 该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。
其中,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S。每张人脸图像中眼眶特征点、眼球特征点是由人工手动标记。
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
Figure PCTCN2017108746-appb-000006
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。
其中S(t)为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和S(t)来预测一个增量
Figure PCTCN2017108746-appb-000007
把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),…,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,样本库中人脸图像的数量为n,假设每一张样本图片有7个特征点(x,y),其中,6个眼眶特征点、1个眼球特征点,特征向量
Figure PCTCN2017108746-appb-000008
x1~x6表示眼眶特征点的横坐标,x7表示眼球特征点的横坐标。取所有样本图片的部分特征点(例如在每个样本图片的7个特征点中随机取4个特征点)训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的4个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型(mean shape),并将模型文件及样本库保存至存储器中。因为训练模型的样本标记了6个眼眶特征点、1个眼球特征点,则训练得到的人脸的眼部平均模型可用于从人脸图像中识别6个眼眶特征点、1个眼球特征点。
获取到实时脸部图像后,从存储器中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。在本实施例中,该特征提取算法为SIFT算法。SIFT算法从眼部平均模型中提取每个眼眶特征点和眼球特征点的局部特征,选择一个眼眶特征点和眼球特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点(例如,两个特征点的局部特征的差值在预设范围内),依此原理直到在实时脸部图像中查找出所有 眼眶特征点和眼球特征点。在其他实施例中,该特征提取算法还可以为SURF算法,LBP算法,HOG算法等。
步骤S30,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
参照图4所示,为本申请眼球动作捕捉方法中步骤S30的细化流程示意图。具体地,步骤S30包括:
步骤S31,根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
步骤S32,通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x大于0,则说明眼球向左移动,△x小于0,则说明眼球向右移动;△y大于0,说明眼球向上移动,△y小于0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,将会从实时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
本实施例提出的眼球动作捕捉方法,利用该眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,实现对眼球动作的实时捕捉。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被处理器执行时实现如下操作:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球 特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼球位置计算步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
可选地,所述特征点识别步骤还包括:
将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
可选地,所述人脸特征识别模型为ERT算法,用公式表示如下:
Figure PCTCN2017108746-appb-000009
其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量
Figure PCTCN2017108746-appb-000010
在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
本申请之计算机可读存储介质的具体实施方式与上述眼球动作捕捉方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的保护范围,凡是 利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种电子装置,其特征在于,所述装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作捕捉程序,所述眼球动作捕捉程序被所述处理器执行时实现如下步骤:
    实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
    特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
    眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
  2. 根据权利要求1所述的电子装置,其特征在于,所述眼球位置计算步骤包括:
    根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
    通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
  3. 根据权利要求2所述的电子装置,其特征在于,所述特征点识别步骤还包括:
    将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
  4. 根据权利要求3所述的电子装置,其特征在于,所述特征提取算法包括:SIFT算法,SURF算法,LBP算法,HOG算法。
  5. 根据权利要求3所述的电子装置,其特征在于,所述眼部平均模型的训练步骤包括:
    特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
    模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
  6. 根据权利要求5所述的电子装置,其特征在于,所述人脸特征识别模 型为ERT算法,用公式表示如下:
    Figure PCTCN2017108746-appb-100001
    其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量
    Figure PCTCN2017108746-appb-100002
    在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
  7. 根据权利要求1所述的电子装置,其特征在于,所述人脸识别算法包括:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法。
  8. 一种眼球动作捕捉方法,应用于电子装置,其特征在于,所述方法包括:
    实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
    特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
    眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
  9. 根据权利要求8所述的眼球动作捕捉方法,其特征在于,所述眼球位置计算步骤包括:
    根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
    通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
  10. 根据权利要求9所述的眼球动作捕捉方法,其特征在于,所述特征点识别步骤还包括:
    将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
  11. 根据权利要求10所述的眼球动作捕捉方法,其特征在于,所述特征提取算法包括:SIFT算法,SURF算法,LBP算法,HOG算法。
  12. 根据权利要求10所述的眼球动作捕捉方法,其特征在于,所述眼部平均模型的训练步骤包括:
    特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
    模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
  13. 根据权利要求12所述的眼球动作捕捉方法,其特征在于,所述人脸特征识别模型为ERT算法,用公式表示如下:
    Figure PCTCN2017108746-appb-100003
    其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量
    Figure PCTCN2017108746-appb-100004
    在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
  14. 根据权利要求8所述的眼球动作捕捉方法,其特征在于,所述人脸识别算法包括:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法。
  15. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括眼球动作捕捉程序,所述眼球动作捕捉程序被所述处理器执行时实现如下步骤:
    实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
    特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;及
    眼球位置计算步骤:根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
  16. 根据权利要求15所述的计算机可读存储介质,其特征在于,所述眼球位置计算步骤包括:
    根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶 的中心点坐标;及
    通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
  17. 根据权利要求16所述的计算机可读存储介质,其特征在于,所述特征点识别步骤还包括:
    将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在所述实时脸部图像中搜索与所述眼部平均模型的n1个眼眶特征点、n2个眼球特征点匹配的n1个眼眶特征点、n2个眼球特征点。
  18. 根据权利要求17所述的计算机可读存储介质,其特征在于,所述特征提取算法包括:SIFT算法,SURF算法,LBP算法,HOG算法。
  19. 根据权利要求17所述的计算机可读存储介质,其特征在于,所述眼部平均模型的训练步骤包括:
    特征向量样本提取步骤:建立一个有n张人脸图像的样本库,在样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个得到眼部的n个形状特征向量S;及
    模型训练步骤:利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
  20. 根据权利要求19所述的计算机可读存储介质,其特征在于,所述人脸特征识别模型为ERT算法,用公式表示如下:
    Figure PCTCN2017108746-appb-100005
    其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量
    Figure PCTCN2017108746-appb-100006
    在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型。
PCT/CN2017/108746 2017-08-17 2017-10-31 眼球动作捕捉方法、装置及存储介质 WO2019033567A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710708372.3 2017-08-17
CN201710708372.3A CN107633206B (zh) 2017-08-17 2017-08-17 眼球动作捕捉方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US16/338,456 US10650234B2 (en) 2017-08-17 2017-10-31 Eyeball movement capturing method and device, and storage medium

Publications (1)

Publication Number Publication Date
WO2019033567A1 true WO2019033567A1 (zh) 2019-02-21

Family

ID=61099648

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/108746 WO2019033567A1 (zh) 2017-08-17 2017-10-31 眼球动作捕捉方法、装置及存储介质

Country Status (3)

Country Link
US (1) US10650234B2 (zh)
CN (1) CN107633206B (zh)
WO (1) WO2019033567A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109659006B (zh) * 2018-12-10 2021-03-23 深圳先进技术研究院 面肌训练方法、装置及电子设备
CN110148275A (zh) * 2019-04-20 2019-08-20 上海科信建筑智能化工程有限公司 一种视频监控方法及其系统
US10860098B1 (en) * 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383001A (zh) * 2008-10-17 2009-03-11 中山大学 一种快速准确的正面人脸判别方法
CN102819403A (zh) * 2012-08-28 2012-12-12 广东欧珀移动通信有限公司 一种终端设备的人机交互方法及其终端设备
US20160174933A1 (en) * 2014-12-18 2016-06-23 National Taiwan University Acoustic wave intraocular pressure detecting device and method thereof
CN106527705A (zh) * 2016-10-28 2017-03-22 努比亚技术有限公司 一种实现操作的方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7819818B2 (en) * 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
US8396282B1 (en) * 2008-10-31 2013-03-12 Hrl Labortories, Llc Method and system for computing fused saliency maps from multi-modal sensory inputs
US20140154651A1 (en) * 2012-12-04 2014-06-05 Sync-Think, Inc. Quantifying peak cognitive performance using graduated difficulty
JP6191943B2 (ja) * 2013-03-28 2017-09-06 株式会社国際電気通信基礎技術研究所 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
CN104123543B (zh) * 2014-07-23 2018-11-27 泰亿格电子(上海)有限公司 一种基于人脸识别的眼球运动识别方法
US9563805B2 (en) * 2014-09-02 2017-02-07 Hong Kong Baptist University Method and apparatus for eye gaze tracking
US20170023793A1 (en) * 2015-03-16 2017-01-26 RaayonNova, LLC Smart Contact Lens with Embedded Display and Image Focusing System
EP3259734A4 (en) * 2015-02-20 2019-02-20 Seeing Machines Limited GLARE REDUCTION
US10353463B2 (en) * 2016-03-16 2019-07-16 RaayonNova LLC Smart contact lens with eye driven control system and method
US10761601B2 (en) * 2015-03-23 2020-09-01 Controlrad Systems Inc. Eye tracking system including an eye tracker camera and a positioning camera
CN104866105B (zh) * 2015-06-03 2018-03-02 塔普翊海(上海)智能科技有限公司 头显设备的眼动和头动交互方法
CN105141938B (zh) * 2015-08-18 2017-12-01 深圳先进技术研究院 视线定位装置
CA2996039A1 (en) * 2015-08-21 2017-03-02 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
US10303246B2 (en) * 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
CN105930821A (zh) * 2016-05-10 2016-09-07 上海青研信息技术有限公司 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383001A (zh) * 2008-10-17 2009-03-11 中山大学 一种快速准确的正面人脸判别方法
CN102819403A (zh) * 2012-08-28 2012-12-12 广东欧珀移动通信有限公司 一种终端设备的人机交互方法及其终端设备
US20160174933A1 (en) * 2014-12-18 2016-06-23 National Taiwan University Acoustic wave intraocular pressure detecting device and method thereof
CN106527705A (zh) * 2016-10-28 2017-03-22 努比亚技术有限公司 一种实现操作的方法和装置

Also Published As

Publication number Publication date
CN107633206A (zh) 2018-01-26
CN107633206B (zh) 2018-09-11
US20200042788A1 (en) 2020-02-06
US10650234B2 (en) 2020-05-12

Similar Documents

Publication Publication Date Title
WO2019033571A1 (zh) 面部特征点检测方法、装置及存储介质
WO2019033572A1 (zh) 人脸遮挡检测方法、装置及存储介质
WO2019041519A1 (zh) 目标跟踪装置、方法及计算机可读存储介质
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
US10445562B2 (en) AU feature recognition method and device, and storage medium
WO2019033573A1 (zh) 面部情绪识别方法、装置及存储介质
US20150339536A1 (en) Collaborative text detection and recognition
WO2019071664A1 (zh) 结合深度信息的人脸识别方法、装置及存储介质
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
WO2019109526A1 (zh) 人脸图像的年龄识别方法、装置及存储介质
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
CN109325456B (zh) 目标识别方法、装置、目标识别设备及存储介质
US9633272B2 (en) Real time object scanning using a mobile phone and cloud-based visual search engine
Vazquez-Fernandez et al. Built-in face recognition for smart photo sharing in mobile devices
WO2019061658A1 (zh) 眼镜定位方法、装置及存储介质
JP2020518051A (ja) 顔姿勢検出方法、装置及び記憶媒体
JP2013186546A (ja) 人物検索システム
WO2019033568A1 (zh) 嘴唇动作捕捉方法、装置及存储介质
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
Lahiani et al. Hand pose estimation system based on Viola-Jones algorithm for android devices
CN107679475B (zh) 门店监控评价方法、装置及存储介质
CN109711287B (zh) 人脸采集方法及相关产品
CN106406507B (zh) 图像处理方法以及电子设备
WO2021084898A1 (ja) 画像管理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17921610

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 25.09.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17921610

Country of ref document: EP

Kind code of ref document: A1