CN115546876A - 一种瞳孔追踪方法及装置 - Google Patents

一种瞳孔追踪方法及装置 Download PDF

Info

Publication number
CN115546876A
CN115546876A CN202211382954.4A CN202211382954A CN115546876A CN 115546876 A CN115546876 A CN 115546876A CN 202211382954 A CN202211382954 A CN 202211382954A CN 115546876 A CN115546876 A CN 115546876A
Authority
CN
China
Prior art keywords
pupil
pupil position
current frame
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211382954.4A
Other languages
English (en)
Other versions
CN115546876B (zh
Inventor
黄晋
柯志麟
姚王泮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tuyu Information Technology Co ltd
Original Assignee
Guangzhou Tuyu Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Tuyu Information Technology Co ltd filed Critical Guangzhou Tuyu Information Technology Co ltd
Priority to CN202211382954.4A priority Critical patent/CN115546876B/zh
Publication of CN115546876A publication Critical patent/CN115546876A/zh
Application granted granted Critical
Publication of CN115546876B publication Critical patent/CN115546876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种瞳孔追踪方法及装置,方法包括以下步骤:输入图像后,获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;判断上一帧的彩色图像中是否存在人脸,如果是,则根据上一帧的瞳孔预测位置确定当前帧的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果。本发明实现了瞳孔定位追踪的高精度、高帧率及低延时。

Description

一种瞳孔追踪方法及装置
技术领域
本发明属于计算机图像处理技术领域,尤其涉及一种对图像进行瞳孔追踪定位的方法及装置。
背景技术
在裸眼3D领域中,常常需要对使用者进行瞳孔定位,让左右眼睛看见不同的画面以产生立体显示效果。为了让显示效果更加自然,对瞳孔定位的精度、帧率、延时有很高的要求。如果瞳孔定位精度过低,会让立体效果不够真实;如果瞳孔定位帧率过低,使用者在移动中会感觉显示画面晃动;如果瞳孔定位延时过高,会让使用者有眩晕感,而无法长时间观看。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种高精度、高帧率、低延时的瞳孔追踪方法及装置。
本发明的目的采用以下技术方案实现:
一种瞳孔追踪方法,包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;
S4、使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果。
进一步的,所述步骤S2中,如果在当前帧的彩色图像中没有检测到人脸区域,则结束对当前帧的处理,并获取下一帧的图像,然后返回步骤S1,对下一帧进行处理。
进一步的,所述步骤S3中,通过瞳孔定位获得彩色图像中的左眼坐标和右眼坐标后,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure BDA0003928736060000021
作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中,其中,xm、ym、zm为双眼中点坐标,θ、
Figure BDA0003928736060000022
r为xr-xm、yr-ym、zr-zm的极坐标表示。
进一步的,所述步骤S4中,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
S403、基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,即得到瞳孔预测位置。
进一步的,所述瞳孔位置预测方程为:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,所述步骤S403中,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数;
当n=1时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C;
瞳孔位置数据集合每更新一次,即对瞳孔位置预测方程更新一次,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测。
进一步的,步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域。
本发明还提供了一种瞳孔追踪装置,包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测。
进一步的,所述人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
进一步的,所述瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure BDA0003928736060000051
作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
进一步的,所述瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置;
所述瞳孔位置预测方程为:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数;
当n=1时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C。
相比现有技术,本发明的有益效果在于:
本发明的瞳孔追踪方法使用瞳孔位置预测方程,不仅能够追踪当前帧的瞳孔位置,还能够基于瞳孔位置数据集合,利用当前帧的瞳孔位置对当前时间的瞳孔位置进行预测,实现瞳孔追踪低延时;而且瞳孔位置预测方程基于多帧瞳孔位置拟合得到,能够修正单帧图片的误差,实现瞳孔追踪高精度;本发明的瞳孔追踪方法还基于预测的瞳孔位置来定位当前帧的人脸区域,从而只在使用者的人脸第一次出现时需要在当前帧中进行人脸检测,节省了人脸检测的计算量,实现了瞳孔追踪高帧率。而且本发明方法通过左右眼坐标的转换,相比于使用瞳孔原始坐标,能够更准确地预测带旋转的移动,使瞳孔定位追踪更为准确。
附图说明
图1为本发明实施例的流程图图;
图2为本发明装置的框图。
具体实施方式
下面,结合具体实施方式,对本发明做进一步描述。
本发明方法用于在图像中进行瞳孔的定位,本发明的图像可通过同时具备彩色图像和深度图像拍摄功能的图像获取装置获得,例如由RGBD摄像头拍摄的图像,所获得的图像既包括彩色图像,也包括深度图像。如图1所示,本发明的瞳孔追踪方法包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步,步骤S3,瞳孔位于彩色图像中的人脸区域内,因此当瞳孔位置确定后即可在彩色图像中确定人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,如当前帧为第一帧,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步,如果没有检测到人脸区域,则结束对当前帧的处理,并返回步骤S1,获取下一帧的图像,对下一帧进行处理;
本步骤在彩色图像中检测人脸区域的目的是为了便于快速对瞳孔进行定位,当人脸区域确定后,即可大致定位出瞳孔的位置,以便于在下一步骤中对瞳孔位置进行精确定位,能够减少瞳孔定位的时间;可选的,可采用主流的基于深度学习的目标检测法来在彩色图像中进行人脸区域的检测;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合S中;
可选的,可采用基于深度学习的关键点定位法来获取瞳孔位置,如,采用基于深度学习的关键点定位法首先获得2D瞳孔定位模型,然后使用2D瞳孔定位模型在当前帧的彩色图像上获取2D瞳孔位置,然后在当前帧的深度图像上获取3D瞳孔位置,3D瞳孔位置用左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)进行表示;基于深度学习的目标检测法以及基于深度学习的关键点定位法均为已知的成熟的图像处理方法,如基于深度学习的目标检测法可参考YOLOv3:An Incremental Improvement,Joseph Redmon,基于深度学习的关键点定位法可参考Wing Loss for Robust Facial Landmark Localisation with ConvolutionalNeural Networks,Zhen-Hua Feng,这两种方法都不是本发明的创新之处,这里不对以上两种方法进行赘述;
本发明在获得彩色图像中的左眼坐标和右眼坐标后有一个坐标转换的步骤,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure BDA0003928736060000081
即本发明的当前帧的瞳孔位置p为
Figure BDA0003928736060000082
而不是常规的左眼坐标和右眼坐标,瞳孔位置p中的xm、ym、zm为双眼中点坐标,即xm=(xl+xr)/2,ym=(yl+yr)/2,zm=(zl+zr)/2,θ、
Figure BDA0003928736060000083
r为xr-xm、yr-ym、zr-zm的极坐标表示,坐标转换得到瞳孔位置p后,将得到的瞳孔位置p保存至瞳孔位置数据集合S中;本发明将双眼坐标进行坐标转换后,得到的瞳孔位置p中的θ、
Figure BDA0003928736060000084
直接反映了旋转移动造成的物体角度变换,从而使用转换后的坐标进行轨迹拟合能够更好地贴合旋转移动的情况;
瞳孔位置数据集合S中保存有多帧图像的瞳孔位置信息及相对应的图像的成像时间;瞳孔位置数据集合S中的元素包括和图像的成像时间t1,t2,...,tn相对应的瞳孔位置p1,p2,...,pn,n为瞳孔位置数据集合S元素的数量,即所保存的图像的帧数;和某一成像时间相对应的瞳孔位置所包含的数据包括xm、ym、zm、θ、
Figure BDA0003928736060000091
r,瞳孔位置数据集合S中的元素按成像时间从小到大进行排序,t1,t2,...,tn分别表示第1帧图像、第2帧图像,...,第n帧图像的成像时间,p1,p2,...,pn分别表示第1帧图像、第2帧图像,...,第n帧图像的瞳孔位置;
S4、使用瞳孔位置预测方程,基于瞳孔位置数据集合,进行瞳孔位置的预测,并输出瞳孔预测结果,瞳孔预测结果可以包括瞳孔位置预测方程、瞳孔预测位置等信息中的一项或多项。
可选的,步骤S4中,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和步骤S3获得的当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则对瞳孔位置数据集合S进行更新,即用当前帧(最新一帧)的瞳孔位置覆盖瞳孔位置数据集合S中最早一帧的瞳孔位置,瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离的平均值=(瞳孔预测位置中左右眼的距离+当前帧的瞳孔位置左右眼的距离)/2;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,即使用者发生了切换,此时对瞳孔位置数据集合S进行初始化,即对瞳孔位置数据集合S中的数据清零,重新存入新的使用者的瞳孔位置数据,在后续的瞳孔位置预测方程拟合更新的过程中,不使用上一位使用者的瞳孔位置数据;设定阈值可根据图像获取设备相应调节,一般为cm级别,如为1cm等;
S403、基于瞳孔位置数据集合S,对瞳孔位置预测方程(拟合系数)进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置,然后输出瞳孔预测结果。
瞳孔位置预测方程的更新只需要使用最近一段时间的瞳孔位置数据即可,即瞳孔位置数据集合S只需要保存最近一段时间的瞳孔位置数据,瞳孔位置数据集合S中保存的图像帧数可根据图像获取设备的具体情况来设定,一般为秒级,例如可设为1秒的长度,瞳孔位置数据集合S中保留的是最近1秒的所有帧的瞳孔位置的数据。瞳孔位置数据集合S只保留一段时间的数据,以避免需要存储太多的数据,占用设备内存,同时也避免瞳孔位置数据集合S中的数据过多导致计算量太大。
本发明的瞳孔位置预测方程:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,拟合系数A、B、C为6维向量,瞳孔位置预测方程的更新实际为拟合系数A、B、C的更新,步骤S403中,瞳孔位置预测方程更新的具体步骤如下:
基于瞳孔位置数据集合S,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数,0<w<1;
当n=1时,即当前帧图像为第1帧图像时,或者使用者切换时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C;
解出拟合系数A、B、C后,瞳孔位置预测方程即确定,瞳孔位置数据集合S每更新一次,即对瞳孔位置预测方程(的拟合系数)进行更新,然后就可以使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入瞳孔位置预测方程中进行计算,即得到瞳孔预测位置。
可选的,步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置,即对当前帧的瞳孔位置进行预测;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系,仿射变换关系可通过旋转、缩放、平移得到,如何得到两者间的仿射变换关系是图像处理领域的常规技术手段,不是本发明的创新之处,这里不做赘述;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域,例如,人脸区域用一个矩形框表示,将上一帧的矩形框的4个顶点用步骤b得到的仿射变换关系,即可得到当前帧的人脸区域对应的矩形框的4个顶点。
本发明的通孔追踪方法在检测瞳孔位置时,还使用了瞳孔位置预测方程来预测瞳孔位置,当人脸在快速移动时,相邻两帧图像的人脸区域相差过大,用上一帧的瞳孔位置难以准确获取当前帧的人脸区域,本方法通过对每一帧都进行瞳孔位置的预测,并根据多帧的瞳孔位置更新瞳孔位置预测方程,可以在人脸快速移动时利用瞳孔预测结果快速定位人脸区域,提高了追踪方法的帧率与精确性。而且本发明方法无需额外的如传感器等设备,成本更低。
本发明还提供了一种瞳孔追踪装置,下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。如图2所示,其示出了本申请一个示例性实施例提供的瞳孔追踪装置的结构框图。该装置可以通过软件、硬件或者两者的结合实现。本实施例的瞳孔追踪装置包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测。
可选的,人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
可选的,瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure BDA0003928736060000131
作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
可选的,瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置,然后输出瞳孔预测结果;
瞳孔位置预测方程为:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数;
当n=1时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C。
需要说明的是,上述实施例提供的装置在执行前述瞳孔追踪方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的瞳孔追踪装置与瞳孔追踪方法实施例属于同一构思,其体现实现过程及带来的技术效果详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (10)

1.一种瞳孔追踪方法,其特征在于,包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;
S4、使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果。
2.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述步骤S2中,如果在当前帧的彩色图像中没有检测到人脸区域,则结束对当前帧的处理,并获取下一帧的图像,然后返回步骤S1,对下一帧进行处理。
3.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述步骤S3中,通过瞳孔定位获得彩色图像中的左眼坐标和右眼坐标后,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure FDA0003928736050000011
作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中,其中,xm、ym、zm为双眼中点坐标,θ、
Figure FDA0003928736050000012
r为xr-xm、yr-ym、zr-zm的极坐标表示。
4.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述步骤S4中,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
S403、基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,即得到瞳孔预测位置。
5.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述瞳孔位置预测方程为:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,所述步骤S403中,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数;
当n=1时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C;
瞳孔位置数据集合每更新一次,即对瞳孔位置预测方程更新一次,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测。
6.根据权利要求1所述的瞳孔追踪方法,其特征在于:步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域。
7.一种瞳孔追踪装置,其特征在于,包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测。
8.根据权利要求7所述的瞳孔追踪装置,其特征在于:所述人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
9.根据权利要求7所述的瞳孔追踪装置,其特征在于:所述瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(xl,yl,zl)和右眼坐标(xr,yr,zr)转换为
Figure FDA0003928736050000041
作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
10.根据权利要求7所述的瞳孔追踪装置,其特征在于:所述瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中右眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置;
所述瞳孔位置预测方程为:q=t2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|1≤i≤n},确定拟合系数A、B、C,式中的ti为第ti帧图像的成像时间,qi为瞳孔位置数据集合S中和成像时间ti相对应的瞳孔位置,w为时间加权系数;
当n=1时,令A=B=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出C;
当n=2时,令A=0,求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出B、C;
当n>2时,用最小二乘法求解方程组{(ti 2×A+ti×B+C-qi)×w|ti-in|)=0|,解出A、B、C。
CN202211382954.4A 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置 Active CN115546876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211382954.4A CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211382954.4A CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Publications (2)

Publication Number Publication Date
CN115546876A true CN115546876A (zh) 2022-12-30
CN115546876B CN115546876B (zh) 2023-12-19

Family

ID=84720513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211382954.4A Active CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Country Status (1)

Country Link
CN (1) CN115546876B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
CN110598635A (zh) * 2019-09-12 2019-12-20 北京大学第一医院 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统
US20200105016A1 (en) * 2018-09-27 2020-04-02 Aisin Seiki Kabushiki Kaisha Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
CN112070806A (zh) * 2020-09-14 2020-12-11 北京华严互娱科技有限公司 一种基于视频图像的实时瞳孔跟踪方法和系统
CN112488032A (zh) * 2020-12-11 2021-03-12 重庆邮电大学 一种基于鼻眼结构约束的人眼定位方法
US20210085174A1 (en) * 2019-09-25 2021-03-25 Aisin Seiki Kabushiki Kaisha Eyeball structure estimation apparatus
WO2021164678A1 (zh) * 2020-02-20 2021-08-26 深圳爱酷智能科技有限公司 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备
CN113342157A (zh) * 2020-02-18 2021-09-03 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
CN114360043A (zh) * 2022-03-18 2022-04-15 南昌虚拟现实研究院股份有限公司 模型参数标定方法、视线追踪方法、装置、介质及设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US20200105016A1 (en) * 2018-09-27 2020-04-02 Aisin Seiki Kabushiki Kaisha Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
CN110598635A (zh) * 2019-09-12 2019-12-20 北京大学第一医院 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统
US20210085174A1 (en) * 2019-09-25 2021-03-25 Aisin Seiki Kabushiki Kaisha Eyeball structure estimation apparatus
CN113342157A (zh) * 2020-02-18 2021-09-03 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
WO2021164678A1 (zh) * 2020-02-20 2021-08-26 深圳爱酷智能科技有限公司 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备
CN112070806A (zh) * 2020-09-14 2020-12-11 北京华严互娱科技有限公司 一种基于视频图像的实时瞳孔跟踪方法和系统
CN112488032A (zh) * 2020-12-11 2021-03-12 重庆邮电大学 一种基于鼻眼结构约束的人眼定位方法
CN114360043A (zh) * 2022-03-18 2022-04-15 南昌虚拟现实研究院股份有限公司 模型参数标定方法、视线追踪方法、装置、介质及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林岱昆;梁伟棠;梁浩文;范杭;苏剑邦;朱彤;许宇满;王嘉辉;周建英;: "基于人脸跟踪的时空无缝裸眼3D显示技术研究", 电视技术, no. 05, pages 76 - 79 *

Also Published As

Publication number Publication date
CN115546876B (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
WO2023071964A1 (zh) 数据处理方法, 装置, 电子设备及计算机可读存储介质
CN112184757B (zh) 运动轨迹的确定方法及装置、存储介质、电子装置
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
GB2580691A (en) Depth estimation
CN103729860B (zh) 一种图像目标跟踪的方法和装置
CN104899563A (zh) 一种二维人脸关键特征点定位方法及系统
CN113850865A (zh) 一种基于双目视觉的人体姿态定位方法、系统和存储介质
CN113449570A (zh) 图像处理方法和装置
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
Sun et al. Real-time gaze estimation with online calibration
CN110243390A (zh) 位姿的确定方法、装置及里程计
CN115482556A (zh) 关键点检测模型训练及虚拟角色驱动的方法和对应的装置
CN115841602A (zh) 基于多视角的三维姿态估计数据集的构建方法及装置
CN117456124B (zh) 一种基于背靠背双目鱼眼相机的稠密slam的方法
CN117711066A (zh) 一种三维人体姿态估计方法、装置、设备及介质
US20230290101A1 (en) Data processing method and apparatus, electronic device, and computer-readable storage medium
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
CN112016568B (zh) 一种目标对象的图像特征点的跟踪方法及装置
CN117152807A (zh) 人体头部定位方法、装置和存储介质
CN115205737B (zh) 基于Transformer模型的运动实时计数方法和系统
CN115205750B (zh) 基于深度学习模型的运动实时计数方法和系统
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
CN113847907B (zh) 定位方法及装置、设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant