CN115546876B - 一种瞳孔追踪方法及装置 - Google Patents

一种瞳孔追踪方法及装置 Download PDF

Info

Publication number
CN115546876B
CN115546876B CN202211382954.4A CN202211382954A CN115546876B CN 115546876 B CN115546876 B CN 115546876B CN 202211382954 A CN202211382954 A CN 202211382954A CN 115546876 B CN115546876 B CN 115546876B
Authority
CN
China
Prior art keywords
pupil
pupil position
current frame
prediction
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211382954.4A
Other languages
English (en)
Other versions
CN115546876A (zh
Inventor
黄晋
柯志麟
姚王泮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tuyu Information Technology Co ltd
Original Assignee
Guangzhou Tuyu Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Tuyu Information Technology Co ltd filed Critical Guangzhou Tuyu Information Technology Co ltd
Priority to CN202211382954.4A priority Critical patent/CN115546876B/zh
Publication of CN115546876A publication Critical patent/CN115546876A/zh
Application granted granted Critical
Publication of CN115546876B publication Critical patent/CN115546876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种瞳孔追踪方法及装置,方法包括以下步骤:输入图像后,获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;判断上一帧的彩色图像中是否存在人脸,如果是,则根据上一帧的瞳孔预测位置确定当前帧的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果。本发明实现了瞳孔定位追踪的高精度、高帧率及低延时。

Description

一种瞳孔追踪方法及装置
技术领域
本发明属于计算机图像处理技术领域,尤其涉及一种对图像进行瞳孔追踪定位的方法及装置。
背景技术
在裸眼3D领域中,常常需要对使用者进行瞳孔定位,让左右眼睛看见不同的画面以产生立体显示效果。为了让显示效果更加自然,对瞳孔定位的精度、帧率、延时有很高的要求。如果瞳孔定位精度过低,会让立体效果不够真实;如果瞳孔定位帧率过低,使用者在移动中会感觉显示画面晃动;如果瞳孔定位延时过高,会让使用者有眩晕感,而无法长时间观看。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种高精度、高帧率、低延时的瞳孔追踪方法及装置。
本发明的目的采用以下技术方案实现:
一种瞳孔追踪方法,包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;
S4、使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果。
进一步的,所述步骤S2中,如果在当前帧的彩色图像中没有检测到人脸区域,则结束对当前帧的处理,并获取下一帧的图像,然后返回步骤S1,对下一帧进行处理。
进一步的,所述步骤S3中,通过瞳孔定位获得彩色图像中的左眼坐标和右眼坐标后,将左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r)作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中,其中,x m y m z m 为双眼中点坐标,θφrx r - x m y r - y m z r - z m 的极坐标表示。
进一步的,所述步骤S4中,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
S403、基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,即得到瞳孔预测位置。
进一步的,所述瞳孔位置预测方程为:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,所述步骤S403中,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数;
n=1时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C;
瞳孔位置数据集合每更新一次,即对瞳孔位置预测方程更新一次,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测。
进一步的,步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域。
本发明还提供了一种瞳孔追踪装置,包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测。
进一步的,所述人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
进一步的,所述瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r)作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
进一步的,所述瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置;
所述瞳孔位置预测方程为:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数;
n=1时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C。
相比现有技术,本发明的有益效果在于:
本发明的瞳孔追踪方法使用瞳孔位置预测方程,不仅能够追踪当前帧的瞳孔位置,还能够基于瞳孔位置数据集合,利用当前帧的瞳孔位置对当前时间的瞳孔位置进行预测,实现瞳孔追踪低延时;而且瞳孔位置预测方程基于多帧瞳孔位置拟合得到,能够修正单帧图片的误差,实现瞳孔追踪高精度;本发明的瞳孔追踪方法还基于预测的瞳孔位置来定位当前帧的人脸区域,从而只在使用者的人脸第一次出现时需要在当前帧中进行人脸检测,节省了人脸检测的计算量,实现了瞳孔追踪高帧率。而且本发明方法通过左右眼坐标的转换,相比于使用瞳孔原始坐标,能够更准确地预测带旋转的移动,使瞳孔定位追踪更为准确。
附图说明
图1为本发明实施例的流程图图;
图2为本发明装置的框图。
实施方式
下面,结合具体实施方式,对本发明做进一步描述。
本发明方法用于在图像中进行瞳孔的定位,本发明的图像可通过同时具备彩色图像和深度图像拍摄功能的图像获取装置获得,例如由RGBD摄像头拍摄的图像,所获得的图像既包括彩色图像,也包括深度图像。如图1所示,本发明的瞳孔追踪方法包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步,步骤S3,瞳孔位于彩色图像中的人脸区域内,因此当瞳孔位置确定后即可在彩色图像中确定人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,如当前帧为第一帧,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步,如果没有检测到人脸区域,则结束对当前帧的处理,并返回步骤S1,获取下一帧的图像,对下一帧进行处理;
本步骤在彩色图像中检测人脸区域的目的是为了便于快速对瞳孔进行定位,当人脸区域确定后,即可大致定位出瞳孔的位置,以便于在下一步骤中对瞳孔位置进行精确定位,能够减少瞳孔定位的时间;可选的,可采用主流的基于深度学习的目标检测法来在彩色图像中进行人脸区域的检测;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合S中;
可选的,可采用基于深度学习的关键点定位法来获取瞳孔位置,如,采用基于深度学习的关键点定位法首先获得2D瞳孔定位模型,然后使用2D瞳孔定位模型在当前帧的彩色图像上获取2D瞳孔位置,然后在当前帧的深度图像上获取3D瞳孔位置,3D瞳孔位置用左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )进行表示;基于深度学习的目标检测法以及基于深度学习的关键点定位法均为已知的成熟的图像处理方法,如基于深度学习的目标检测法可参考YOLOv3: An Incremental Improvement,Joseph Redmon,基于深度学习的关键点定位法可参考Wing Loss for Robust Facial Landmark Localisation with ConvolutionalNeural Networks,Zhen-Hua Feng,这两种方法都不是本发明的创新之处,这里不对以上两种方法进行赘述;
本发明在获得彩色图像中的左眼坐标和右眼坐标后有一个坐标转换的步骤,将左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r),即本发明的当前帧的瞳孔位置p为(x m ,y m ,z m ,θ,φ,r),而不是常规的左眼坐标和右眼坐标,瞳孔位置p中的x m y m z m 为双眼中点坐标,即x m =( x l +x r )/2,y m =( y l +y r )/2,z m =( z l +z r )/2,θφrx r - x m y r - y m z r - z m 的极坐标表示,坐标转换得到瞳孔位置p后,将得到的瞳孔位置p保存至瞳孔位置数据集合S中;本发明将双眼坐标进行坐标转换后,得到的瞳孔位置p中的θφ直接反映了旋转移动造成的物体角度变换,从而使用转换后的坐标进行轨迹拟合能够更好地贴合旋转移动的情况;
瞳孔位置数据集合S中保存有多帧图像的瞳孔位置信息及相对应的图像的成像时间;瞳孔位置数据集合S中的元素包括和图像的成像时间t 1,t 2,...,t n 相对应的瞳孔位置p 1,p 2,...,p n n为瞳孔位置数据集合S元素的数量,即所保存的图像的帧数;和某一成像时间相对应的瞳孔位置所包含的数据包括x m y m z m θφr,瞳孔位置数据集合S中的元素按成像时间从小到大进行排序,t 1, t 2,...,t n 分别表示第1帧图像、第2帧图像,...,第n帧图像的成像时间,p 1,p 2,...,p n 分别表示第1帧图像、第2帧图像,...,第n帧图像的瞳孔位置;
S4、使用瞳孔位置预测方程,基于瞳孔位置数据集合,进行瞳孔位置的预测,并输出瞳孔预测结果,瞳孔预测结果可以包括瞳孔位置预测方程、瞳孔预测位置等信息中的一项或多项。
可选的,步骤S4中,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和步骤S3获得的当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则对瞳孔位置数据集合S进行更新,即用当前帧(最新一帧)的瞳孔位置覆盖瞳孔位置数据集合S中最早一帧的瞳孔位置,瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离的平均值=(瞳孔预测位置中左右眼的距离+当前帧的瞳孔位置左右眼的距离)/2;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,即使用者发生了切换,此时对瞳孔位置数据集合S进行初始化,即对瞳孔位置数据集合S中的数据清零,重新存入新的使用者的瞳孔位置数据,在后续的瞳孔位置预测方程拟合更新的过程中,不使用上一位使用者的瞳孔位置数据;设定阈值可根据图像获取设备相应调节,一般为cm级别,如为1cm等;
S403、基于瞳孔位置数据集合S,对瞳孔位置预测方程(拟合系数)进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置,然后输出瞳孔预测结果。
瞳孔位置预测方程的更新只需要使用最近一段时间的瞳孔位置数据即可,即瞳孔位置数据集合S只需要保存最近一段时间的瞳孔位置数据,瞳孔位置数据集合S中保存的图像帧数可根据图像获取设备的具体情况来设定,一般为秒级,例如可设为1秒的长度,瞳孔位置数据集合S中保留的是最近1秒的所有帧的瞳孔位置的数据。瞳孔位置数据集合S只保留一段时间的数据,以避免需要存储太多的数据,占用设备内存,同时也避免瞳孔位置数据集合S中的数据过多导致计算量太大。
本发明的瞳孔位置预测方程:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,拟合系数A、B、C为6维向量,瞳孔位置预测方程的更新实际为拟合系数A、B、C的更新,步骤S403中,瞳孔位置预测方程更新的具体步骤如下:
基于瞳孔位置数据集合S,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数,0<w<1;
当n=1时,即当前帧图像为第1帧图像时,或者使用者切换时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C;
解出拟合系数A、B、C后,瞳孔位置预测方程即确定,瞳孔位置数据集合S每更新一次,即对瞳孔位置预测方程(的拟合系数)进行更新,然后就可以使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入瞳孔位置预测方程中进行计算,即得到瞳孔预测位置。
可选的,步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置,即对当前帧的瞳孔位置进行预测;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系,仿射变换关系可通过旋转、缩放、平移得到,如何得到两者间的仿射变换关系是图像处理领域的常规技术手段,不是本发明的创新之处,这里不做赘述;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域,例如,人脸区域用一个矩形框表示,将上一帧的矩形框的4个顶点用步骤b得到的仿射变换关系,即可得到当前帧的人脸区域对应的矩形框的4个顶点。
本发明的通孔追踪方法在检测瞳孔位置时,还使用了瞳孔位置预测方程来预测瞳孔位置,当人脸在快速移动时,相邻两帧图像的人脸区域相差过大,用上一帧的瞳孔位置难以准确获取当前帧的人脸区域,本方法通过对每一帧都进行瞳孔位置的预测,并根据多帧的瞳孔位置更新瞳孔位置预测方程,可以在人脸快速移动时利用瞳孔预测结果快速定位人脸区域,提高了追踪方法的帧率与精确性。而且本发明方法无需额外的如传感器等设备,成本更低。
本发明还提供了一种瞳孔追踪装置,下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。如图2所示,其示出了本申请一个示例性实施例提供的瞳孔追踪装置的结构框图。该装置可以通过软件、硬件或者两者的结合实现。本实施例的瞳孔追踪装置包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测。
可选的,人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
可选的,瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r)作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
可选的,瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置,然后输出瞳孔预测结果;
瞳孔位置预测方程为:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数;
n=1时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C。
需要说明的是,上述实施例提供的装置在执行前述瞳孔追踪方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的瞳孔追踪装置与瞳孔追踪方法实施例属于同一构思,其体现实现过程及带来的技术效果详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (7)

1.一种瞳孔追踪方法,其特征在于,包括以下步骤:输入图像后,
S1、获取当前帧的图像,当前帧的图像包括彩色图像和深度图像;
S2、判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域,然后执行下一步;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域,如果检测到人脸区域则执行下一步;
S3、获得当前帧的人脸区域后,在人脸区域内进行瞳孔定位,获取当前帧的瞳孔位置,并将当前帧的瞳孔位置存入瞳孔位置数据集合中;
S4、使用瞳孔位置预测方程进行瞳孔位置的预测,并输出瞳孔预测结果,瞳孔位置预测的具体步骤如下:
S401、将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
S402、将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
S403、基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测,将当前时间代入更新后的瞳孔位置预测方程中进行计算,即得到瞳孔预测位置;
所述瞳孔位置预测方程为:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数,t n 为第n帧图像的成像时间,n为瞳孔位置数据集合S元素的数量;
n=1时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C;
瞳孔位置数据集合每更新一次,即对瞳孔位置预测方程更新一次,然后使用更新后的瞳孔位置预测方程进行瞳孔位置预测。
2.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述步骤S2中,如果在当前帧的彩色图像中没有检测到人脸区域,则结束对当前帧的处理,并获取下一帧的图像,然后返回步骤S1,对下一帧进行处理。
3.根据权利要求1所述的瞳孔追踪方法,其特征在于:所述步骤S3中,通过瞳孔定位获得彩色图像中的左眼坐标和右眼坐标后,将左眼坐标(x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r)作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中,其中,x m y m z m 为双眼中点坐标,θφrx r - x m y r - y m z r - z m 的极坐标表示。
4.根据权利要求1所述的瞳孔追踪方法,其特征在于:步骤S2中,根据瞳孔预测位置确定当前帧的人脸区域的方法如下:
a、用最新的瞳孔位置预测方程计算当前帧的瞳孔预测位置;
b、将上一帧的瞳孔位置和当前帧的瞳孔预测位置投影到当前帧的彩色图像上,获得上一帧的2d瞳孔位置到当前帧的2d瞳孔位置的仿射变换关系;
c、根据获得的仿射变换关系,将上一帧的人脸区域进行仿射变换,得到当前帧的人脸区域。
5.一种瞳孔追踪装置,其特征在于,包括:
图像获取单元,用于获取当前帧的图像;
人脸区域获取单元,用于获取当前帧的人脸区域;
瞳孔定位单元,用于在人脸区域中进行瞳孔定位,获取当前帧的瞳孔位置;
瞳孔位置预测单元,用于使用瞳孔位置预测方程对瞳孔位置进行预测,所述瞳孔位置预测单元预测瞳孔位置的过程为:
将当前时间代入瞳孔位置预测方程中,计算出瞳孔预测位置;
将得到的瞳孔预测位置和当前帧的瞳孔位置进行比较,如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值小于或等于设定阈值,则用当前帧的瞳孔位置覆盖瞳孔位置数据集合中最早一帧的瞳孔位置;如果瞳孔预测位置中左眼和右眼之间的距离和当前帧的瞳孔位置中左眼和右眼之间的距离,这两者的平均值大于设定阈值,则认为当前帧和上一帧分别为不同使用者的脸的图像,此时对瞳孔位置数据集合进行初始化;
基于瞳孔位置数据集合,对瞳孔位置预测方程进行更新,将当前时间代入更新后的瞳孔位置预测方程中进行计算,得到瞳孔预测位置;
所述瞳孔位置预测方程为:q=t 2×A+t×B+C,式中的q表示和时间t相对应的瞳孔预测位置,A、B、C为拟合系数,瞳孔位置预测方程更新的步骤如下:
基于瞳孔位置数据集合,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0| 1≤i≤n},确定拟合系数A、B、C,式中的t i 为第t i 帧图像的成像时间,q i 为瞳孔位置数据集合S中和成像时间t i 相对应的瞳孔位置,w为时间加权系数,t n 为第n帧图像的成像时间,n为瞳孔位置数据集合S元素的数量;
n=1时,令A=B=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出C;
n=2时,令A=0,求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出B、C;
n>2时,用最小二乘法求解方程组{(t i 2×A+t i ×B+C-q i w |ti-tn|)=0|,解出A、B、C。
6.根据权利要求5所述的瞳孔追踪装置,其特征在于:所述人脸区域获取单元获取当前帧的人脸区域的过程为:判断上一帧的彩色图像中是否存在人脸,如果是,则根据最新的瞳孔预测位置确定当前帧的彩色图像的人脸区域;如果上一帧的彩色图像中没有人脸,或者没有上一帧的图像,则在当前帧的彩色图像中检测人脸区域。
7.根据权利要求5所述的瞳孔追踪装置,其特征在于:所述瞳孔定位单元进行瞳孔定位的过程为:在人脸区域内进行瞳孔定位,获得左眼坐标和右眼坐标后,将左眼坐标(
x l ,y l ,z l )和右眼坐标(x r ,y r ,z r )转换为(x m ,y m ,z m ,θ,φ,r)作为当前帧的瞳孔位置p,并保存至瞳孔位置数据集合中。
CN202211382954.4A 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置 Active CN115546876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211382954.4A CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211382954.4A CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Publications (2)

Publication Number Publication Date
CN115546876A CN115546876A (zh) 2022-12-30
CN115546876B true CN115546876B (zh) 2023-12-19

Family

ID=84720513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211382954.4A Active CN115546876B (zh) 2022-11-07 2022-11-07 一种瞳孔追踪方法及装置

Country Status (1)

Country Link
CN (1) CN115546876B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
CN110598635A (zh) * 2019-09-12 2019-12-20 北京大学第一医院 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统
CN112070806A (zh) * 2020-09-14 2020-12-11 北京华严互娱科技有限公司 一种基于视频图像的实时瞳孔跟踪方法和系统
CN112488032A (zh) * 2020-12-11 2021-03-12 重庆邮电大学 一种基于鼻眼结构约束的人眼定位方法
WO2021164678A1 (zh) * 2020-02-20 2021-08-26 深圳爱酷智能科技有限公司 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备
CN113342157A (zh) * 2020-02-18 2021-09-03 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
CN114360043A (zh) * 2022-03-18 2022-04-15 南昌虚拟现实研究院股份有限公司 模型参数标定方法、视线追踪方法、装置、介质及设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198023B2 (ja) * 2018-09-27 2022-12-28 株式会社アイシン 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム
JP7255436B2 (ja) * 2019-09-25 2023-04-11 株式会社豊田中央研究所 眼球構造推定装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
CN110598635A (zh) * 2019-09-12 2019-12-20 北京大学第一医院 一种针对连续视频帧中的人脸检测与瞳孔定位方法及系统
CN113342157A (zh) * 2020-02-18 2021-09-03 Oppo广东移动通信有限公司 眼球追踪处理方法及相关装置
WO2021164678A1 (zh) * 2020-02-20 2021-08-26 深圳爱酷智能科技有限公司 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备
CN112070806A (zh) * 2020-09-14 2020-12-11 北京华严互娱科技有限公司 一种基于视频图像的实时瞳孔跟踪方法和系统
CN112488032A (zh) * 2020-12-11 2021-03-12 重庆邮电大学 一种基于鼻眼结构约束的人眼定位方法
CN114360043A (zh) * 2022-03-18 2022-04-15 南昌虚拟现实研究院股份有限公司 模型参数标定方法、视线追踪方法、装置、介质及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于人脸跟踪的时空无缝裸眼3D显示技术研究;林岱昆;梁伟棠;梁浩文;范杭;苏剑邦;朱彤;许宇满;王嘉辉;周建英;;电视技术(05);76-79+83 *

Also Published As

Publication number Publication date
CN115546876A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
US10636151B2 (en) Method for estimating the speed of movement of a camera
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
CN106650682B (zh) 一种人脸追踪的方法及装置
CN113286194A (zh) 视频处理方法、装置、电子设备及可读存储介质
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
US11380078B2 (en) 3-D reconstruction using augmented reality frameworks
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
US20120194513A1 (en) Image processing apparatus and method with three-dimensional model creation capability, and recording medium
JP2012529691A (ja) 3次元画像生成
CN111951325B (zh) 位姿跟踪方法、位姿跟踪装置及电子设备
CN113077516B (zh) 一种位姿确定方法及相关设备
Sun et al. Real-time gaze estimation with online calibration
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
Chen et al. A particle filtering framework for joint video tracking and pose estimation
CN112967340A (zh) 同时定位和地图构建方法、装置、电子设备及存储介质
CN110428461B (zh) 结合深度学习的单目slam方法及装置
KR20100041172A (ko) 영상 추적 장치의 이동표적 움직임 추적 방법
CN116452638B (zh) 位姿估计模型的训练方法、装置、设备和存储介质
CN115546876B (zh) 一种瞳孔追踪方法及装置
CN116580169A (zh) 一种数字人驱动方法及装置、电子设备和存储介质
JP2005141655A (ja) 3次元モデリング装置及び3次元モデリング方法
KR101896183B1 (ko) 카메라 모션 추정을 위한 3차원 직선 검출 방법
CN116188535A (zh) 基于光流估计的视频跟踪方法、装置、设备及存储介质
CN115841602A (zh) 基于多视角的三维姿态估计数据集的构建方法及装置
CN117252914A (zh) 深度估计网络的训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant