CN106127145B - 瞳孔定位及跟踪方法 - Google Patents
瞳孔定位及跟踪方法 Download PDFInfo
- Publication number
- CN106127145B CN106127145B CN201610459112.2A CN201610459112A CN106127145B CN 106127145 B CN106127145 B CN 106127145B CN 201610459112 A CN201610459112 A CN 201610459112A CN 106127145 B CN106127145 B CN 106127145B
- Authority
- CN
- China
- Prior art keywords
- pupil
- center
- frame
- target
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Abstract
本发明公开了一种瞳孔定位及跟踪方法,包括:采集数据:利用视频采集传感器采集人脸视频信息;利用距离传感器采集视频采集传感器与瞳孔之间的距离信息;瞳孔定位:利用adaboost算法对所采集的人脸视频信息进行人眼的粗略检测;利用canny算法对人眼区域进行边缘检测;利用Hough变换检测圆心的方法得到瞳孔中心;基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪。本发明的跟踪精度高。
Description
技术领域
本发明属于定位跟踪技术,具体涉及一种瞳孔定位及跟踪方法。
背景技术
随着模式识别和计算机视觉技术的飞速发展,实时瞳孔检测与跟踪技术的研究在公共安全保障、交通安全监控、医疗、刑侦等领域的需求越来越迫切。同时,作为人脸检测、识别与跟踪技术的基础以及其广泛的应用前景,其研究价值是显而易见的。
如CN 104050667A记载的“瞳孔跟踪图像处理方法”,但该方法具有以下缺点:
(1)瞳孔跟踪图像处理算法是对人眼图像进行处理,应用范围不大;
(2)瞳孔跟踪方法是对每一帧图像独立进行定位,计算速度较慢。
又如CN 103810472A记载的“基于运动相关性的瞳孔位置滤波方法”,该方法使用模版匹配法进行瞳孔跟踪,具有跟踪精确度较低,以及跟踪速度较慢的问题。
因此,有必要开发一种新的瞳孔定位及跟踪方法。
发明内容
本发明的目的是提供一种跟踪精度高、跟踪速度快的瞳孔定位及跟踪方法。
本本发明所述的瞳孔定位及跟踪方法,包括以下步骤:
步骤1、采集数据:
利用视频采集传感器采集人脸视频信息;
利用距离传感器采集视频采集传感器与瞳孔之间的距离信息;
步骤2、瞳孔定位:
利用adaboost算法对所采集的人脸视频信息进行人眼的粗略检测,检测出人眼区域;
利用canny算法对人眼区域进行边缘检测,得到瞳孔的边缘;
利用Hough变换检测圆心的方法得到瞳孔中心;
步骤3、基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪:
利用瞳孔定位的结果作为瞳孔跟踪的目标模型,并用LBP算法进行目标建模;
利用帧差法估计出下一帧瞳孔的目标中心;
通过MeanShift算法找到移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值。
步骤4、基于所采集的距离信息测量瞳孔中心在三维坐标系中的Z坐标值;
步骤5、输出瞳孔中心的坐标,并根据瞳孔中心的坐标来调整视频采集传感器的拍摄角度。
所述步骤3中,基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪的具体方法为:
(1)根据瞳孔精确定位算法确定瞳孔目标的初始位置f0,根据公式建立目标模型qu,假设图像中一共有n个像素点,用{xi}i=1…n表示,对区域内的颜色纹理特征空间均匀划分,得到m个相等的区间构成的颜色纹理特征直方图;q为目标模型特征空间,用直方图的形式表示出来;qu为组成目标模型特征空间的元素;K表示核函数,选择Epanechnikov核;bin(xi)表示像素点xi在颜色纹理直方图中所在的区域,δ是阶跃函数;u表示颜色纹理直方图的特征索引;在计算过程中,将R,G,B三个颜色通道的bin分别设为8个,加上纹理的通道的10个bin,m=8*8*8*10=5120;为归一化系数;
(2)在视频运行过程中,对当前帧做如下处理:
(2a)根据公式Dk+1(x,y)=|Fk+1(x,y)-Fk(x,y)|和公式计算当前帧的差分图像,其中,设第k帧和第k+1帧的图像在坐标(x,y)处的像素值分别为Fk(x,y)和Fk+1(x,y),第k+1帧表示当前帧,Dk+1(x,y)表示当前帧的差分图像,T为阈值,Rk+1(x,y)为最终得到运动目标的轮廓,为二值图像;
(2b)基于帧差法根据公式计算当前帧中新的候选目标中心位置f0,其中(xA,yA)为前一帧目标中心,(xB,yB)为运动目标轮廓重心,f0(xC,yC)为新的候选目标中心;
(2c)根据公式建立目标候选模型pu,其中f为候选目标中心,h表示核函数窗口的大小;
根据公式计算候选模型与目标模型之间的相似度ρ(p,q),其中c为归一化系数;
(2d)根据公式计算当前区域内各个像素点的权重wi;
(2e)根据新的候选目标中心位置fk+1,重新计算相似度函数ρ(p,q);
(2f)判断重新计算的相似度是否小于设定的阈值,如是,则停止搜索,目标在当前帧的中心位置即为fk+1;否则跳到第(2d)步,继续迭代计算,直到满足设定的阈值或者超出设定计算迭代次数;
(3)当视频进入新的一帧的时候,跳到第(2)步,对新的一帧视频进行处理,直到视频结束,并输出移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值。
所述步骤4中,基于该距离信息测量出瞳孔中心在三维坐标系中的Z坐标值的具体方法为:直接将距离传感器测量得到的距离数据作为瞳孔的Z坐标。
本发明的有益效果:
(1)本发明采用帧差法改进算法,能够较大地减少目标丢失的情况;
(2)本发明采用LBP改进算法,能够较大地提高跟踪精度;
(3)本发明处理的对象是人脸视频图像,应用范围更广;
(4)本发明使用的是全新的对连续帧进行关联处理的方法,计算速度更快;
综上所述,本发明所述瞳孔定位及跟踪方法具有跟踪精度高,应用范围广,计算速度快的优点。
附图说明
图1为本发明的流程图;
图2为本发明中非极大值抑制原理图;
图3为本发明的具体实施例的原理框图;
图4为图3的结构框图;
图5为图3的流程图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示的瞳孔定位及跟踪方法,包括以下步骤:
步骤1、采集数据:
利用视频采集传感器采集人脸视频信息。
利用距离传感器采集视频采集传感器与瞳孔之间的距离信息。
步骤2、瞳孔定位:
利用adaboost算法对所采集的人脸视频信息进行人眼的粗略检测,检测出人眼区域。
利用canny算法对人眼区域进行边缘检测,得到瞳孔的边缘。
利用Hough变换检测圆心的方法得到瞳孔中心。
步骤3、基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪:
利用瞳孔定位的结果作为瞳孔跟踪的目标模型,并用LBP算法进行目标建模。
利用帧差法估计出下一帧瞳孔的目标中心。
通过MeanShift算法找到移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值。
步骤4、基于所采集的距离信息测量出瞳孔中心在三维坐标系中的Z坐标值。
步骤5、输出瞳孔中心的坐标,并根据瞳孔中心的坐标来调整视频采集传感器的拍摄角度。
本发明中,所述步骤2中利用adaboost算法对所采集的人脸视频信息进行人眼的粗略检测具体为:
Adaboost算法的训练步骤如下:
(1)建立训练样本集(x1,y1)……(xn,yn),其中yi=1表示正样本,yi=-1表示负样本,n为总样本数。
(2)初始化权重w1,i=1/n。
(3)对t=1……T。
利用加权的样本集训练第t层弱分类器ht,得到该层弱分类器的分类误差et:
根据分类误差更新第t+1层分类器权值wt+1,i:
其中:
(4)级联T个弱分类器得到强分类器:
该强分类器的分类误差满足:
本发明中,所述步骤3中利用canny算法对人眼区域进行边缘检测具体为:
(1)利用高斯滤波器对图像做平滑去噪处理:
F(x,y)=G(x,y)*f(x,y) 式(5)
其中:G(x,y)是高斯函数,具体表达式如式(6),f(x,y)是原图像,F(x,y)是平滑处理后的图像。
(2)利用一阶偏导的有限差分来计算每个像素点梯度的大小和方向:
用一阶差分卷积模版:
得到图像矩阵的幅值大小:
和梯度方向:
(3)非极大值抑制:
如图2所示,将每个像素周围的8个区域分割为4个扇区,分别对应标记为0到3;将该点梯度的方向对应到最接近的四个扇区中的一个,作为该点像素的梯度线;如果该点像素的梯度值大于梯度线上的另外两个像素的梯度值,则保留该点的梯度值,否则,该点置0;最终得到非极大值抑制梯度矩阵M。
(4)双阈值检测和连接边缘:
双阈值法利用T1和T2(T1<T2)两个阈值对图像的梯度值进行判定:大于T2的点一定是边缘点,小于T1的点一定不是边缘点,介于T1和T2的点视情况而定。
具体做法是:分别使用两个阈值T1和T2(T1<T2)对图像进行分割,其中较小的阈值T1得到边缘点较多的边缘图像N1,较大的阈值得到边缘点较少的图像N2,由于T2的阈值较高,得到边缘点可以认为是真实可信的,但另一方面可能存在边缘点漏检的情况,所得得到的N2一般是不连续的,该算法通过比较N1把N2上不连续的边缘连接成连续的边缘,本发明通过以下方法连接不连续边缘点:扫描N2中值为1的点,如果该点的8个领域中有两个点值为1,说明该点是连续的点,否则该点是不连续的点,对于不连续的点,在N1中查找该点的8个领域是否存在边缘点,如果有,将对应的值放入N2中;如果没有,说明该点是边缘的端点。
所述步骤3中利用Hough变换检测圆心的方法得到瞳孔中心的具体方法为:
(1)建立一个三维数组(A,B,R)用以统计每个圆方程所对应的图片上的点(x,y)的个数,其中:A,B分别取图片的高度和宽度,R取A/2和B/2的较小值。
(2)遍历图像(x,y),将每个点(x,y)可能所在圆的方程(a,b,r)存入数组(A,B,R)中。
(3)找出数组(A,B,R)中的最大值(a,b,r),即为瞳孔所对应的圆方程,(a,b)坐标即为瞳孔中心所对应的坐标。
本发明中,基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪的具体方法为:
(1)根据瞳孔精确定位算法确定瞳孔目标的初始位置f0,根据公式建立目标模型qu,假设图像中一共有n个像素点,用{xi}i=1…n表示,对区域内的颜色纹理特征空间均匀划分,得到m个相等的区间构成的颜色纹理特征直方图;q为目标模型特征空间,用直方图的形式表示出来;qu为组成目标模型特征空间的元素;K表示核函数,选择Epanechnikov核;bin(xi)表示像素点xi在颜色纹理直方图中所在的区域,δ是阶跃函数;u表示颜色纹理直方图的特征索引;在计算过程中,将R,G,B三个颜色通道的bin分别设为8个,加上纹理的通道的10个bin,m=8*8*8*10=5120;为归一化系数;
(2)在视频运行过程中,对当前帧做如下处理:
(2a)根据公式Dk+1(x,y)=|Fk+1(x,y)-Fk(x,y)|和公式计算当前帧的差分图像,其中,设第k帧和第k+1帧的图像在坐标(x,y)处的像素值分别为Fk(x,y)和Fk+1(x,y),第k+1帧表示当前帧,Dk+1(x,y)表示当前帧的差分图像,T为阈值,Rk+1(x,y)为最终得到运动目标的轮廓,为二值图像;
(2b)基于帧差法根据公式计算当前帧中新的候选目标中心位置f0,其中(xA,yA)为前一帧目标中心,(xB,yB)为运动目标轮廓重心,f0(xC,yC)为新的候选目标中心;
(2c)根据公式建立目标候选模型pu,其中f为候选目标中心,h表示核函数窗口的大小;
根据公式计算候选模型与目标模型之间的相似度ρ(p,q),其中c为归一化系数;
(2d)根据公式计算当前区域内各个像素点的权重wi;
(2e)根据新的候选目标中心位置fk+1,重新计算相似度函数ρ(p,q);
(2f)判断重新计算的相似度是否小于设定的阈值,如是,则停止搜索,目标在当前帧的中心位置即为fk+1;否则跳到第(2d)步,继续迭代计算,直到满足设定的阈值或者超出设定计算迭代次数;
(3)当视频进入新的一帧的时候,跳到第(2)步,对新的一帧视频进行处理,直到视频结束,并输出移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值。
所述步骤5中,基于所采集的距离信息测量出瞳孔中心在三维坐标系中的Z坐标值的具体方法为:直接将距离传感器测量得到的距离数据作为瞳孔的Z坐标。
如图3和图4所示,将本发明应用到瞳孔定位及跟踪系统,该瞳孔定位及跟踪系统包括视频采集传感器1、距离传感器2、下位机4、上位机5、电机控制模块3和支座。所述视频采集传感器1采用日本Sentech公司生产的高清USB摄像机STC-MC83USB,其分辨率为1024*768,帧频率为30fps(Frames Per Second)。所述距离传感器2采用夏普公司的距离传感器GP2Y3A002K0F。所述下位机4采用广州友善之臂(FriendlyARM)公司的Tiny4412开发主板(CPU采用三星公司的Exynos4412四核处理器)。所述电机控制模块3采用一能公司生产的步进电机28H2P4509A6和配套驱动器2MA320。
本发明中,所述视频采集传感器1用于获取人脸的视频信息。距离传感器2用于获取视频采集传感器1与瞳孔之间的距离信息。下位机4用于接收视频采集传感器1以及距离传感器2所采集的数据,该下位机4分别与视频采集传感器1、距离传感器2连接。上位机5用于接收下位机4所发送的数据,并基于所述视频信息识别出瞳孔中心在三维坐标系中的X坐标值和Y坐标值,以及基于所述距离信息识别出瞳孔中心在三维坐标系中的Z坐标值,并输出控制指令给下位机4,以及在上位机5上输出该瞳孔中心的坐标。电机控制模块3包括与下位机4连接的驱动单元3a,以及分别与驱动单元3a连接的X轴步进电机3b(即用于控制支座在X方向上移动的电机)、Y轴步进电机3c(即用于控制支座在Y方向上移动的电机)、Z轴步进电机3d(即用于控制支座在Z方向上移动的电机),下位机4基于上位机5所发送的控制指令通过驱动单元3a分别对X轴步进电机3b、Y轴步进电机3c、Z轴步进电机3d进行控制。所述视频采集传感器及距离传感器2安装在该支座上,该支座分别与X轴步进电机3b、Y轴步进电机3c、Z轴步进电机3d连接,以调整摄像头的拍摄角度,达到实时对焦的目的。
如图5所示,所述瞳孔定位及跟踪系统的控制流程如下:判断是否打开了摄像机的摄像头,若是,通过摄像头采集人脸的视频信息,若否,打开本地视频,读取并显示视频,瞳孔定位,瞳孔精确跟踪,判断是否结束,若是,结束流程,若否,返回瞳孔精确跟踪步骤。
Claims (3)
1.一种瞳孔定位及跟踪方法,其特征在于,包括以下步骤:
步骤1、采集数据:
利用视频采集传感器采集人脸视频信息;
利用距离传感器采集视频采集传感器与瞳孔之间的距离信息;
步骤2、瞳孔定位:
利用adaboost算法对所采集的人脸视频信息进行人眼的粗略检测,检测出人眼区域;
利用canny算法对人眼区域进行边缘检测,得到瞳孔的边缘;
利用Hough变换检测圆心的方法得到瞳孔中心;
步骤3、基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪:
利用瞳孔定位的结果作为瞳孔跟踪的目标模型,并用LBP算法进行目标建模;
利用帧差法估计出下一帧瞳孔的目标中心;
通过MeanShift算法找到移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值;
步骤4、基于所采集的距离信息测量出瞳孔中心在三维坐标系中的Z坐标值;
步骤5、输出瞳孔中心的坐标,并根据瞳孔中心的坐标来调整视频采集传感器的拍摄角度。
2.根据权利要求1所述的瞳孔定位及跟踪方法,其特征在于:所述步骤3中,基于帧差法和LBP的改进MeanShift算法进行瞳孔跟踪的具体方法为:
(1)根据瞳孔精确定位算法确定瞳孔目标的初始位置f0,根据公式建立目标模型qu,假设图像中一共有n个像素点,用{xi}i=1…n表示,对区域内的颜色纹理特征空间均匀划分,得到m个相等的区间构成的颜色纹理特征直方图;q为目标模型特征空间,用直方图的形式表示出来;qu为组成目标模型特征空间的元素;K表示核函数,选择Epanechnikov核;bin(xi)表示像素点xi在颜色纹理直方图中所在的区域,δ是阶跃函数;u表示颜色纹理直方图的特征索引;在计算过程中,将R,G,B三个颜色通道的bin分别设为8个,加上纹理的通道的10个bin,m=8*8*8*10=5120;为归一化系数;
(2)在视频运行过程中,对当前帧做如下处理:
(2a)根据公式Dk+1(x,y)=|Fk+1(x,y)-Fk(x,y)|和公式计算当前帧的差分图像,其中,设第k帧和第k+1帧的图像在坐标(x,y)处的像素值分别为Fk(x,y)和Fk+1(x,y),第k+1帧表示当前帧,Dk+1(x,y)表示当前帧的差分图像,T为阈值,Rk+1(x,y)为最终得到运动目标的轮廓,为二值图像;
(2b)基于帧差法根据公式计算当前帧中新的候选目标中心位置f0,其中(xA,yA)为前一帧目标中心,(xB,yB)为运动目标轮廓重心,f0(xC,yC)为新的候选目标中心;
(2c)根据公式建立目标候选模型pu,其中f为候选目标中心,h表示核函数窗口的大小;
根据公式计算候选模型与目标模型之间的相似度ρ(p,q),其中c为归一化系数;
(2d)根据公式计算当前区域内各个像素点的权重wi;
(2e)根据新的候选目标中心位置fk+1,重新计算相似度函数ρ(p,q);
(2f)判断重新计算的相似度是否小于设定的阈值,如是,则停止搜索,目标在当前帧的中心位置即为fk+1;否则跳到第(2d)步,继续迭代计算,直到满足设定的阈值或者超出设定计算迭代次数;
(3)当视频进入新的一帧的时候,跳到第(2)步,对新的一帧视频进行处理,直到视频结束,并输出移动后的瞳孔中心在三维坐标系中的X坐标值和Y坐标值。
3.根据权利要求1或2所述的瞳孔定位及跟踪方法,其特征在于:所述步骤4中,基于该距离信息测量出瞳孔中心在三维坐标系中的Z坐标值的具体方法为:直接将距离传感器测量得到的距离数据作为瞳孔的Z坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610459112.2A CN106127145B (zh) | 2016-06-21 | 2016-06-21 | 瞳孔定位及跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610459112.2A CN106127145B (zh) | 2016-06-21 | 2016-06-21 | 瞳孔定位及跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127145A CN106127145A (zh) | 2016-11-16 |
CN106127145B true CN106127145B (zh) | 2019-05-14 |
Family
ID=57269187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610459112.2A Active CN106127145B (zh) | 2016-06-21 | 2016-06-21 | 瞳孔定位及跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127145B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133619A (zh) * | 2017-05-31 | 2017-09-05 | 执鼎医疗科技(杭州)有限公司 | 一种眼球位置自适应定位方法及其装置 |
CN109308436B (zh) * | 2017-07-28 | 2021-09-28 | 西南科技大学 | 一种基于主动红外视频的活体人脸识别方法 |
CN108596187B (zh) * | 2018-03-30 | 2023-07-04 | 青岛海尔智能技术研发有限公司 | 商品纯净度检测方法及展示柜 |
CN109118506A (zh) * | 2018-08-16 | 2019-01-01 | 新智数字科技有限公司 | 一种确定人眼图像中瞳孔图像边缘点的方法及装置 |
CN109766818B (zh) * | 2019-01-04 | 2021-01-26 | 京东方科技集团股份有限公司 | 瞳孔中心定位方法及系统、计算机设备及可读存储介质 |
CN109864699A (zh) * | 2019-01-04 | 2019-06-11 | 东南大学 | 基于前庭眼反射的动物眼震参数获取系统和方法 |
CN109800706B (zh) * | 2019-01-17 | 2022-11-29 | 齐鲁工业大学 | 一种眼动视频数据的特征提取方法及系统 |
CN111368719A (zh) * | 2020-03-03 | 2020-07-03 | 东莞理工学院 | 瞳孔特征的真实情感聊天机器人系统及该系统的判断方法 |
CN112414552B (zh) * | 2020-11-24 | 2022-04-15 | 西南交通大学 | 用于电梯上的体温检测装置及其体温计算方法 |
CN116758077B (zh) * | 2023-08-18 | 2023-10-20 | 山东航宇游艇发展有限公司 | 一种冲浪板表面平整度在线检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
CN102193621A (zh) * | 2010-03-17 | 2011-09-21 | 三星电子(中国)研发中心 | 基于视觉的交互式电子设备控制系统及其控制方法 |
CN102830797A (zh) * | 2012-07-26 | 2012-12-19 | 深圳先进技术研究院 | 一种基于视线判断的人机交互方法及系统 |
CN103942542A (zh) * | 2014-04-18 | 2014-07-23 | 重庆卓美华视光电有限公司 | 人眼跟踪方法及装置 |
CN104036238A (zh) * | 2014-05-28 | 2014-09-10 | 南京大学 | 基于主动光的人眼定位的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7331671B2 (en) * | 2004-03-29 | 2008-02-19 | Delphi Technologies, Inc. | Eye tracking method based on correlation and detected eye movement |
US7362885B2 (en) * | 2004-04-20 | 2008-04-22 | Delphi Technologies, Inc. | Object tracking and eye state identification method |
US20090196460A1 (en) * | 2008-01-17 | 2009-08-06 | Thomas Jakobs | Eye tracking system and method |
-
2016
- 2016-06-21 CN CN201610459112.2A patent/CN106127145B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
CN102193621A (zh) * | 2010-03-17 | 2011-09-21 | 三星电子(中国)研发中心 | 基于视觉的交互式电子设备控制系统及其控制方法 |
CN102830797A (zh) * | 2012-07-26 | 2012-12-19 | 深圳先进技术研究院 | 一种基于视线判断的人机交互方法及系统 |
CN103942542A (zh) * | 2014-04-18 | 2014-07-23 | 重庆卓美华视光电有限公司 | 人眼跟踪方法及装置 |
CN104036238A (zh) * | 2014-05-28 | 2014-09-10 | 南京大学 | 基于主动光的人眼定位的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106127145A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127145B (zh) | 瞳孔定位及跟踪方法 | |
CN109308693B (zh) | 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统 | |
CN106709950B (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
JP6305171B2 (ja) | シーン内の物体を検出する方法 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
JP2015522200A (ja) | 人顔特徴点の位置決め方法、装置及び記憶媒体 | |
CN104463117A (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
CN109584204A (zh) | 一种图像噪声强度估计方法、存储介质、处理及识别装置 | |
CN107610177B (zh) | 一种同步定位与地图构建中确定特征点的方法和设备 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN113011401A (zh) | 人脸图像姿态估计和校正方法、系统、介质及电子设备 | |
CN111968153A (zh) | 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统 | |
CN101320477B (zh) | 一种人体跟踪方法及其设备 | |
CN109443319A (zh) | 基于单目视觉的障碍物测距系统及其测距方法 | |
CN110634154B (zh) | 一种面向速度大范围变化目标跟踪的模板匹配方法 | |
CN116160458B (zh) | 一种移动机器人多传感器融合快速定位方法、设备及系统 | |
CN105447440B (zh) | 实时虹膜图像评价方法和装置 | |
Ying et al. | Technique of measuring leading vehicle distance based on digital image processing theory | |
Zhao et al. | Fast localization algorithm of eye centers based on improved hough transform | |
CN107423766A (zh) | 一种混联式汽车电泳涂装输送机构末端运动位姿检测方法 | |
CN107292932A (zh) | 基于图像膨胀率的迎面视频测速方法 | |
Arunkumar et al. | Estimation of vehicle distance based on feature points using monocular vision | |
CN111860532B (zh) | 基于两种互补跟踪算法的自适应目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |