CN116245866A - 一种移动人脸追踪方法及系统 - Google Patents
一种移动人脸追踪方法及系统 Download PDFInfo
- Publication number
- CN116245866A CN116245866A CN202310273562.2A CN202310273562A CN116245866A CN 116245866 A CN116245866 A CN 116245866A CN 202310273562 A CN202310273562 A CN 202310273562A CN 116245866 A CN116245866 A CN 116245866A
- Authority
- CN
- China
- Prior art keywords
- face
- sliding
- image
- gray
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 136
- 238000012549 training Methods 0.000 claims description 52
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 230000000903 blocking effect Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/17—Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Databases & Information Systems (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及目标追踪领域,揭露一种移动人脸追踪方法,包括:获取待追踪人脸的视频帧图像,对视频帧图像进行预处理,得到灰度去噪图像,提取灰度去噪图像的哈尔矩形特征;根据哈尔矩形特征,对灰度去噪图像进行人脸检测,得到人脸检测区域,对人脸检测区域进行目标人脸识别,得到目标识别人脸;提取目标识别人脸在视频帧图像中的前帧图像状态,基于前帧图像状态,计算目标识别人脸在视频帧图像中的后帧预测状态值,并根据后帧预测状态值,提取后帧预测状态对应的人脸预测位置;检测目标识别人脸在视频帧图像中后帧图像的人脸检测位置,根据人脸检测位置和所述人脸预测位置,确定待追踪人脸的追踪轨迹。本发明可以提高人脸追踪的准确性。
Description
技术领域
本发明涉及目标追踪领域,尤其涉及一种移动人脸追踪方法及系统。
背景技术
人脸追踪是指在图像序列中确定各帧间人脸的对应关系的过程,其是一种用来寻找任意数字图像中人脸的位置和大小的计算机技术。
目前,业内对移动人脸的识别追踪,通常采用光流分析法充分利用图像连续帧间目标运动的规律,进行人脸区域的预测以达到人脸追踪的目的,但稠密光流法需要对空间所有像素点进行微分计算,计算量大,实时性不高,而稀疏光流法又需要先提取目标的特征点并进行追踪,而特征点的优劣又极大地影响追踪结果的准确性,从而会影响人脸追踪的准确性。
发明内容
本发明提供一种移动人脸追踪方法及装置,其主要目的在于提高移动人脸追踪的准确性。
为实现上述目的,本发明提供的一种移动人脸追踪方法,包括:
获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征;
根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸;
提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置;
检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
可选地,所述提取所述灰度去噪图像的哈尔矩形特征,包括:
利用预构建的矩形模版,配置所述灰度去噪图像的滑动窗口,按照预设的滑动步长,将所述滑动窗口在所述灰度去噪图像上滑动,得到所述滑动窗口对应的滑动去噪图像;
计算所述滑动去噪图像的滑动哈尔特征,融合所述滑动哈尔特征,得到所述灰度去噪图像的哈尔矩形特征。
可选地,所述计算所述滑动去噪图像的滑动哈尔特征,包括:
识别所述滑动去噪图像对应的矩形模版及其黑色分块区域和白色分块区域,在所述滑动去噪图像中分别识别所述黑色分块区域对应的滑动黑色区域及和所述白色分块区域对应的滑动白色区域;
计算所述滑动白色区域的白色积分特征及计算所述滑动黑色区域的黑色积分特征,识别所述矩形模版的模版类别和特征计算规则;
根据所述模版类别、所述特征计算规则、所述黑色积分特征及所述白色积分特征,计算所述滑动去噪图像的滑动哈尔特征。
可选地,所述计算所述滑动白色区域的白色积分特征,包括:
提取所述滑动白色区域的左上角像素点、右上角像素点、左下角像素点及右下角像素点;
根据所述左上角像素点、所述右上角像素点、所述左下角像素点及所述右下角像素点,利用下述公式计算所述滑动白色区域的白色积分特征,包括:
其中,Fw表示滑动白色区域的白色积分特征,I(i,j)表示滑动白色区域中像素点(i,j)的灰度值,(x1,y1)表示滑动白色区域的左上角像素点的坐标,(x2,y1)表示滑动白色区域的右上角像素点的坐标,(x1,y2)表示滑动白色区域的左下角像素点的坐标,(x2,y2)表示滑动白色区域的右下角像素点的坐标,i表示像素点的横坐标,j表示像素点的纵坐标。
可选地,所述根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,包括:
利用预设的分块检测窗口,对所述灰度去噪图像进行滑动操作,得到滑动检测窗口;提取所述哈尔矩形特征中对应所述滑动检测窗口的窗口哈尔特征;
根据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态,所述人脸状态包括人脸和非人脸;
在所述人脸状态为人脸时,标记所述滑动检测窗口的人脸窗口位置;
根据所述人脸窗口位置,确定所述灰度去噪图像的人脸检测区域。
可选地,所述根据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态之前,还包括:
初始化人脸检测的训练样本的权值分布,得到初始权值分布,所述训练样本包括人脸图像和非人脸图像;
选取预构建的弱分类器集中当前误差率最低的弱分类器为基本分类器,并计算所述基本分类器在所述初始权值分布上的分类误差,根据所述分类误差,计算所述基本分类器的分类权重;
及根据所述分类误差和所述初始权值分布,计算所述训练样本的当前权值分布;从所述弱分类器集中删除所述基本分类器,得到当前弱分类器集;
根据所述当前弱分类器集和所述分类权重,计算人脸检测的强分类器,根据所述强分类器,确定所述训练好的自适应人脸检测算法。
可选地,所述计算所述基本分类器在所述初始权值分布上的分类误差,包括:
利用下述公式计算所述基本分类器在所述初始权值分布上的分类误差,包括:
其中,et表示第t个基本分类器在所述初始权值分布上的分类误差,ωtj表示第j个训练样本在第t个基本分类器上的样本权值,I表示判别函数,ht表示第t个弱分类器,xj表示第j个训练样本,yj表示第j个训练样本的实际分类标签,j表示训练样本的序号,n表示训练样本的数量,t表示基本分类器的序号,t=0表示初始状态,T表示基本分类器的数量。
可选地,所述根据所述分类误差和所述初始权值分布,计算所述训练样本的当前权值分布,包括:
利用下述公式计算所述训练样本的当前权值分布:
其中,Dt+1表示训练样本在第t+1个基本分类器的当前权值分布,et表示第t个基本分类器的分类误差,Dt表示训练样本在第t个基本分类器的权值分布,yj表示第j个训练样本的实际分类标签,ht表示第t个基本分类器,xj表示第j个训练样本,j表示训练样本的序号,exp表示以自然常数为底的指数函数。
可选地,所述根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹,包括:
识别所述人脸检测位置和所述人脸预测位置对应的测量状态变量和预测状态变量;
根据所述测量状态变量和所述预测状态变量,利用下述公式计算所述待追踪人脸的估计状态变量:
Pk -=APk-1AT+Q
Kk=Pk -HT(HPk -HT+R)-1
Pk=(1-KkH)Pk -
其中,Pk -表示第k幅视频帧图像的先验估计协方差矩阵,A表示状态转移矩阵,Pk-1,Pk分别表示第k-1幅和第k幅视频帧图像的后验估计协方差矩阵,Q表示过程噪声的协方差矩阵,Kk表示卡尔曼增益,H表示状态变量到测量变量的转换矩阵,R表示测量噪声的协方差矩阵,分别表示第k幅视频帧图像的估计状态变量和预测状态变量,zk表示第k幅视频帧图像的测量变量,(·)T表示矩阵的转置;
提取所述估计状态变量中的目标人脸的位置区域信息,所述位置区域信息包括:中心横坐标、中心纵坐标、区域高以及区域高宽比,根据所述区域高和所述区域高宽比,计算区域宽;
根据所述中心横坐标、所述中心纵坐标、所述区域高以及所述区域宽,确定目标人脸的人脸位置区域;
根据所述人脸位置区域,构建所述待追踪人脸的追踪轨迹。
为了解决上述问题,本发明还提供一种移动人脸追踪系统,所述系统包括:
哈尔特征提取模块,用于获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征;
目标人脸识别模块,用于根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸;
人脸预测位置提取模块,用于提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置;
追踪轨迹确定模块,用于检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
可以看出,本发明实施例通过获取待追踪人脸的视频帧图像可为后续追踪人脸提供初始操作对象,对所述视频帧图像进行灰度化处理可以得到帧灰度图,并作为后续提取图像的哈尔矩形特征以判别检测区域是否为人脸的前提,并对所述帧灰度图进行去噪处理,得到灰度去噪图像可以改善所述帧灰度图的图像质量,以为后续处理提供良好的实施对象,从而提高人脸识别的追踪精度,提取所述灰度去噪图像的哈尔矩形特征可以使用积分图的技术快速计算哈尔矩形特征,并有效过滤非人脸区域,从而提高人脸区域的定位速度;其次,本发明实施例通过根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测可以快速过滤掉非人脸区域,极大的缩小人脸检测区域以提高检测速度,并对所述人脸检测区域进行目标人脸识别,得到目标识别人脸可以确定待追踪的目标对象,以为后续针对所述目标对象进行操作,提取所述目标识别人脸在所述视频帧图像中的前帧图像状态为后续预测目标识别人脸的后帧预测状态提供依据,以得到最优估计人脸追踪状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值可以得到利用目标人脸预测模型的状态预测值,以为后续和状态测量值相结合得到状态最优估计,从而使人脸追踪结果更准确;进一步地,本发明实施例通过根据所述后帧预测状态值,提取所述后帧图像状态对应的人脸预测位置可以作为后续确定最优估计目标人脸位置的一个前提要素,并检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置可以作为后续确定最优估计目标人脸位置的另一前提要素,计算所述人脸预测位置和所述人脸检测位置的交并比可以初步预判目标人脸的追踪可信度,及根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹可以实现最终对目标人脸的追踪意图。因此,本发明实施例提出的一种移动人脸追踪方法及系统,可以提高移动人脸追踪的准确性。
附图说明
图1为本发明一实施例提供的移动人脸追踪方法的流程示意图;
图2为本发明一实施例提供的移动人脸追踪系统的模块示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种移动人脸追踪方法。所述移动人脸追踪方法的执行主体包括但不限于服务端、终端等能够被配置为执行本发明实施例提供的该方法的电子设备中的至少一种。换言之,所述移动人脸追踪方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的移动人脸追踪方法的流程示意图。在本发明实施例中,所述移动人脸追踪方法包括:
S1、获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征。
本发明实施例中,所述视频帧图像是指根据视觉暂留原理,构成视觉上平滑连续的包含追踪人脸的动态画面的连续变化的以视频帧率不低于24fps的图像,其通常为YUV格式,其为后续追踪人脸提供初始操作对象。
本发明实施例通过对所述视频帧图像进行灰度化处理可以得到帧灰度图,并作为后续提取图像的哈尔矩形特征以判别检测区域是否为人脸的前提。
进一步地,作为本发明的一个可选实施例,所述对所述视频帧图像进行灰度化处理,得到帧灰度图,包括:识别所述视频帧图像的存储方式,根据所述存储方式,提取所述视频帧图像的亮度分量;根据所述亮度分量,确定所述帧灰度图。其中,所述视频帧图像通常为YUV格式,Y表示亮度,U表示色度,V表示浓度或饱和度。所述存储方式是指YUV格式的视频帧图像根据不同的应用环境通过采取合理、安全、有效的方式将数据保存到某些介质上并能保证有效的访问的存储形式,包括planar、packed两种存储方式。
进一步地,本发明实施例通过对所述帧灰度图进行去噪处理,得到灰度去噪图像可以改善所述帧灰度图的图像质量,以为后续处理提供良好的实施对象,从而提高人脸识别的追踪精度。
进一步地,作为本发明的一个可选实施例,所述对所述帧灰度图进行去噪处理,得到灰度去噪图像可以通过去噪算法实现,如高斯滤波、均值滤波,中值滤波以及双波滤波等去噪算法。
进一步地,本发明实施例通过提取所述灰度去噪图像的哈尔矩形特征可以使用积分图的技术快速计算哈尔矩形特征,并有效过滤非人脸区域,从而提高人脸区域的定位速度。
进一步地,作为本发明的一个可选实施例,所述提取所述灰度去噪图像的哈尔矩形特征,包括:利用预构建的矩形模版,配置所述灰度去噪图像的滑动窗口,按照预设的滑动步长,将所述滑动窗口在所述灰度去噪图像上滑动,得到所述滑动窗口对应的滑动去噪图像;计算所述滑动去噪图像的滑动哈尔特征,融合所述滑动哈尔特征,得到所述灰度去噪图像的哈尔矩形特征。
进一步地,作为本发明的一个可选实施例,所述计算所述滑动去噪图像的滑动哈尔特征,包括:识别所述滑动去噪图像对应的矩形模版及其黑色分块区域和白色分块区域,在所述滑动去噪图像中分别识别所述黑色分块区域对应的滑动黑色区域及和所述白色分块区域对应的滑动白色区域;计算所述滑动白色区域的白色积分特征及计算所述滑动黑色区域的黑色积分特征,识别所述矩形模版的模版类别和特征计算规则;根据所述模版类别、所述特征计算规则、所述黑色积分特征及所述白色积分特征,计算所述滑动去噪图像的滑动哈尔特征。其中,所述模版类别是指根据边缘特征、线性特征、中心特征和对角线特征的结构特点而划分的特征模板类型。所述特征计算规则是指根据模版类别对于描述特征约定的准则。
可选地,所述计算所述滑动白色区域的白色积分特征,包括:
提取所述滑动白色区域的左上角像素点、右上角像素点、左下角像素点及右下角像素点;
根据所述左上角像素点、所述右上角像素点、所述左下角像素点及所述右下角像素点,利用下述公式计算所述滑动白色区域的白色积分特征,包括:
其中,Fw表示滑动白色区域的白色积分特征,I(i,j)表示滑动白色区域中像素点(i,j)的灰度值,(x1,y1)表示滑动白色区域的左上角像素点的坐标,(x2,y1)表示滑动白色区域的右上角像素点的坐标,(x1,y2)表示滑动白色区域的左下角像素点的坐标,(x2,y2)表示滑动白色区域的右下角像素点的坐标,i表示像素点的横坐标,j表示像素点的纵坐标。
可选地,所述根据所述模版类别、所述特征计算规则、所述滑动黑色区域及所述滑动白色区域,计算所述滑动去噪图像的滑动哈尔特征,包括:
利用下述公式计算所述滑动去噪图像的滑动哈尔特征,包括:
FH=Fw-FB
其中,FH表示滑动去噪图像的滑动哈尔特征,Fw表示滑动白色区域的白色积分特征,FB表示滑动黑色区域的黑色积分特征。
S2、根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸。
本发明实施例通过根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测可以快速过滤掉非人脸区域,极大的缩小人脸检测区域以提高检测速度。
进一步地,作为本发明的一个可选实施例,所述根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,包括:利用预设的分块检测窗口,对所述灰度去噪图像进行滑动操作,得到滑动检测窗口;提取所述哈尔矩形特征中对应所述滑动检测窗口的窗口哈尔特征;根据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态,所述人脸状态包括人脸和非人脸;在所述人脸状态为非人脸时,过滤所述灰度去噪图像中的所述滑动检测窗口,在所述人脸状态为人脸时,标记所述滑动检测窗口的人脸窗口位置;根据所述人脸窗口位置,确定所述灰度去噪图像的人脸检测区域。
进一步地,作为本发明的一个可选实施例,所述据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态之前,还包括自适应人脸检测算法的训练,包括:初始化人脸检测的训练样本的权值分布,得到初始权值分布,所述训练样本包括人脸图像(正样本)和非人脸图像(负样本);选取预构建的弱分类器集中当前误差率最低的弱分类器为基本分类器,并计算所述基本分类器在所述初始权值分布上的分类误差,根据所述分类误差,计算所述基本分类器的分类权重;及根据所述分类误差和所述初始权值分布,计算所述训练样本的当前权值分布;从所述弱分类器集中删除所述基本分类器,得到当前弱分类器集;根据所述当前弱分类器集和所述分类权重,计算人脸检测的强分类器,根据所述强分类器,确定所述训练好的自适应人脸检测算法。
其中,所述弱分类器是指分类准确率比随机预测略好,但却不太高的分类器,所述分类准确率一般在60%-80%。所述预设的终止条件是指当迭代达到某个预设的足够小错误率或达到预设的最大迭代次数的状况。所述强分类器是指分类准确率较高的分类器,所述分类准确率一般高于90%。
可选地,所述初始化人脸检测的训练样本的权值分布,得到初始权值分布,包括:
利用下述公式初始化人脸检测的训练样本的权值分布,得到初始权值分布:
其中,D0表示初始权值分布,ω0j表示第j个训练样本的初始权值,j表示训练样本的序号,n表示训练样本的数量。
可选地,所述计算所述基本分类器在所述初始权值分布上的分类误差,包括:
利用下述公式计算所述基本分类器在所述初始权值分布上的分类误差:
其中,et表示第t个基本分类器在所述初始权值分布上的分类误差,ωtj表示第j个训练样本在第t个基本分类器上的样本权值,I表示判别函数,ht表示第t个弱分类器,xj表示第j个训练样本,yj表示第j个训练样本的实际分类标签,j表示训练样本的序号,n表示训练样本的数量,t表示基本分类器的序号,t=0表示初始状态,T表示基本分类器的数量。
可选地,所述根据所述分类误差,计算所述基本分类器的分类权重,包括:
利用下述公式计算所述基本分类器的分类权重:
其中,βt表示第t个基本分类器的分类权重,et表示第t个基本分类器的分类误差,ln表示以自然常数为底的对数符号。
可选地,所述根据所述分类误差和所述初始权值分布,计算所述训练样本的当前权值分布,包括:
利用下述公式计算所述训练样本的当前权值分布:
其中,Dt+1表示训练样本在第t+1个基本分类器的当前权值分布,et表示第t个基本分类器的分类误差,Dt表示训练样本在第t个基本分类器的权值分布,yj表示第j个训练样本的实际分类标签,ht表示第t个基本分类器,xj表示第j个训练样本,j表示训练样本的序号,exp表示以自然常数为底的指数函数。
可选地,所述根据所述基本分类器和所述分类权重,计算人脸检测的强分类器,包括:
利用下述公式计算人脸检测的强分类器:
其中,g(x)表示人脸检测的强分类器,ht(x)表示第t个基本分类器,βt表示第t个基本分类器的分类权重,x表示训练样本,t表示基本分类器的序号,T表示基本分类器的数量。
进一步地,本发明实施例通过对所述人脸检测区域进行目标人脸识别,得到目标识别人脸可以确定待追踪的目标对象,以为后续针对所述目标对象进行操作。
进一步地,作为本发明的一个可选实施例,所述对所述人脸检测区域进行目标人脸识别,得到目标识别人脸可以精定位待追踪的人脸位置。其可以通过YOLO、SSD、FasterR-CNN以及模板匹配算法实现。
S3、提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置。
本发明实施例通过提取所述目标识别人脸在所述视频帧图像中的前帧图像状态为后续预测目标识别人脸的后帧预测状态提供依据,以得到最优估计人脸追踪状态,所述前帧图像状态包括目标识别人脸区域的中心坐标、高宽比、高以及上述各分量的变化速度等,可以通过先利用YOLO定位目标识别人脸的目标区域,再根据所述目标区域计算得到。
本发明实施例通过基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值可以得到利用目标人脸预测模型的状态预测值,以为后续和状态测量值相结合得到状态最优估计,从而使人脸追踪结果更准确。
进一步地,作为本发明的一个可选实施例,所述基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,包括:
利用下述公式计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,包括:
进一步地,本发明实施例通过根据所述后帧预测状态值,提取所述后帧图像状态对应的人脸预测位置可以作为后续确定最优估计目标人脸位置的一个前提要素。
进一步地,作为本发明的一个可选实施例,所述根据所述后帧预测状态值,提取所述后帧图像状态对应的人脸预测位置,包括:识别所述后帧预测状态值中的目标识别人脸区域的高宽比、区域高,根据所述高宽比和所述区域高,计算所述目标识别人脸区域的区域宽;识别所述后帧图像状态值中的目标识别人脸区域的中心横坐标和中心纵坐标,根据所述中心横坐标、所述中心纵坐标、所述区域高以及所述区域宽,确定所述后帧预测状态对应的人脸预测位置。
S4、检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
本发明实施例通过检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置可以作为后续确定最优估计目标人脸位置的另一前提要素,所述人脸检测位置可通过YOLO算法提取。
本发明实施例通过计算所述人脸预测位置和所述人脸检测位置的交并比可以初步预判目标人脸的追踪可信度。
进一步地,作为本发明的一个可选实施例,所述计算所述人脸预测位置和所述人脸检测位置的交并比,包括:
利用下述公式计算所述人脸预测位置和所述人脸检测位置的交并比,包括:
其中,ρ表示人脸预测位置和人脸检测位置的交并比,P表示人脸预测位置,D表示人脸检测位置,∩表示交集符号,∪表示并集符号。
进一步地,本发明实施例通过根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹可以实现最终对目标人脸的追踪意图。
进一步地,作为本发明的一个可选实施例,所述根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹,包括:
识别所述人脸检测位置和所述人脸预测位置对应的测量状态变量和预测状态变量;
根据所述测量状态变量和所述预测状态变量,利用下述公式计算所述待追踪人脸的估计状态变量:
Pk -=APk-1AT+Q
Kk=Pk -HT(HPk -HT+R)-1
其中,Pk -表示第k幅视频帧图像的先验估计协方差矩阵,A表示状态转移矩阵,Pk-1,Pk分别表示第k-1幅和第k幅视频帧图像的后验估计协方差矩阵,Q表示过程噪声的协方差矩阵,Kk表示卡尔曼增益,H表示状态变量到测量变量的转换矩阵,R表示测量噪声的协方差矩阵,分别表示第k幅视频帧图像的估计状态变量和预测状态变量,zk表示第k幅视频帧图像的测量变量,(·)T表示矩阵的转置;
提取所述估计状态变量中的目标人脸的位置区域信息,所述位置区域信息包括:中心横坐标、中心纵坐标、区域高以及区域高宽比,根据所述区域高和所述区域高宽比,计算区域宽;
根据所述中心横坐标、所述中心纵坐标、所述区域高以及所述区域宽,确定目标人脸的人脸位置区域;
根据所述人脸位置区域,构建所述待追踪人脸的追踪轨迹。
可以看出,本发明实施例通过获取待追踪人脸的视频帧图像可为后续追踪人脸提供初始操作对象,对所述视频帧图像进行灰度化处理可以得到帧灰度图,并作为后续提取图像的哈尔矩形特征以判别检测区域是否为人脸的前提,并对所述帧灰度图进行去噪处理,得到灰度去噪图像可以改善所述帧灰度图的图像质量,以为后续处理提供良好的实施对象,从而提高人脸识别的追踪精度,提取所述灰度去噪图像的哈尔矩形特征可以使用积分图的技术快速计算哈尔矩形特征,并有效过滤非人脸区域,从而提高人脸区域的定位速度;其次,本发明实施例通过根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测可以快速过滤掉非人脸区域,极大的缩小人脸检测区域以提高检测速度,并对所述人脸检测区域进行目标人脸识别,得到目标识别人脸可以确定待追踪的目标对象,以为后续针对所述目标对象进行操作,提取所述目标识别人脸在所述视频帧图像中的前帧图像状态为后续预测目标识别人脸的后帧预测状态提供依据,以得到最优估计人脸追踪状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值可以得到利用目标人脸预测模型的状态预测值,以为后续和状态测量值相结合得到状态最优估计,从而使人脸追踪结果更准确;进一步地,本发明实施例通过根据所述后帧预测状态值,提取所述后帧图像状态对应的人脸预测位置可以作为后续确定最优估计目标人脸位置的一个前提要素,并检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置可以作为后续确定最优估计目标人脸位置的另一前提要素,计算所述人脸预测位置和所述人脸检测位置的交并比可以初步预判目标人脸的追踪可信度,及根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹可以实现最终对目标人脸的追踪意图。因此,本发明实施例提出的一种移动人脸追踪方法及系统,可以提高移动人脸追踪的准确性。
如图2所示,是本发明移动人脸追踪系统的功能模块图。
本发明所述移动人脸追踪系统100可以安装于电子设备中。根据实现的功能,所述移动人脸追踪系统可以包括哈尔特征提取模块101、目标人脸识别模块102、人脸预测位置提取模块103以及追踪轨迹确定模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备的处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
哈尔特征提取模块101,用于获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征;
目标人脸识别模块102,用于根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸;
人脸预测位置提取模块103,用于提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置;
追踪轨迹确定模块104,用于检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
详细地,本发明实施例中所述移动人脸追踪系统100中的所述各模块在使用时采用与上述的图1中所述的移动人脸追踪方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
本发明所提供的几个实施例中,应该理解到,所揭露的设备,系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种移动人脸追踪方法,其特征在于,所述方法包括:
获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征;
根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸;
提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置;
检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
2.如权利要求1所述的移动人脸追踪方法,其特征在于,所述提取所述灰度去噪图像的哈尔矩形特征,包括:
利用预构建的矩形模版,配置所述灰度去噪图像的滑动窗口,按照预设的滑动步长,将所述滑动窗口在所述灰度去噪图像上滑动,得到所述滑动窗口对应的滑动去噪图像;
计算所述滑动去噪图像的滑动哈尔特征,融合所述滑动哈尔特征,得到所述灰度去噪图像的哈尔矩形特征。
3.如权利要求2所述的移动人脸追踪方法,其特征在于,所述计算所述滑动去噪图像的滑动哈尔特征,包括:
识别所述滑动去噪图像对应的矩形模版及其黑色分块区域和白色分块区域,在所述滑动去噪图像中分别识别所述黑色分块区域对应的滑动黑色区域及和所述白色分块区域对应的滑动白色区域;
计算所述滑动白色区域的白色积分特征及计算所述滑动黑色区域的黑色积分特征,识别所述矩形模版的模版类别和特征计算规则;
根据所述模版类别、所述特征计算规则、所述黑色积分特征及所述白色积分特征,计算所述滑动去噪图像的滑动哈尔特征。
4.如权利要求3所述的移动人脸追踪方法,其特征在于,所述计算所述滑动白色区域的白色积分特征,包括:
提取所述滑动白色区域的左上角像素点、右上角像素点、左下角像素点及右下角像素点;
根据所述左上角像素点、所述右上角像素点、所述左下角像素点及所述右下角像素点,利用下述公式计算所述滑动白色区域的白色积分特征:
其中,Fw表示滑动白色区域的白色积分特征,I(i,j)表示滑动白色区域中像素点(i,j)的灰度值,(x1,y1)表示滑动白色区域的左上角像素点的坐标,(x2,y1)表示滑动白色区域的右上角像素点的坐标,(x1,y2)表示滑动白色区域的左下角像素点的坐标,(x2,y2)表示滑动白色区域的右下角像素点的坐标,i表示像素点的横坐标,j表示像素点的纵坐标。
5.如权利要求1所述的移动人脸追踪方法,其特征在于,所述根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,包括:
利用预设的分块检测窗口,对所述灰度去噪图像进行滑动操作,得到滑动检测窗口,提取所述哈尔矩形特征中对应所述滑动检测窗口的窗口哈尔特征;
根据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态;
在所述人脸状态为人脸时,标记所述滑动检测窗口的人脸窗口位置;
根据所述人脸窗口位置,确定所述灰度去噪图像的人脸检测区域。
6.如权利要求5所述的移动人脸追踪方法,其特征在于,所述根据所述窗口哈尔特征,利用训练好的自适应人脸检测算法,对所述滑动检测窗口进行人脸检测,得到所述滑动检测窗口的人脸状态之前,还包括:
初始化人脸检测的训练样本的权值分布,得到初始权值分布,所述训练样本包括人脸图像和非人脸图像;
选取预构建的弱分类器集中当前误差率最低的弱分类器为基本分类器,并计算所述基本分类器在所述初始权值分布上的分类误差,根据所述分类误差,计算所述基本分类器的分类权重;
根据所述分类误差和所述初始权值分布,计算所述训练样本的当前权值分布;从所述弱分类器集中删除所述基本分类器,得到当前弱分类器集;
根据所述当前弱分类器集和所述分类权重,计算人脸检测的强分类器,根据所述强分类器,确定所述训练好的自适应人脸检测算法。
9.如权利要求1所述的移动人脸追踪方法,其特征在于,所述根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹,包括:
识别所述人脸检测位置和所述人脸预测位置对应的测量状态变量和预测状态变量;
根据所述测量状态变量和所述预测状态变量,利用下述公式计算所述待追踪人脸的估计状态变量:
Pk -=APk-1AT+Q
Pk=(1-KkH)Pk -
其中,Pk -表示第k幅视频帧图像的先验估计协方差矩阵,A表示状态转移矩阵,Pk-1,Pk分别表示第k-1幅和第k幅视频帧图像的后验估计协方差矩阵,Q表示过程噪声的协方差矩阵,Kk表示卡尔曼增益,H表示状态变量到测量变量的转换矩阵,R表示测量噪声的协方差矩阵,分别表示第k幅视频帧图像的估计状态变量和预测状态变量,zk表示第k幅视频帧图像的测量变量,(·)T表示矩阵的转置;
提取所述估计状态变量中的目标人脸的位置区域信息,所述位置区域信息包括:中心横坐标、中心纵坐标、区域高以及区域高宽比,根据所述区域高和所述区域高宽比,计算区域宽;
根据所述中心横坐标、所述中心纵坐标、所述区域高以及所述区域宽,确定目标人脸的人脸位置区域;
根据所述人脸位置区域,构建所述待追踪人脸的追踪轨迹。
10.一种移动人脸追踪系统,其特征在于,所述系统包括:
哈尔特征提取模块,用于获取待追踪人脸的视频帧图像,对所述视频帧图像进行灰度化处理,得到帧灰度图,对所述帧灰度图进行去噪处理,得到灰度去噪图像,提取所述灰度去噪图像的哈尔矩形特征;
目标人脸识别模块,用于根据所述哈尔矩形特征,对所述灰度去噪图像进行人脸检测,得到人脸检测区域,对所述人脸检测区域进行目标人脸识别,得到目标识别人脸;
人脸预测位置提取模块,用于提取所述目标识别人脸在所述视频帧图像中的前帧图像状态,基于所述前帧图像状态,计算所述目标识别人脸在所述视频帧图像中的后帧预测状态值,并根据所述后帧预测状态值,提取所述后帧预测状态对应的人脸预测位置;
追踪轨迹确定模块,用于检测所述目标识别人脸在所述视频帧图像中后帧图像的人脸检测位置,计算所述人脸预测位置和所述人脸检测位置的交并比,在所述交并比大于预设阈值时,根据所述人脸检测位置和所述人脸预测位置,确定所述待追踪人脸的追踪轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273562.2A CN116245866B (zh) | 2023-03-16 | 2023-03-16 | 一种移动人脸追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273562.2A CN116245866B (zh) | 2023-03-16 | 2023-03-16 | 一种移动人脸追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116245866A true CN116245866A (zh) | 2023-06-09 |
CN116245866B CN116245866B (zh) | 2023-09-08 |
Family
ID=86633211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310273562.2A Active CN116245866B (zh) | 2023-03-16 | 2023-03-16 | 一种移动人脸追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116245866B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160202756A1 (en) * | 2015-01-09 | 2016-07-14 | Microsoft Technology Licensing, Llc | Gaze tracking via eye gaze model |
CN108898093A (zh) * | 2018-02-11 | 2018-11-27 | 陈佳盛 | 一种人脸识别方法及应用该方法的电子病历登陆系统 |
CN110688940A (zh) * | 2019-09-25 | 2020-01-14 | 北京紫睛科技有限公司 | 一种快速的基于人脸检测的人脸追踪方法 |
CN110969646A (zh) * | 2019-12-04 | 2020-04-07 | 电子科技大学 | 一种适应高帧率的人脸追踪方法 |
CN111027476A (zh) * | 2019-12-10 | 2020-04-17 | 电子科技大学 | 基于增量学习算法的人脸识别跟踪器 |
WO2022126905A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN114973389A (zh) * | 2022-05-10 | 2022-08-30 | 中山大学·深圳 | 一种基于耦合级联回归的眼动追踪方法 |
-
2023
- 2023-03-16 CN CN202310273562.2A patent/CN116245866B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160202756A1 (en) * | 2015-01-09 | 2016-07-14 | Microsoft Technology Licensing, Llc | Gaze tracking via eye gaze model |
CN108898093A (zh) * | 2018-02-11 | 2018-11-27 | 陈佳盛 | 一种人脸识别方法及应用该方法的电子病历登陆系统 |
CN110688940A (zh) * | 2019-09-25 | 2020-01-14 | 北京紫睛科技有限公司 | 一种快速的基于人脸检测的人脸追踪方法 |
CN110969646A (zh) * | 2019-12-04 | 2020-04-07 | 电子科技大学 | 一种适应高帧率的人脸追踪方法 |
CN111027476A (zh) * | 2019-12-10 | 2020-04-17 | 电子科技大学 | 基于增量学习算法的人脸识别跟踪器 |
WO2022126905A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN114973389A (zh) * | 2022-05-10 | 2022-08-30 | 中山大学·深圳 | 一种基于耦合级联回归的眼动追踪方法 |
Non-Patent Citations (1)
Title |
---|
黄鹤: "融合多尺度特征提取与优化非极大值抑制的目标检测研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 10, pages 138 - 367 * |
Also Published As
Publication number | Publication date |
---|---|
CN116245866B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921877B (zh) | 一种基于宽度学习的长期目标跟踪方法 | |
CN109919002B (zh) | 黄色禁停线识别方法、装置、计算机设备及存储介质 | |
CN104408707A (zh) | 一种快速数字成像模糊鉴别与复原图像质量评估方法 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN113255557B (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN111310609B (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN113379789B (zh) | 一种复杂环境下运动目标跟踪方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN112489089B (zh) | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 | |
CN116311214B (zh) | 车牌识别方法和装置 | |
CN110827327B (zh) | 一种基于融合的长期目标跟踪方法 | |
CN115082781A (zh) | 一种舰船图像检测方法、装置以及存储介质 | |
CN114663665A (zh) | 基于梯度的对抗样本生成方法与系统 | |
CN113313179A (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN114219936A (zh) | 目标检测方法、电子设备、存储介质和计算机程序产品 | |
CN111738194B (zh) | 一种用于人脸图像相似性的评价方法和装置 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN116245866B (zh) | 一种移动人脸追踪方法及系统 | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN116579985A (zh) | 一种基于RefineDet模型的晶圆缺陷检测方法 | |
CN113762027B (zh) | 一种异常行为的识别方法、装置、设备及存储介质 | |
CN115908409A (zh) | 光伏片缺陷的检测方法、检测装置、计算机设备和介质 | |
CN110910332B (zh) | 一种视觉slam系统动态模糊处理方法 | |
CN115830515B (zh) | 一种基于空间网格的视频目标行为识别方法 | |
Gao et al. | Real-time multi-view face detection based on optical flow segmentation for guiding the robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |