CN107122751B - 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法 - Google Patents

一种基于人脸对齐的人脸跟踪和人脸图像捕获方法 Download PDF

Info

Publication number
CN107122751B
CN107122751B CN201710307670.1A CN201710307670A CN107122751B CN 107122751 B CN107122751 B CN 107122751B CN 201710307670 A CN201710307670 A CN 201710307670A CN 107122751 B CN107122751 B CN 107122751B
Authority
CN
China
Prior art keywords
face
centroid
point
calculating
abscissa
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710307670.1A
Other languages
English (en)
Other versions
CN107122751A (zh
Inventor
段翰聪
文慧
贾洁
赵子天
闵革勇
黄卓越
孙振兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201710307670.1A priority Critical patent/CN107122751B/zh
Publication of CN107122751A publication Critical patent/CN107122751A/zh
Application granted granted Critical
Publication of CN107122751B publication Critical patent/CN107122751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人脸对齐的人脸跟踪和人脸图像捕获方法,所述方法包括:步骤1:计算t时刻每一个人脸的质心;步骤2:计算出t时刻中检测出的人脸的质心最可能出现的预测位置;步骤3:对于每一个t时刻的人脸质心,计算与所有人脸质心预测结果之间的欧氏距离,将距离小于阈值的人脸质心与该质心初步匹配;计算对应的人脸68点关键点数据与所有初步匹配的人脸对应的之间每个点的平均欧氏距离;若最小欧式距离小于阈值,则认为人脸与初步匹配人脸匹配成功,将此人脸图像入库,实现了能高效地对视频流中的人脸图像进行提取,为在线实时人脸识别提供冗余较少的人脸图像数据和跟踪结果的技术效果。

Description

一种基于人脸对齐的人脸跟踪和人脸图像捕获方法
技术领域
本发明涉及人脸识别检测领域,具体地,涉及一种基于人脸对齐的人脸跟踪和人脸图像捕获方法。
背景技术
随着计算机视觉的相关理论与应用研究的快速发展,计算机视觉技术在日常生活中应用的优越性也日益突显出来。用计算机对图像进行识别是计算机从相关的视频或图像序列中提取出相应的特征,从而让计算机“理解”图像的内容,并能正确分类的技术。人脸识别在身份识别与验证上的作用日趋明显。对于在线视频流的人脸识别系统,基本程序框架如图1所示。
在线实时人脸识别的基本流程:
(1)视频流解析成帧序列,对每一帧利用人脸检测方法检测出人脸,标记人脸框,图像预处理,人脸特征的提取
(2)提取的人脸特征与人脸库特征对比验证
(3)存储相应的人脸图像做日志记录
(4)对帧序列中同一个人更新对应的人脸框
通过以上基本流程可以看出,若对视频流中每一帧图像都不加选择地做人脸检测,图像的预处理,特征提取,人脸识别,最后再存储相应的人脸,每一步都需要复杂的矩阵运算,GPU的计算压力非常大,每一帧进行人脸图像的存储和更新,会导致数据库存储压力巨大。因此对每帧进行暴力计算的方式会消耗巨大的计算和存储资源,难以保证视频中人脸检测的实时性和大规模部署的可行性。
发明内容
本发明提供了一种基于人脸对齐的人脸跟踪和人脸图像捕获方法,解决了现有的在线实时人脸识别存在计算量较大的技术问题,实现了能高效地对视频流中的人脸图像进行提取,为在线实时人脸识别提供冗余较少的人脸图像数据和跟踪结果的技术效果。
人脸质心:根据openCVDlib库的68点人脸特征点对齐算法计算出的68点人脸关键点的质心
人脸图像入库:根据人脸关键点数据计算合适的人脸边框,将t时刻(当前帧)人脸图像截取并存储,以供人脸识别系统调用。
在视频流中,一个人脸从进入画面到离开画面范围,其轨迹为一条连续的曲线。要对该人脸进行识别,在理想情况下只需要对其中某一帧的人脸图像进行处理即可,并不需要对每一帧的图像中的每一个人脸都进行识别。
人脸的移动符合一定的运动规律(速度,加速度),并且在相邻的两帧之间,人脸边框的移动距离不大,因此能够采用一定的方法将视频不同帧中出现的同一个人脸联系起来,从而实现的对人脸的跟踪和高效捕获提取。
为解决上述技术问题,本申请提供了一种基于openCV的人脸跟踪和人脸图像捕获方法,所述方法包括:
步骤1:获得具有人脸图像的视频流数据,将视频流解析成帧序列,计算t时刻每一个人脸的质心;
步骤2:依据基于动量的人脸位置预测方法,依据历史数据计算出t时刻中检测出的人脸的质心最可能出现的预测位置;
设同一人脸两帧间时间间隔为Δt,则定义时刻速度为vt,时刻速度为:
Figure BDA0001285387280000021
Figure BDA0001285387280000022
Δx为两帧之间目标移动的x距离,Δy为两帧之间目标移动的y距离,Δt为两帧的间隔时间,vx为沿着横坐标的目标运动的速度,vy为沿着纵坐标的目标运动的速度;
根据物体运动规律,可得出下一帧人脸质心预测坐标:
x=xt+vt×Δt
y=yt+yt×Δt
xt为当前帧质心的x坐标,yt为当前帧质心的y坐标,Vx为当前帧质心沿着横坐标的速度,vy为当前帧质心沿着纵坐标的速度。
步骤3:对于每一个t时刻的人脸质心,计算检测出的人脸质心与所有人脸质心预测结果之间的欧氏距离,将距离小于阀值的人脸质心与该质心初步匹配;若不存在距离小于阈值的,则将其与最近的人脸进行初步匹配;
计算对应的人脸68点关键点数据与所有初步匹配的人脸对应的之间每个点的平均欧氏距离:取对应的人脸与所有初步匹配的人脸对应的之间每个点的平均欧氏距离中最小值,对应的初步匹配人脸为m,若最小的平均欧式距离小于阈值,则认为人脸与初步匹配人脸m匹配成功,即认为人脸与初步匹配人脸m为同一个人脸;若大于阈值,则表明没有与匹配,认为为新出现的人脸,将此人脸图像入库。
进一步的,所述计算t时刻每一个人脸的质心具体包括:
设检出的第i个人脸对齐结果为shape[i].part,其中,shape[i]结构包括第i个人检测出的所有关键点,part[n]为第n个关键点,N为检测到的人脸关键点的个数,未检测到的关键点不予计算,则定义该人脸的质心为:
Figure BDA0001285387280000031
Figure BDA0001285387280000032
进一步的,设同一人脸质心轨迹为x,帧间时间间隔为Δt,则定义时刻速度为vt,时刻速度为:
Figure BDA0001285387280000033
Figure BDA0001285387280000034
Δx为两帧之间目标移动的x距离,Δy为两帧之间目标移动的y距离,Δt为两帧的间隔时间;
根据物体运动规律,可得出下一帧人脸质心预测坐标:
x=xt+vt×Δt
y=yt+yt×Δt
xt为当前帧质心的x坐标,yt为当前帧质心的y坐标,Vx为当前帧质心沿着横坐标的速度,vy为当前帧质心沿着纵坐标的速度。
进一步的,计算对应的人脸68点关键点数据与所有初步匹配的人脸对应的之间每个点的平均欧氏距离为:
Figure BDA0001285387280000035
Figure BDA0001285387280000036
其中,
Figure BDA0001285387280000037
为人脸68点与第i个初步匹配人脸68点的横坐标的平均欧式距离,shape[].part(n).x()为当前帧人脸第n个关键点的横坐标,shape[i].part(n).x()为初步匹配的人脸i第n个关键点的横坐标,
Figure BDA0001285387280000038
为人脸68点与第i个初步匹配人脸68点的纵坐标的平均欧式距离,shape[].part(n).x()为当前帧人脸第n个关键点的纵坐标,shape[i].part(n).x()为初步匹配的人脸i第n个关键点的纵坐标,N为检测到的人脸关键点的个数。
进一步的,当认为计算对应的人脸与初步匹配的人脸为同一个人脸,根据优质人脸图像存储策略,决定是否将t时刻人脸图像入库,具体包括:
在人脸68点中,选择人脸下颌轮廓线中最左、最右和最下的三个点作为人脸图像质量计算的参考点,记为a,b,c;将三角形面积S作为人脸图像质量参考标准:
根据平面解析几何,三角形面积:
Figure BDA0001285387280000041
其中,xa为a点的横坐标,xb为b点的横坐标,xc为c点的横坐标,ya为a点的纵坐标,yb为b点的纵坐标,yc为c点的纵坐标;
若S符合要求,则将t时刻人脸图像入库。
本申请提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于通过该技术方案,在下一帧图像中,对于移动范围很小的人脸,不需要再通过人脸识别网络判别人脸属于哪一个人,而是通过欧式距离判断是否为同一个人,没有匹配的人脸时再进行人脸识别,计算量减小,因此,解决了现有的在线实时人脸识别存在计算量较大的技术问题,进而实现了能高效地对视频流中的人脸图像进行提取,为在线实时人脸识别提供冗余较少的人脸图像数据和跟踪结果的技术效果。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定;
图1是本申请中现有在线视频流的人脸识别系统的基本程序框架示意图;
图2是本申请中人脸图像质量计算参考点示意图。
具体实施方式
本发明提供了一种基于人脸对齐的人脸跟踪和人脸图像捕获方法,解决了现有的在线实时人脸识别存在计算量较大的技术问题,实现了能高效地对视频流中的人脸图像进行提取,为在线实时人脸识别提供冗余较少的人脸图像数据和跟踪结果的技术效果。
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在相互不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述范围内的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本申请提供了一种基于openCV的人脸跟踪和人脸图像捕获方法包括:
视频流人脸跟踪与人脸图像提取流程:
步骤1:计算t时刻(当前帧)每一个人脸的质心。设检出的第i个人脸对齐结果为shape[i].part,其中shape[i]结构包涵第i个人检测出的所有关键点,part[n]为第n个关键点,N为检测到的人脸关键点的个数,未检测到的关键点不予计算;
则定义该人脸的质心为:
Figure BDA0001285387280000051
Figure BDA0001285387280000052
步骤2:根据基于动量的人脸位置预测方法,依据历史数据计算出时刻中检测出的人脸的质心最可能出现的预测位置;
线性人脸位置预测:设同一人脸质心轨迹为x,帧间时间间隔为Δt,则定义时刻速度为vt,时刻速度为:
Figure BDA0001285387280000053
Figure BDA0001285387280000054
Δx为两帧之间目标移动的x距离,Δy为两帧之间目标移动的y距离,Δt为两帧的间隔时间,根据物体运动规律,可得出下一帧人脸质心预测坐标:
x=xt+vt×Δt
y=yt+yt×Δt
xt为当前帧质心的x坐标,yt为当前帧质心的y坐标,Vx为当前帧质心沿着横坐标的速度,vy为当前帧质心沿着纵坐标的速度。
步骤3:对于每一个t时刻的人脸质心,计算检测出的人脸质心与所有人脸质心预测结果之间的欧氏距离,将距离小于阈值的与该质心初步匹配;若不存在距离小于阈值的,则与其最近的人脸进行初步匹配;
计算对应的人脸68点关键点数据与所有初步匹配的人脸(可能有多个初步匹配的人脸)对应的之间每个点的平均欧氏距离:
Figure BDA0001285387280000061
Figure BDA0001285387280000062
取所有平均欧式距离中最小值,对应的初步匹配人脸为m,若最小欧式距离小于阈值,则认为人脸与初步匹配人脸m匹配成功,即认为人脸与初步匹配人脸m为同一个人脸,根据优质人脸图像存储策略,决定是否将t时刻人脸图像入库。若最小欧式距离大于阈值,则表明没有与匹配,认为为新出现的人脸,将此人脸图像入库。
优质人脸图像存储策略
在对人脸入库时,需要选择更加优质的人脸图像,即利于提高人脸识别精度的图像。请参考图2,在图2中,选择人脸下颌轮廓线中最左(1号点)、最右(17号点)和最下(9号点)的三个点作为人脸图像质量计算的参考点,记为a,b,c。将三角形面积作为人脸图像质量参考标准:
根据平面解析几何,三角形面积:
Figure BDA0001285387280000063
S越大表明此人脸图像大小和角度更好,更利于提升人脸识别网络效果。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
由于通过该技术方案,在下一帧图像中,对于移动范围很小的人脸,不需要再通过人脸识别网络判别人脸属于哪一个人,而是通过欧式距离判断是否为同一个人,没有匹配的人脸时再进行人脸识别,计算量减小,,因此,解决了现有的在线实时人脸识别存在计算量较大的技术问题,进而实现了能高效地对视频流中的人脸图像进行提取,为在线实时人脸识别提供冗余较少的人脸图像数据和跟踪结果的技术效果。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (5)

1.一种基于人脸对齐的人脸跟踪和人脸图像捕获方法,其特征在于,所述方法包括:
步骤1:获得具有人脸图像的视频流数据,将视频流解析成帧序列,计算t时刻每一个人脸的质心;
步骤2:依据基于动量的人脸位置预测方法,依据历史数据计算出t时刻中检测出的人脸的质心最可能出现的预测位置;
步骤3:计算t时刻每一个人脸的质心与所有人脸质心预测结果之间的欧氏距离,将距离小于阈值的人脸质心预测结果与该质心初步匹配;若不存在距离小于阈值的人脸质心预测结果,则将人脸质心与最近的人脸进行初步匹配;
计算人脸n的68点关键点数据与所有初步匹配的人脸对应的每个点之间的平均欧氏距离:取人脸n与所有初步匹配的人脸的欧式距离中的最小值,对应初步匹配的人脸为m,若最小的欧氏距离小于阈值,则认为人脸n与初步匹配的人脸m匹配成功,即认为人脸n与初步匹配的人脸m为同一个人脸;若大于阈值,则表明没有匹配,认为为新出现的人脸,将此人脸图像入库。
2.根据权利要求1所述的基于人脸对齐的人脸跟踪和人脸图像捕获方法,其特征在于,计算t时刻每一个人脸的质心具体包括:
设检出的第i个人脸对齐结果为shape[i].part,其中,shape[i]结构包括第i个人检测出的所有关键点,part[n]为第n个关键点,shape[i].part(n).x()为人脸i第n个关键点的横坐标,
Figure FDA0002669687650000011
为人脸质心的横坐标,shape[i].part(n).y()为人脸i第n个关键点的纵坐标,
Figure FDA0002669687650000012
为人脸质心的纵坐标,N为人脸关键点的个数,未检测到的关键点不予计算;
则定义该人脸的质心为:
Figure FDA0002669687650000013
Figure FDA0002669687650000014
3.根据权利要求1所述的基于人脸对齐的人脸跟踪和人脸图像捕获方法,其特征在于,计算对应的人脸68点关键点数据与所有初步匹配的人脸对应的之间每个点的平均欧氏距离为:
Figure FDA0002669687650000015
Figure FDA0002669687650000016
其中,
Figure FDA0002669687650000021
为人脸68点与第i个初步匹配人脸68点的横坐标的平均欧式距离,shape[].part(n).x()为当前帧人脸第n个关键点的横坐标,shape[i].part(n).x()为初步匹配的人脸i第n个关键点的横坐标,
Figure FDA0002669687650000022
为人脸68点与第i个初步匹配人脸68点的纵坐标的平均欧式距离,shape[].part(n).x()为当前帧人脸第n个关键点的纵坐标,shape[i].part(n).x()为初步匹配的人脸i第n个关键点的纵坐标,N为人脸检测到的关键点个数。
4.根据权利要求1所述的基于人脸对齐的人脸跟踪和人脸图像捕获方法,其特征在于,当认为计算对应的人脸与初步匹配的人脸为同一个人脸,根据优质人脸图像存储策略,决定是否将t时刻人脸图像入库,具体包括:
在人脸68点中,选择人脸下颌轮廓线中最左、最右和最下的三个点作为人脸图像质量计算的参考点,记为a,b,c;将三角形面积S作为人脸图像质量参考标准:
根据平面解析几何,三角形面积:
Figure FDA0002669687650000023
其中,xa为a点的横坐标,xb为b点的横坐标,xc为c点的横坐标,ya为a点的纵坐标,yb为b点的纵坐标,yc为c点的纵坐标;
若S符合要求,则将t时刻人脸图像入库。
5.根据权利要求1所述的基于人脸对齐的人脸跟踪和人脸图像捕获方法,其特征在于,设同一人脸两帧间时间间隔为Δt,则定义时刻速度为:
Figure FDA0002669687650000024
Figure FDA0002669687650000025
Δx为两帧之间目标移动的x距离,Δy为两帧之间目标移动的y距离;
根据物体运动规律,可得出下一帧人脸质心预测坐标:
Figure FDA0002669687650000026
Figure FDA0002669687650000027
xt为当前帧质心的x坐标,yt为当前帧质心的y坐标,
Figure FDA0002669687650000028
为当前帧质心沿着横坐标的速度,
Figure FDA0002669687650000029
为当前帧质心沿着纵坐标的速度。
CN201710307670.1A 2017-05-03 2017-05-03 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法 Active CN107122751B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710307670.1A CN107122751B (zh) 2017-05-03 2017-05-03 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710307670.1A CN107122751B (zh) 2017-05-03 2017-05-03 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法

Publications (2)

Publication Number Publication Date
CN107122751A CN107122751A (zh) 2017-09-01
CN107122751B true CN107122751B (zh) 2020-12-29

Family

ID=59726709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710307670.1A Active CN107122751B (zh) 2017-05-03 2017-05-03 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法

Country Status (1)

Country Link
CN (1) CN107122751B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508575A (zh) * 2017-09-14 2019-03-22 深圳超多维科技有限公司 人脸跟踪方法及装置、电子设备和计算机可读存储介质
CN107644219B (zh) * 2017-10-10 2021-04-02 Oppo广东移动通信有限公司 人脸注册方法及相关产品
CN108564028A (zh) * 2018-04-11 2018-09-21 开放智能机器(上海)有限公司 一种基于嵌入式系统的多线程人脸识别系统
KR102476758B1 (ko) 2018-05-09 2022-12-09 삼성전자주식회사 영상 정규화 장치 및 방법
CN109087335B (zh) * 2018-07-16 2022-02-22 腾讯科技(深圳)有限公司 一种人脸跟踪方法、装置和存储介质
CN109190561B (zh) * 2018-09-04 2022-03-22 四川长虹电器股份有限公司 一种视频播放中的人脸识别方法及系统
CN109784220B (zh) * 2018-12-28 2022-06-17 上海依图网络科技有限公司 一种确定路人轨迹的方法及装置
CN111985271A (zh) * 2019-05-22 2020-11-24 北京京东尚科信息技术有限公司 一种嘴型识别方法和装置、人机交互方法及系统
CN110569785B (zh) * 2019-09-05 2023-07-11 杭州智爱时刻科技有限公司 一种融合跟踪技术的人脸识别方法
CN112966650B (zh) * 2021-03-25 2022-10-14 北京中电兴发科技有限公司 一种实时视频流的人脸动作配合型活体验证方法
CN113642450B (zh) * 2021-08-09 2024-08-13 北京智胜远景科技有限公司 视频人脸识别方法、系统及存储介质
CN113869210A (zh) * 2021-09-28 2021-12-31 中通服创立信息科技有限责任公司 一种人脸识别跟随方法及采用该方法的智能设备
WO2023184197A1 (zh) * 2022-03-30 2023-10-05 京东方科技集团股份有限公司 目标跟踪方法、装置、系统及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228113A (zh) * 2016-07-12 2016-12-14 电子科技大学 基于aam的人脸特征点快速对齐方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418113B2 (en) * 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos
JP5227410B2 (ja) * 2007-10-12 2013-07-03 トヨタ モーター ヨーロッパ ナムローゼ フェンノートシャップ 映像データの処理のための方法およびシステム
EP2048619A1 (en) * 2007-10-13 2009-04-15 Toyota Motor Europe NV Methods and systems for processing of video data
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
US20140043329A1 (en) * 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
CN102306290B (zh) * 2011-10-14 2013-10-30 刘伟华 一种基于视频的人脸跟踪识别方法
CN102663354B (zh) * 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和系统
CN103577789B (zh) * 2012-07-26 2018-02-13 中兴通讯股份有限公司 检测方法和装置
CN103268480B (zh) * 2013-05-30 2016-07-06 重庆大学 一种视觉跟踪系统及方法
CN103679159B (zh) * 2013-12-31 2017-10-17 海信集团有限公司 人脸识别方法
US10283162B2 (en) * 2014-02-05 2019-05-07 Avatar Merger Sub II, LLC Method for triggering events in a video
CN103955950B (zh) * 2014-04-21 2017-02-08 中国科学院半导体研究所 一种利用关键点特征匹配的图像跟踪方法
CN104318211A (zh) * 2014-10-17 2015-01-28 中国传媒大学 一种抗遮挡人脸跟踪方法
CN105518709B (zh) * 2015-03-26 2019-08-09 北京旷视科技有限公司 用于识别人脸的方法、系统和计算机程序产品

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228113A (zh) * 2016-07-12 2016-12-14 电子科技大学 基于aam的人脸特征点快速对齐方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Face alignment based on the multi-scale local features;Cong Geng et al;《2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)》;20120330;第1517-1520页 *
一种基于相似离度匹配的人脸精确跟踪算法;张杨等;《东北大学学报(自然可学版)》;20110228;第32卷(第2期);第188-192页 *

Also Published As

Publication number Publication date
CN107122751A (zh) 2017-09-01

Similar Documents

Publication Publication Date Title
CN107122751B (zh) 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法
CN105069408B (zh) 一种复杂场景下基于人脸识别的视频人像跟踪方法
Lichtenauer et al. Sign language recognition by combining statistical DTW and independent classification
WO2017118356A1 (zh) 文本图像处理方法和装置
US20080219502A1 (en) Tracking bimanual movements
WO2015184899A1 (zh) 一种车辆车牌识别方法及装置
CN104036287A (zh) 一种基于人类运动显著轨迹的视频分类方法
CN112989962B (zh) 轨迹生成方法、装置、电子设备及存储介质
CN110334577B (zh) 一种基于海思安防芯片的人脸识别方法
CN109086725B (zh) 手部跟踪方法及机器可读存储介质
CN109558855A (zh) 一种基于手掌轮廓特征与模版匹配法相结合的空间手势识别方法
Karmakar et al. Face recognition using face-autocropping and facial feature points extraction
CN112836682B (zh) 视频中对象的识别方法、装置、计算机设备和存储介质
Karappa et al. Detection of sign-language content in video through polar motion profiles
CN111814653B (zh) 一种视频中异常行为的检测方法、装置、设备及存储介质
CN111881775B (zh) 一种人脸实时识别方法和装置
CN106980818B (zh) 一种用于人脸图像的个性化预处理方法、系统及其终端
Ji et al. News videos anchor person detection by shot clustering
Thilagavathy et al. A hybrid approach to extract scene text from videos
Takahashi et al. Robust recognition of specific human behaviors in crowded surveillance video sequences
CN113762027B (zh) 一种异常行为的识别方法、装置、设备及存储介质
CN112016609B (zh) 一种图像聚类方法、装置、设备及计算机存储介质
Ma et al. Modified CRF algorithm for dynamic hand gesture recognition
CN106503713A (zh) 一种基于粗外围特征文字识别方法
Vairamani Automatic helmet (object) detection and tracking the riders using Kalman filter technique

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant